Adversarial Machine Learning: Konzepte, Angriffsarten, Strategien & Verteidigung

Veröffentlicht: 2021-05-02

Der exponentielle Fortschritt der vergangenen Jahrzehnte hat den modernen technologischen Fortschritt in der heutigen Welt vorangetrieben. Wir sind derzeit Teil der fortschreitenden „Industrie 4.0“, in deren Mittelpunkt Technologien wie KI und ML stehen. Diese industrielle Revolution beinhaltet einen globalen Übergang zu wissenschaftlicher Forschung und Innovation in Technologien für neuronale Netze, maschinelles Lernen und künstliche Intelligenz, IoT, Digitalisierung und vieles mehr.

Sie bieten uns eine Reihe von Vorteilen in Sektoren wie E-Commerce, Fertigung, Nachhaltigkeit, Lieferkettenmanagement usw. Der globale Markt für KI/ML wird voraussichtlich bis 2027 266,92 Milliarden USD überschreiten und ist weiterhin eine bevorzugte Berufswahl für Absolventen überall.

Während die Adaption dieser Technologien den Weg für die Zukunft ebnet, sind wir nicht auf Ereignisse wie Angriffe durch Adversarial Machine Learning (AML) vorbereitet. Systeme für maschinelles Lernen, die mit Programmiersprachen wie SML, OCaml, F# usw. entwickelt wurden, stützen sich auf programmierbare Codes, die im gesamten System integriert sind.

Lernen Sie maschinelles Lernen online von den besten Universitäten der Welt – Master, Executive Post Graduate Programs und Advanced Certificate Program in ML & AI, um Ihre Karriere zu beschleunigen.

Externe AML-Angriffe, die von erfahrenen Hackern durchgeführt werden, stellen eine Bedrohung für die Integrität und Genauigkeit dieser ML-Systeme dar. Geringfügige Änderungen am Eingabedatensatz können dazu führen, dass der ML-Algorithmus den Feed falsch klassifiziert und somit die Zuverlässigkeit dieser Systeme verringert.

Um sich mit den richtigen Ressourcen zum Entwerfen von Systemen auszustatten, die solchen AML-Angriffen standhalten, melden Sie sich für ein PG-Diplom in maschinellem Lernen an, das von upGrad und IIIT Bangalore angeboten wird .

Inhaltsverzeichnis

Konzepte, die sich auf kontradiktorisches maschinelles Lernen konzentrieren

Bevor wir uns mit dem Thema AML befassen, lassen Sie uns die Definitionen einiger grundlegender Konzepte dieser Domäne festlegen:

  • Künstliche Intelligenz bezieht sich auf die Fähigkeit eines Computersystems, Logik, Planung, Problemlösung, Simulation oder andere Arten von Aufgaben auszuführen. Eine KI ahmt die menschliche Intelligenz aufgrund der Informationen nach, die ihr mithilfe von Techniken des maschinellen Lernens zugeführt werden.
  • Maschinelles Lernen verwendet gut definierte Algorithmen und statistische Modelle für Computersysteme, die darauf angewiesen sind, Aufgaben basierend auf Mustern und Schlussfolgerungen auszuführen. Sie sind so konzipiert, dass sie diese Aufgaben ohne explizite Anweisungen ausführen und stattdessen vordefinierte Informationen aus neuronalen Netzen verwenden.
  • Neuronale Netze sind von der biologischen Funktionsweise der Neuronen eines Gehirns inspiriert, die zur systematischen Programmierung der Beobachtungsdaten in ein Deep-Learning-Modell verwendet werden. Diese programmierten Daten helfen, Eingabedaten zu entschlüsseln, zu unterscheiden und in codierte Informationen zu verarbeiten, um Deep Learning zu erleichtern.
  • Deep Learning verwendet mehrere neuronale Netze und ML-Techniken, um unstrukturierte und rohe Eingabedaten in klar definierte Anweisungen zu verarbeiten. Diese Anweisungen erleichtern das automatische Erstellen mehrschichtiger Algorithmen durch ihre Repräsentation/das Lernen von Merkmalen auf unbeaufsichtigte Weise.
  • Adversarial Machine Learning ist eine einzigartige ML-Technik, die irreführende Eingaben liefert, um Fehlfunktionen innerhalb eines Machine Learning-Modells zu verursachen. Adversarial Machine Learning nutzt Schwachstellen in den Testdaten der intrinsischen ML-Algorithmen aus, aus denen ein neuronales Netzwerk besteht. Ein AML-Angriff kann die resultierenden Ergebnisse gefährden und eine direkte Bedrohung für die Nützlichkeit des ML-Systems darstellen.

Um die Schlüsselkonzepte von ML, wie z. B. Adversarial Machine Learning , eingehend zu erlernen, schreiben Sie sich für den Master of Science (M.Sc) in Machine Learning & AI von upGrad ein.

Arten von AML-Angriffen

Adversarial Machine Learning- Angriffe werden basierend auf drei Arten von Methoden kategorisiert.

Sie sind:

1. Einfluss auf den Klassifikator

Machine-Learning-Systeme klassifizieren die Eingabedaten anhand eines Klassifikators. Wenn ein Angreifer die Klassifizierungsphase stören kann, indem er den Klassifikator selbst modifiziert, kann dies dazu führen, dass das ML-System seine Glaubwürdigkeit verliert. Da diese Klassifikatoren für die Identifizierung von Daten von wesentlicher Bedeutung sind, können Manipulationen am Klassifizierungsmechanismus Schwachstellen aufdecken, die von AMLs ausgenutzt werden können.

2. Sicherheitsverletzung

Während der Lernphasen eines ML-Systems definiert der Programmierer die als legitim zu betrachtenden Daten. Wenn legitime Eingabedaten fälschlicherweise als bösartig identifiziert werden oder wenn während eines AML-Angriffs bösartige Daten als Eingabedaten bereitgestellt werden, kann die Zurückweisung als Sicherheitsverletzung bezeichnet werden.

3. Spezifität

Während spezifische gezielte Angriffe spezifische Eingriffe/Unterbrechungen ermöglichen, tragen willkürliche Angriffe zur Zufälligkeit innerhalb der Eingabedaten bei und erzeugen Unterbrechungen durch verringerte Leistung/Fehler bei der Klassifizierung.

AML-Angriffe und ihre Kategorien sind konzeptionell aus dem Bereich des maschinellen Lernens heraus verzweigt. Aufgrund der steigenden Nachfrage nach ML-Systemen sind laut Gartner fast 2,3 Millionen Stellenangebote für ML- und KI-Ingenieure verfügbar. [2] Sie können mehr darüber lesen, wie Machine Learning Engineering im Jahr 2021 eine lohnende Karriere sein kann .

Kontradiktorische Strategien für maschinelles Lernen

Um das Ziel des Angreifers weiter zu definieren, kann sein Vorwissen über das anzugreifende System und das Ausmaß möglicher Manipulationen von Datenkomponenten bei der Definition von Strategien für das gegnerische maschinelle Lernen hilfreich sein.

Sie sind:

1. Ausweichen

ML-Algorithmen identifizieren und sortieren den Eingabedatensatz basierend auf bestimmten vordefinierten Bedingungen und berechneten Parametern. Der Umgehungstyp des AML-Angriffs neigt dazu, diese Parameter zu umgehen, die von Algorithmen verwendet werden, um einen Angriff zu erkennen. Dies wird durchgeführt, indem die Proben in einer Weise modifiziert werden, die eine Erkennung vermeiden und sie fälschlicherweise als legitime Eingabe klassifizieren kann.

Sie modifizieren den Algorithmus nicht, sondern fälschen die Eingabe durch verschiedene Methoden, sodass sie dem Erkennungsmechanismus entgeht. Beispielsweise werden Anti-Spam-Filter, die den Text einer E-Mail analysieren, durch die Verwendung von Bildern mit eingebettetem Text von Schadcode/Links umgangen.

2. Modellextraktion

Auch bekannt als „Modelldiebstahl“; Diese Art von AML-Angriffen wird auf ML-Systemen ausgeführt, um die anfänglichen Trainingsdaten zu extrahieren, die zum Aufbau des Systems verwendet werden. Diese Angriffe sind im Wesentlichen in der Lage, das Modell dieses maschinellen Lernsystems zu rekonstruieren, was seine Wirksamkeit beeinträchtigen kann. Wenn das System vertrauliche Daten enthält oder wenn die Art der ML selbst proprietär/sensibel ist, könnte der Angreifer sie zu seinem Vorteil nutzen oder stören.

3. Vergiftung

Diese Art von gegnerischem Machine-Learning -Angriff beinhaltet die Unterbrechung der Trainingsdaten. Da ML-Systeme mit während ihres Betriebs gesammelten Daten neu trainiert werden, kann jede Kontamination, die durch das Einschleusen von Proben bösartiger Daten verursacht wird, einen AML-Angriff erleichtern. Um Daten zu vergiften, benötigt ein Angreifer Zugriff auf den Quellcode dieser ML und trainiert sie neu, um falsche Daten zu akzeptieren, wodurch das Funktionieren des Systems verhindert wird.

Die richtige Kenntnis dieser Angriffsstrategien des Adversarial Machine Learning kann es einem Programmierer ermöglichen, solche Angriffe während des Betriebs zu vermeiden. Wenn Sie eine praktische Schulung zum Entwerfen von ML-Systemen benötigen, die AML-Angriffen standhalten, melden Sie sich für den von upGrad angebotenen Master in Machine Learning und KI an.

Spezifische Angriffstypen

Bestimmte Angriffstypen, die auf Deep-Learning-Systeme abzielen können, können zusammen mit herkömmlichen ML-Systemen wie linearer Regression und „Support-Vektor-Maschinen“ die Integrität dieser Systeme bedrohen. Sie sind:

  • Gegnerische Beispiele wie FMCG-, PGD-, C&W- und Patch-Angriffe führen dazu, dass die Maschine falsch klassifiziert wird, da sie dem Benutzer normal erscheinen. Innerhalb des Angriffscodes wird spezifisches „Rauschen“ verwendet, um eine Fehlfunktion der Klassifikatoren zu verursachen.
  • Backdoor-/Trojaner-Angriffe überlasten ein ML-System, indem sie es mit irrelevanten und sich selbst replizierenden Daten bombardieren, die es daran hindern, optimal zu funktionieren. Es ist schwierig, sich vor diesen gegnerischen Machine-Learning -Angriffen zu schützen, da sie die Schlupflöcher ausnutzen, die innerhalb der Maschine vorhanden sind.
  • Die Modellinversion schreibt Klassifikatoren so um, dass sie auf die entgegengesetzte Weise funktionieren, zu der sie ursprünglich beabsichtigt waren. Diese Umkehrung verhindert, dass die Maschine ihre grundlegenden Aufgaben aufgrund der Änderungen an ihrem inhärenten Lernmodell ausführt.
  • Membership Inference Attacks (MIAs) können auf SL (überwachtes Lernen) und GANs (Generative Adversarial Networks) angewendet werden. Diese Angriffe beruhen auf den Unterschieden zwischen den Datensätzen der anfänglichen Trainingsdaten und externen Stichproben, die eine Bedrohung der Privatsphäre darstellen. Mit Zugriff auf die Blackbox und ihren Datensatz können Inferenzmodelle vorhersagen, ob die Stichprobe in der Trainingseingabe vorhanden war oder nicht.

Um ML-Systeme vor dieser Art von Angriffen zu schützen, werden ML-Programmierer und -Ingenieure in allen großen MNCs eingesetzt. Indische multinationale Unternehmen, die ihre F&E-Zentren beherbergen, um Innovationen im maschinellen Lernen zu fördern, bieten Gehälter zwischen 15 und 20 Lakh INR pro Jahr. [3] Um mehr über diesen Bereich zu erfahren und sich ein sattes Gehalt als ML-Ingenieur zu sichern, melden Sie sich für eine Advanced Certification in Machine Learning and Cloud an, die von upGrad und IIT Madras gehostet wird.

Verteidigung gegen AMLs

Um sich gegen solche Adversarial Machine Learning -Angriffe zu verteidigen, schlagen Experten vor, dass Programmierer auf einen mehrstufigen Ansatz setzen. Diese Schritte würden als Gegenmaßnahmen zu den oben beschriebenen herkömmlichen AML-Angriffen dienen. Diese Schritte sind:

  • Simulation : Die Simulation von Angriffen gemäß den möglichen Angriffsstrategien des Angreifers kann Schlupflöcher aufdecken. Ihre Identifizierung durch diese Simulationen kann verhindern, dass AML-Angriffe Auswirkungen auf das System haben.
  • Modellierung: Das Abschätzen der Fähigkeiten und potenziellen Ziele von Angreifern kann eine Möglichkeit bieten, AML-Angriffe zu verhindern. Dies geschieht durch die Erstellung verschiedener Modelle desselben ML-Systems, die diesen Angriffen standhalten können.
  • Auswirkungsbewertung: Diese Art der Verteidigung bewertet die Gesamtwirkung, die ein Angreifer auf das System haben kann, und gewährleistet so die Vorbereitung auf einen solchen Angriff.
  • Informationswäsche : Durch die Änderung der vom Angreifer extrahierten Informationen kann diese Art der Verteidigung den Angriff sinnlos machen. Wenn das extrahierte Modell absichtlich platzierte Abweichungen enthält, kann der Angreifer das gestohlene Modell nicht wiederherstellen.

Beispiele für AMLs

Verschiedene Bereiche innerhalb unserer modernen Technologien sind direkt der Bedrohung durch feindliche Machine Learning - Angriffe ausgesetzt. Da diese Technologien auf vorprogrammierten ML-Systemen beruhen, könnten sie von Personen mit böswilligen Absichten ausgenutzt werden. Zu den typischen Beispielen für AML-Angriffe gehören:

1. Spam-Filterung: Durch absichtlich falsch geschriebene „schlechte“ Wörter, die Spam identifizieren, oder das Hinzufügen von „guten“ Wörtern, die eine Identifizierung verhindern.

2. Computersicherheit : Durch das Verstecken von Malware-Code in Cookie-Daten oder irreführende digitale Signaturen, um Sicherheitsprüfungen zu umgehen.

3. Biometrie: Durch Fälschen biometrischer Merkmale, die zu Identifikationszwecken in digitale Informationen umgewandelt werden.

Fazit

Da die Bereiche des maschinellen Lernens und der künstlichen Intelligenz weiter expandieren, nehmen ihre Anwendungen in Sektoren wie Automatisierung, neuronale Netze und Datensicherheit zu. Adversarial Machine Learning wird für den ethischen Zweck des Schutzes von ML-Systemen und der Wahrung ihrer Integrität immer von Bedeutung sein.

Wenn Sie mehr über maschinelles Lernen erfahren möchten, besuchen Sie unser Executive PG-Programm für maschinelles Lernen und KI-Programm, das für Berufstätige konzipiert ist und mehr als 30 Fallstudien und Aufgaben, mehr als 25 Branchen-Mentoring-Sitzungen und mehr als 5 praktische praktische Übungen bietet Capstone-Projekte, mehr als 450 Stunden strenge Schulungen und Unterstützung bei der Stellenvermittlung bei Top-Unternehmen.

Sind gegnerische Angriffe bösartig für die Cybersicherheit?

Cybersicherheit ist eine Priorität im digitalen Zeitalter. Es ist auch zerbrechlich, da es Bedrohungen für seine Struktur und Funktion zurückhält. Wenn es nicht geschützt ist, wird das IoT anfällig für Diebstahl der Privatsphäre, Beschädigung und Missbrauch. Gegnerische Angriffe können auftreten, wenn die von Algorithmen festgelegten Parameter umgangen werden, indem der eingehende Angriff fälschlicherweise als Eingabedaten klassifiziert wird. Dies ist nur eine Möglichkeit, maschinelle Lernsysteme zu durchbrechen. Mit einer zunehmenden Anzahl gegnerischer Angriffe auf maschinelle Lernalgorithmen werden die Sicherheit und Wirksamkeit der Cybersicherheit gefährdet. Adversarial Machine Learning wurde entwickelt, um diese Bedrohungen zu bekämpfen.

Wie sind maschinelle Lernsysteme anfällig?

Maschinelle Lernsysteme müssen robust in ihrer Struktur sein, um zuverlässig zu sein. In den letzten Jahren gab es einen Schwarm böswilliger Angriffe auf diese Systeme, gegnerische Angriffe durchbrechen die Schutzbarrieren dieser Systeme. Dies geschieht, indem das Modell dupliziert und die anfänglichen Trainingsdaten geändert, die Parameter des Algorithmus getäuscht oder vorhandene Daten neu trainiert werden, um eingehende Angriffe zu übersehen. Diese gegnerischen Angriffe können ethische Parameter verletzen und Systeme manipulieren, um nicht autorisierte Funktionen auszuführen. Adversarial Machine Learning-Verteidigungen werden verwendet, um eindringende Malware-Angriffe zu identifizieren und die Integrität des Systems wiederherzustellen.

Welche Strategien funktionieren zur Bekämpfung von gegnerischen Angriffen?

Kontradiktorische Angriffe können von der Verletzung von Daten bis zur Manipulation des gesamten Systems reichen. Sie sind allgegenwärtig und können sich schnell über das System ausbreiten, wenn der Angreifer starken Zugriff auf den Algorithmus des Systems hat. Ein Beispiel ist die Spam-Filterung, bei der die Wörter so strukturiert sind, dass der Algorithmus sie nicht als Spam erkennen kann. Mittels Adversarial Machine Learning ergreifen Programmierer Maßnahmen gegen diese Angriffe. Sie versuchen, Angriffe zu simulieren, indem sie die Strategie des Angreifers visualisieren, sein Angriffsmuster erkennen und Schlupflöcher identifizieren. Sie nutzen diese Erkenntnisse, um das System vor weiteren Verstößen zu schützen. Das Testen des Umfangs der Fähigkeiten und Fähigkeiten des Angreifers kann dabei helfen, das System zu modifizieren und zu schützen.