Apprendimento automatico contraddittorio: concetti, tipi di attacchi, strategie e difese
Pubblicato: 2021-05-02Il progresso esponenziale dei decenni precedenti ha spinto i moderni progressi tecnologici nel mondo di oggi. Attualmente facciamo parte dell'"Industria 4.0" in corso, al centro della quale ci sono tecnologie come AI e ML. Questa rivoluzione industriale comporta una transizione globale verso la ricerca scientifica e l'innovazione nelle tecnologie delle reti neurali, dell'apprendimento automatico e dell'intelligenza artificiale, dell'IoT, della digitalizzazione e molto altro.
Ci forniscono una serie di vantaggi in settori come l'e-commerce, la produzione, la sostenibilità, la gestione della catena di approvvigionamento, ecc. Si prevede che il mercato globale dell'IA/ML supererà i 266,92 miliardi di dollari entro il 2027 e continua a essere una scelta professionale preferita per laureati ovunque.
Sebbene l'adattamento di queste tecnologie stia aprendo la strada al futuro, non siamo preparati per eventi come gli attacchi di Adversarial Machine Learning (AML). I sistemi di Machine Learning progettati utilizzando linguaggi di codifica come SML, OCaml, F#, ecc., si basano su codici programmabili integrati nel sistema.
Impara l'apprendimento automatico online dalle migliori università del mondo: master, programmi post-laurea per dirigenti e programma di certificazione avanzato in ML e AI per accelerare la tua carriera.
Gli attacchi AML esterni eseguiti da hacker esperti rappresentano una minaccia per l'integrità e l'accuratezza di questi sistemi ML. Lievi modifiche al set di dati di input possono far sì che l'algoritmo ML classifichi erroneamente il feed e quindi riduca l'affidabilità di questi sistemi.
Per dotarti delle giuste risorse per la progettazione di sistemi in grado di resistere a tali attacchi AML, iscriviti a un Diploma PG in Machine Learning offerto da upGrad e IIIT Bangalore .
Sommario
Concetti incentrati sull'apprendimento automatico contraddittorio
Prima di approfondire l'argomento AML, stabiliamo le definizioni di alcuni dei concetti di base di questo dominio:
- L' intelligenza artificiale si riferisce alla capacità di un sistema informatico di eseguire attività logiche, di pianificazione, di risoluzione dei problemi, di simulazione o di altro tipo. Un'intelligenza artificiale imita l'intelligenza umana grazie alle informazioni immesse in essa utilizzando tecniche di Machine Learning.
- Machine Learning utilizza algoritmi e modelli statistici ben definiti per i sistemi informatici, che si basano sull'esecuzione di attività basate su modelli e inferenze. Sono progettati per eseguire queste attività senza istruzioni esplicite e utilizzano invece informazioni predefinite dalle reti neurali.
- Le reti neurali si ispirano al funzionamento biologico dei neuroni del cervello, che vengono utilizzati per programmare sistematicamente i dati osservativi in un modello di Deep Learning. Questi dati programmati aiutano a decifrare, distinguere ed elaborare i dati di input in informazioni codificate per facilitare il Deep Learning.
- Il Deep Learning utilizza più reti neurali e tecniche ML per elaborare dati di input non strutturati e grezzi in istruzioni ben definite. Queste istruzioni facilitano la creazione automatica di algoritmi a più livelli attraverso la sua rappresentazione/apprendimento delle funzionalità in modo non supervisionato.
- Adversarial Machine Learning è una tecnica ML unica che fornisce input ingannevoli per causare malfunzionamenti all'interno di un modello di Machine Learning. Adversarial Machine Learning sfrutta le vulnerabilità all'interno dei dati di test degli algoritmi ML intrinseci che costituiscono una rete neurale. Un attacco AML può compromettere i risultati risultanti e rappresentare una minaccia diretta per l'utilità del sistema ML.
Per apprendere i concetti chiave del ML, come Adversarial Machine Learning , in modo approfondito, iscriviti al Master of Science (M.Sc) in Machine Learning & AI da upGrad.
Tipi di attacchi AML
Gli attacchi contraddittori di Machine Learning sono classificati in base a tre tipi di metodologie.
Loro sono:
1. Influenza sul classificatore
I sistemi di Machine Learning classificano i dati di input in base a un classificatore. Se un utente malintenzionato può interrompere la fase di classificazione modificando il classificatore stesso, può far perdere credibilità al sistema ML. Poiché questi classificatori sono parte integrante dell'identificazione dei dati, la manomissione del meccanismo di classificazione può rivelare vulnerabilità che possono essere sfruttate dagli AML.
2. Violazione della sicurezza
Durante le fasi di apprendimento di un sistema ML, il programmatore definisce i dati che devono essere considerati legittimi. Se i dati di input legittimi vengono erroneamente identificati come dannosi o se i dati dannosi vengono forniti come dati di input durante un attacco AML, il rifiuto può essere definito una violazione della sicurezza.
3. Specificità
Mentre attacchi mirati specifici consentono intrusioni/interruzioni specifiche, gli attacchi indiscriminati si aggiungono alla casualità all'interno dei dati di input e creano interruzioni a causa di prestazioni ridotte/mancata classificazione.
Gli attacchi AML e le relative categorie sono concettualmente ramificati dal dominio Machine Learning. A causa della crescente domanda di sistemi ML, secondo Gartner sono disponibili quasi 2,3 milioni di offerte di lavoro per ingegneri ML e AI. [2] Puoi leggere di più su come Machine Learning Engineering può essere una carriera gratificante nel 2021 .
Strategie di apprendimento automatico contraddittorio
Per definire ulteriormente l'obiettivo dell'avversario, la sua precedente conoscenza del sistema da attaccare e il livello di possibile manipolazione dei componenti dei dati possono aiutare a definire strategie di Adversarial Machine Learning .
Loro sono:
1. Evasione
Gli algoritmi ML identificano e ordinano il set di dati di input in base a determinate condizioni predefinite e parametri calcolati. Il tipo di evasione dell'attacco AML tende a eludere questi parametri utilizzati dagli algoritmi per rilevare un attacco. Ciò viene effettuato modificando i campioni in modo da evitare il rilevamento e classificarli erroneamente come input legittimo.
Non modificano l'algoritmo, ma falsificano l'input con vari metodi in modo che sfugga al meccanismo di rilevamento. Ad esempio, i filtri anti-spam che analizzano il testo di un'e-mail vengono elusi con l'uso di immagini che contengono testo incorporato di codice/collegamenti malware.
2. Estrazione del modello
Conosciuto anche come "furto di modelli"; questo tipo di attacchi AML viene effettuato su sistemi ML per estrarre i dati di addestramento iniziale utilizzati per la costruzione del sistema. Questi attacchi sono essenzialmente in grado di ricostruire il modello di quel sistema di Machine Learning, che può comprometterne l'efficacia. Se il sistema detiene dati riservati o se la natura del ML stesso è proprietaria/sensibile, l'attaccante potrebbe utilizzarli a proprio vantaggio o interromperli.
3. Avvelenamento
Questo tipo di attacco di apprendimento automatico contraddittorio comporta l'interruzione dei dati di addestramento. Poiché i sistemi ML vengono riqualificati utilizzando i dati raccolti durante le loro operazioni, qualsiasi contaminazione causata dall'iniezione di campioni di dati dannosi può facilitare un attacco AML. Per l'avvelenamento dei dati, un utente malintenzionato ha bisogno di accedere al codice sorgente di quel ML e lo addestra nuovamente ad accettare dati errati, inibendo così il funzionamento del sistema.
La corretta conoscenza di queste strategie di attacco adversarial Machine Learning può consentire a un programmatore di evitare tali attacchi durante il funzionamento. Se hai bisogno di una formazione pratica per la progettazione di sistemi ML in grado di resistere agli attacchi AML, iscriviti al Master in Machine Learning e AI offerto da upGrad.
Tipi di attacco specifici
Tipi di attacco specifici che possono prendere di mira i sistemi di apprendimento profondo, insieme ai sistemi ML convenzionali come la regressione lineare e le "macchine del vettore di supporto", possono minacciare l'integrità di questi sistemi. Loro sono:
- Esempi contraddittori, come FMCG, PGD, C&W e attacchi di patch, causano una classificazione errata della macchina, poiché sembrano normali per l'utente. Specifico "rumore" viene utilizzato all'interno del codice di attacco per causare il malfunzionamento dei classificatori.
- Gli attacchi backdoor/trojan sovraccaricano un sistema ML bombardandolo con dati irrilevanti e autoreplicanti che ne impediscono il funzionamento ottimale. È difficile proteggersi da questi attacchi di apprendimento automatico contraddittorio, poiché sfruttano le scappatoie che esistono all'interno della macchina .
- Model Inversion riscrive i classificatori in modo che funzionino in modo opposto a quello originariamente previsto. Questa inversione impedisce alla macchina di svolgere i suoi compiti di base a causa delle modifiche applicate al suo modello di apprendimento intrinseco.
- Gli attacchi di inferenza di appartenenza (MIA) possono essere applicati a SL (apprendimento supervisionato) e GAN (reti contraddittorie generative). Questi attacchi si basano sulle differenze tra i set di dati dei dati di addestramento iniziale e i campioni esterni che rappresentano una minaccia per la privacy. Con l'accesso alla scatola nera e al relativo record di dati, i modelli di inferenza possono prevedere se il campione era presente nell'input di addestramento o meno.
Per proteggere i sistemi ML da questi tipi di attacchi, i programmatori e gli ingegneri ML sono impiegati in tutte le principali multinazionali. Le multinazionali indiane che ospitano i loro centri di ricerca e sviluppo per incoraggiare l'innovazione nell'apprendimento automatico, offrono stipendi che vanno da 15 a 20 Lakh INR all'anno. [3] Per saperne di più su questo dominio e assicurarti uno stipendio elevato come ingegnere ML, iscriviti a una certificazione avanzata in Machine Learning e Cloud ospitata da upGrad e IIT Madras.
Difese contro le AML
Per difendersi da tali attacchi di apprendimento automatico contraddittorio , gli esperti suggeriscono che i programmatori si affidano a un approccio in più fasi. Questi passaggi servirebbero come contromisure agli attacchi AML convenzionali descritti sopra. Questi passaggi sono:
- Simulazione : la simulazione degli attacchi in base alle possibili strategie di attacco dell'attaccante può rivelare delle scappatoie. Identificarli attraverso queste simulazioni può impedire agli attacchi AML di avere un impatto sul sistema.
- Modellazione: la stima delle capacità e dei potenziali obiettivi degli aggressori può offrire l'opportunità di prevenire gli attacchi AML. Questo viene fatto creando diversi modelli dello stesso sistema ML in grado di resistere a questi attacchi.
- Valutazione dell'impatto: questo tipo di difesa valuta l'impatto totale che un utente malintenzionato può avere sul sistema, garantendo così la preparazione in caso di tale attacco.
- Riciclaggio di informazioni: modificando le informazioni estratte dall'attaccante, questo tipo di difesa può rendere l'attacco inutile. Quando il modello estratto contiene discrepanze posizionate di proposito, l'attaccante non può ricreare il modello rubato.
Esempi di AML
Vari domini all'interno delle nostre moderne tecnologie sono direttamente minacciati da attacchi di Adversarial Machine Learning . Poiché queste tecnologie si basano su sistemi ML preprogrammati, potrebbero essere sfruttate da persone con intenzioni dannose. Alcuni degli esempi tipici di attacchi AML includono:
1. Filtro antispam: con parole "cattive" volutamente scritte in modo errato che identificano lo spam o l'aggiunta di parole "buone" che impediscono l'identificazione.
2. Sicurezza informatica : nascondendo il codice malware all'interno dei dati dei cookie o ingannando le firme digitali per aggirare i controlli di sicurezza.
3. Biometria: falsificando i tratti biometrici che vengono convertiti in informazioni digitali a fini di identificazione.
Conclusione
Con la continua espansione dei campi dell'apprendimento automatico e dell'intelligenza artificiale, le loro applicazioni aumentano in settori come l'automazione, le reti neurali e la sicurezza dei dati. L'apprendimento automatico contraddittorio sarà sempre significativo ai fini etici di proteggere i sistemi di machine learning e preservarne l'integrità.
Se sei interessato a saperne di più sull'apprendimento automatico, dai un'occhiata al nostro programma Executive PG in Machine Learning e programma AI, progettato per i professionisti che lavorano e fornisce oltre 30 casi di studio e incarichi, oltre 25 sessioni di tutoraggio del settore, oltre 5 pratiche pratiche progetti capstone, oltre 450 ore di formazione rigorosa e assistenza all'inserimento lavorativo con le migliori aziende.
Gli attacchi contraddittori sono dannosi per la sicurezza informatica?
La sicurezza informatica è una priorità nell'era digitale. È anche fragile in quanto resiste alle minacce alla sua struttura e funzione. Se non protetto, l'IoT diventa vulnerabile a furto di privacy, danni e uso improprio. Gli attacchi contraddittori possono verificarsi quando i parametri impostati dagli algoritmi vengono elusi classificando erroneamente l'attacco in arrivo come dati di input. Questo è solo un modo per violare i sistemi di apprendimento automatico. Con un numero crescente di attacchi contraddittori agli algoritmi di apprendimento automatico, la sicurezza e l'efficacia della sicurezza informatica sono compromesse. L'apprendimento automatico contraddittorio è stato sviluppato per affrontare queste minacce.
In che modo i sistemi di apprendimento automatico sono vulnerabili?
I sistemi di apprendimento automatico devono essere robusti nella loro struttura per essere affidabili. Negli ultimi anni c'è stato uno sciame di attacchi dannosi su questi sistemi, gli attacchi contraddittori violano le barriere protettive di questi sistemi. Ciò avviene duplicando il modello e modificando i dati di addestramento iniziale, ingannando i parametri dell'algoritmo o riqualificando i dati esistenti per ignorare gli attacchi in arrivo. Questi attacchi contraddittori possono violare i parametri etici e manipolare i sistemi per azionare funzioni non autorizzate. Le difese contraddittorio di Machine Learning vengono utilizzate per identificare gli attacchi malware invasori e ripristinare l'integrità del sistema.
Quali strategie funzionano per combattere gli attacchi del contraddittorio?
Gli attacchi contraddittori possono variare dalla violazione dei dati alla manipolazione dell'intero sistema. Sono pervasivi e possono diffondersi rapidamente nel sistema se l'attaccante ha un forte accesso all'algoritmo del sistema. Un esempio è il filtro antispam, in cui le parole sono strutturate in modo che l'algoritmo non possa rilevarle come spam. Utilizzando l'Adversarial Machine Learning, i programmatori prendono misure contro questi attacchi. Cercano di simulare gli attacchi visualizzando la strategia dell'attaccante, riconoscendo il loro modello di invasione e identificando le scappatoie. Usano queste informazioni per proteggere il sistema da ulteriori violazioni. Testare la portata delle abilità e delle capacità dell'attaccante può aiutare a modificare e salvaguardare il sistema.