Învățare automată adversară: concepte, tipuri de atacuri, strategii și apărări

Publicat: 2021-05-02

Progresul exponențial din deceniile precedente a propulsat progresele tehnologice moderne în lumea de astăzi. În prezent, facem parte din „Industria 4.0” în curs de desfășurare, în centrul căruia se află tehnologii precum AI și ML. Această revoluție industrială implică o tranziție globală către cercetarea științifică și inovarea în tehnologiile rețelelor neuronale, învățarea automată și inteligența artificială, IoT, digitizarea și multe altele.

Ele ne oferă o serie de beneficii în sectoare precum comerțul electronic, producție, sustenabilitate, managementul lanțului de aprovizionare etc. Se preconizează că piața globală pentru AI/ML va depăși 266,92 miliarde USD până în 2027 și continuă să fie o alegere preferată de carieră. pentru absolvenți de pretutindeni.

În timp ce adaptarea acestor tehnologii deschide calea pentru viitor, suntem nepregătiți pentru evenimente precum atacurile Adversarial Machine Learning (AML). Sistemele de învățare automată care sunt proiectate folosind limbaje de codare precum SML, OCaml, F# etc., se bazează pe coduri programabile care sunt integrate în întregul sistem.

Învățați învățarea automată online de la cele mai bune universități din lume – Master, programe executive postuniversitare și program de certificat avansat în ML și AI pentru a vă accelera cariera.

Atacurile externe AML efectuate de hackeri experimentați reprezintă o amenințare pentru integritatea și acuratețea acestor sisteme ML. Modificările ușoare ale setului de date de intrare pot face ca algoritmul ML să clasifice greșit fluxul și, astfel, să reducă fiabilitatea acestor sisteme.

Pentru a vă echipa cu resursele potrivite pentru proiectarea sistemelor care pot rezista la astfel de atacuri AML, înscrieți-vă la o diplomă PG în învățare automată oferită de upGrad și IIIT Bangalore .

Cuprins

Concepte centrate pe învățarea automată adversară

Înainte de a aprofunda subiectul AML, să stabilim definițiile unora dintre conceptele de bază ale acestui domeniu:

  • Inteligența artificială se referă la capacitatea unui sistem de calcul de a efectua sarcini logice, planificare, rezolvare de probleme, simulare sau alte tipuri de sarcini. O IA imită inteligența umană datorită informațiilor introduse în ea prin utilizarea tehnicilor de învățare automată.
  • Machine Learning folosește algoritmi și modele statistice bine definiți pentru sistemele informatice, care se bazează pe îndeplinirea sarcinilor bazate pe modele și inferențe. Ele sunt concepute pentru a executa aceste sarcini fără instrucțiuni explicite și, în schimb, folosesc informații predefinite din rețelele neuronale.
  • Rețelele neuronale sunt inspirate de funcționarea biologică a neuronilor creierului, care sunt utilizați pentru programarea sistematică a datelor observaționale într-un model de învățare profundă. Aceste date programate ajută la descifrarea, distingerea și procesarea datelor de intrare în informații codificate pentru a facilita învățarea profundă.
  • Deep Learning folosește mai multe rețele neuronale și tehnici ML pentru a procesa date de intrare nestructurate și brute în instrucțiuni bine definite. Aceste instrucțiuni facilitează construirea automată a algoritmilor cu mai multe straturi prin învățarea reprezentării/funcției într-o manieră nesupravegheată.
  • Adversarial Machine Learning este o tehnică ML unică care furnizează intrări înșelătoare pentru a provoca defecțiuni în cadrul unui model de învățare automată. Adversarial Machine Learning exploatează vulnerabilitățile din datele de testare ale algoritmilor intrinseci ML care alcătuiesc o rețea neuronală. Un atac AML poate compromite rezultatele rezultate și poate reprezenta o amenințare directă la adresa utilității sistemului ML.

Pentru a învăța în profunzime conceptele cheie ale ML, cum ar fi Adversarial Machine Learning , înscrieți-vă la Masterul în Învățare automată și AI de la upGrad.

Tipuri de atacuri AML

Atacurile adverse de învățare automată sunt clasificate pe baza a trei tipuri de metodologii.

Sunt:

1. Influența asupra clasificatorului

Sistemele de învățare automată clasifică datele de intrare pe baza unui clasificator. Dacă un atacator poate perturba faza de clasificare prin modificarea clasificatorului în sine, poate duce la pierderea credibilității sistemului ML. Deoarece acești clasificatori sunt esențiali pentru identificarea datelor, modificarea mecanismului de clasificare poate dezvălui vulnerabilități care pot fi exploatate de AML.

2. Încălcarea securității

În timpul etapelor de învățare ale unui sistem ML, programatorul definește datele care trebuie considerate legitime. Dacă datele de intrare legitime sunt identificate în mod necorespunzător ca fiind rău intenționate sau dacă datele rău intenționate sunt furnizate ca date de intrare în timpul unui atac AML, respingerea poate fi numită o încălcare a securității.

3. Specificitatea

În timp ce atacurile specifice țintite permit intruziuni/întreruperi specifice, atacurile nediscriminate se adaugă la aleatorietatea datelor de intrare și creează întreruperi prin scăderea performanței/eșecul de a clasifica.

Atacurile AML și categoriile lor sunt ramificate conceptual în afara domeniului Machine Learning. Din cauza cererii în creștere pentru sisteme ML, aproape 2,3 milioane de locuri de muncă vacante sunt disponibile pentru inginerii ML și AI, potrivit Gartner. [2] Puteți citi mai multe despre modul în care Machine Learning Engineering poate fi o carieră plină de satisfacții în 2021 .

Strategii adverse de învățare automată

Pentru a defini în continuare obiectivul adversarului, cunoștințele anterioare ale acestuia despre sistemul care urmează să fie atacat și nivelul de posibilă manipulare a componentelor de date pot ajuta la definirea strategiilor de învățare automată adversă .

Sunt:

1. Evaziunea

Algoritmii ML identifică și sortează setul de date de intrare pe baza anumitor condiții predefinite și parametri calculați. Tipul de evaziune al atacului AML tinde să evite acești parametri utilizați de algoritmi pentru a detecta un atac. Acest lucru se realizează prin modificarea eșantioanelor într-o manieră care să evite detectarea și să le clasifice greșit ca intrări legitime.

Ele nu modifică algoritmul, ci în schimb falsifică intrarea prin diverse metode, astfel încât aceasta să scape de mecanismul de detectare. De exemplu, filtrele anti-spam care analizează textul unui e-mail sunt evitate prin utilizarea imaginilor care au încorporat textul codului/linkurilor malware.

2. Extragerea modelului

Cunoscut și ca „furt de modele”; acest tip de atacuri AML este efectuat pe sisteme ML pentru a extrage datele de antrenament inițial utilizate pentru construirea sistemului. Aceste atacuri sunt în esență capabile să reconstruiască modelul acelui sistem de învățare automată, ceea ce îi poate compromite eficacitatea. Dacă sistemul deține date confidențiale sau dacă natura ML în sine este proprietară/sensibilă, atunci atacatorul le poate folosi în beneficiul său sau o poate perturba.

3. Intoxicatii

Acest tip de atac de învățare automată adversară implică întreruperea datelor de antrenament. Deoarece sistemele ML sunt reinstruite folosind datele colectate în timpul operațiunilor lor, orice contaminare cauzată de injectarea de mostre de date rău intenționate poate facilita un atac AML. Pentru otrăvirea datelor, un atacator are nevoie de acces la codul sursă al acelui ML și îl reantrenează pentru a accepta date incorecte, inhibând astfel funcționarea sistemului.

Cunoașterea corespunzătoare a acestor strategii de atac de învățare automată adversă poate permite unui programator să evite astfel de atacuri în timpul funcționării. Dacă aveți nevoie de instruire practică pentru proiectarea sistemelor ML care pot rezista atacurilor AML, înscrieți-vă la Masterul în învățare automată și AI oferit de upGrad.

Tipuri specifice de atac

Tipuri specifice de atac care pot viza sistemele de învățare profundă, împreună cu sistemele ML convenționale, cum ar fi regresia liniară și „mașinile cu vector de suport”, pot amenința integritatea acestor sisteme. Sunt:

  • Exemplele adverse, cum ar fi atacurile FMCG, PGD, C&W și patch-uri, fac ca mașina să se clasifice greșit, deoarece acestea par a fi normale pentru utilizator. Un „zgomot” specific este utilizat în codul de atac pentru a cauza funcționarea defectuoasă a clasificatoarelor.
  • Atacurile backdoor/troiene supraîncărcă un sistem ML, bombardându-l cu date irelevante și auto-replicabile, care îl împiedică să funcționeze optim. Aceste atacuri adverse de învățare automată sunt greu de protejat, deoarece exploatează lacunele care există în mașină.
  • Model Inversion rescrie clasificatorii pentru a funcționa într-o manieră opusă față de care au fost destinate inițial. Această inversare împiedică mașina să își îndeplinească sarcinile de bază datorită modificărilor aplicate modelului său inerent de învățare.
  • Atacurile de deducere a membrilor (MIA) pot fi aplicate SL (învățare supravegheată) și GAN (rețele generative adversare). Aceste atacuri se bazează pe diferențele dintre seturile de date ale datelor de formare inițială și mostrele externe care reprezintă o amenințare pentru confidențialitate. Cu acces la cutia neagră și la înregistrarea sa de date, modelele de inferență pot prezice dacă eșantionul a fost prezent sau nu în intrarea de antrenament.

Pentru a proteja sistemele ML de aceste tipuri de atacuri, programatori și ingineri ML sunt angajați în toate companiile multinationale majore. Companiile multinaționale indiene care își găzduiesc centrele de cercetare și dezvoltare pentru a încuraja inovația în învățarea automată oferă salarii cuprinse între 15 și 20 de lakh INR pe an. [3] Pentru a afla mai multe despre acest domeniu și pentru a vă asigura un salariu consistent ca inginer ML, înscrieți-vă la o Certificare avansată în Machine Learning și Cloud găzduită de upGrad și IIT Madras.

Apărări împotriva AML-urilor

Pentru a se apăra împotriva unor astfel de atacuri de învățare automată adversă , experții sugerează că programatorii se bazează pe o abordare în mai mulți pași. Acești pași ar servi drept contramăsuri pentru atacurile convenționale AML descrise mai sus. Acești pași sunt:

  • Simulare : Simularea atacurilor în funcție de posibilele strategii de atac ale atacatorului poate dezvălui lacune. Identificarea lor prin aceste simulări poate împiedica atacurile AML să aibă un impact asupra sistemului.
  • Modelare: Estimarea capabilităților și a potențialelor obiective ale atacatorilor poate oferi o oportunitate de a preveni atacurile AML. Acest lucru se realizează prin crearea diferitelor modele ale aceluiași sistem ML care pot rezista acestor atacuri.
  • Evaluarea impactului: Acest tip de apărare evaluează impactul total pe care un atacator îl poate avea asupra sistemului, asigurând astfel pregătirea în cazul unui astfel de atac.
  • Spălarea informațiilor : Prin modificarea informațiilor extrase de atacator, acest tip de apărare poate face atacul inutil. Atunci când modelul extras conține discrepanțe plasate intenționat, atacatorul nu poate recrea modelul furat.

Exemple de AML

Diverse domenii din tehnologiile noastre moderne sunt direct sub amenințarea atacurilor de învățare automată adversă . Deoarece aceste tehnologii se bazează pe sisteme ML preprogramate, ele ar putea fi exploatate de persoane cu intenții rău intenționate. Unele dintre exemplele tipice de atacuri AML includ:

1. Filtrarea spamului: prin ortografia greșită intenționată a cuvintelor „rele” care identifică spam-ul sau prin adăugarea de cuvinte „bune” care împiedică identificarea.

2. Securitatea computerului : prin ascunderea codului malware în datele cookie sau prin inducerea în eroare a semnăturilor digitale pentru a ocoli verificările de securitate.

3. Biometrie: prin falsificarea trăsăturilor biometrice care sunt convertite în informații digitale în scopuri de identificare.

Concluzie

Pe măsură ce domeniile învățării automate și inteligenței artificiale continuă să se extindă, aplicațiile lor cresc în sectoare precum automatizarea, rețelele neuronale și securitatea datelor. Învățarea automată adversară va fi întotdeauna semnificativă pentru scopul etic de a proteja sistemele ML și de a păstra integritatea acestora.

Dacă sunteți interesat să aflați mai multe despre învățarea automată, consultați programul nostru Executive PG în învățarea automată și programul AI, care este conceput pentru profesioniști care lucrează și oferă peste 30 de studii de caz și sarcini, peste 25 de sesiuni de mentorat în industrie, peste 5 practice practice. proiecte capstone, peste 450 de ore de formare riguroasă și asistență pentru plasarea unui loc de muncă cu firme de top.

Sunt atacurile adversare maligne pentru securitatea cibernetică?

Securitatea cibernetică este o prioritate în era digitală. De asemenea, este fragilă, deoarece reține amenințările la adresa structurii și funcției sale. Dacă nu este protejat, IoT devine vulnerabil la furtul de confidențialitate, deteriorarea și utilizarea abuzivă. Atacurile adverse pot apărea atunci când parametrii stabiliți de algoritmi sunt eludați prin clasificarea greșită a atacului primit ca date de intrare. Acesta este doar o modalitate de a încălca sistemele de învățare automată. Odată cu un număr tot mai mare de atacuri adverse asupra algoritmilor de învățare automată, siguranța și eficacitatea securității cibernetice sunt compromise. Învățarea automată adversară a fost dezvoltată pentru a aborda aceste amenințări.

Cum sunt vulnerabile sistemele de învățare automată?

Sistemele de învățare automată trebuie să fie robuste în structura lor pentru a fi fiabile. A existat un roi de atacuri rău intenționate asupra acestor sisteme în ultimii ani, atacurile adverse încalcă barierele de protecție ale acestor sisteme. Acest lucru se întâmplă prin duplicarea modelului și modificarea datelor de antrenament inițial, înșelarea parametrilor algoritmului sau reantrenarea datelor existente pentru a trece cu vederea atacurile primite. Aceste atacuri adverse pot încălca parametrii etici și pot manipula sistemele pentru a opera funcții neautorizate. Apărările adverse de învățare automată sunt folosite pentru a identifica atacurile de tip malware invadator și pentru a restabili integritatea sistemului.

Ce strategii funcționează pentru combaterea atacurilor adversare?

Atacurile adverse pot varia de la încălcarea datelor până la manipularea întregului sistem. Sunt omniprezente și se pot răspândi în sistem rapid dacă atacatorul are acces puternic la algoritmul sistemului. Un exemplu este filtrarea spam-ului, în care cuvintele sunt structurate astfel încât algoritmul să nu le detecteze ca spam. Folosind Adversarial Machine Learning, programatorii iau măsuri împotriva acestor atacuri. Ei încearcă să simuleze atacurile vizualizând strategia atacatorului, recunoscând modelul lor de invazie și identificând lacune. Ei folosesc aceste informații pentru a proteja sistemul de încălcări ulterioare. Testarea abilităților și capacității atacatorului poate ajuta la modificarea și protejarea sistemului.