Uczenie maszynowe kontradyktoryjności: koncepcje, rodzaje ataków, strategie i mechanizmy obronne
Opublikowany: 2021-05-02Wykładniczy postęp poprzednich dziesięcioleci napędzał współczesny postęp technologiczny w dzisiejszym świecie. Obecnie jesteśmy częścią trwającego „Przemysłu 4.0”, którego centrum stanowią technologie takie jak AI i ML. Ta rewolucja przemysłowa obejmuje globalne przejście w kierunku badań naukowych i innowacji w technologiach sieci neuronowych, uczenia maszynowego i sztucznej inteligencji, IoT, cyfryzacji i wielu innych.
Zapewniają nam szereg korzyści w sektorach takich jak e-commerce, produkcja, zrównoważony rozwój, zarządzanie łańcuchem dostaw itp. Oczekuje się, że światowy rynek AI/ML przekroczy 266,92 mld USD do 2027 r. i nadal będzie preferowanym wyborem kariery dla absolwentów na całym świecie.
Chociaż adaptacja tych technologii toruje drogę na przyszłość, nie jesteśmy przygotowani na takie zdarzenia, jak ataki Adversarial Machine Learning (AML). Systemy uczenia maszynowego zaprojektowane przy użyciu języków kodowania, takich jak SML, OCaml, F# itp., opierają się na kodach programowalnych, które są zintegrowane w całym systemie.
Ucz się uczenia maszynowego online z najlepszych światowych uniwersytetów — studiów magisterskich, programów podyplomowych dla kadry kierowniczej i zaawansowanego programu certyfikacji w zakresie uczenia maszynowego i sztucznej inteligencji, aby przyspieszyć swoją karierę.
Zewnętrzne ataki AML przeprowadzane przez doświadczonych hakerów stanowią zagrożenie dla integralności i dokładności tych systemów ML. Niewielkie modyfikacje zestawu danych wejściowych mogą spowodować błędną klasyfikację paszy przez algorytm ML, a tym samym zmniejszenie niezawodności tych systemów.
Aby wyposażyć się w odpowiednie zasoby do projektowania systemów, które mogą wytrzymać takie ataki AML, zarejestruj się w dyplomie PG w uczeniu maszynowym oferowanym przez upGrad i IIIT Bangalore .
Spis treści
Koncepcje skoncentrowane na kontradyktoryjnym uczeniu maszynowym
Zanim zagłębimy się w temat AML, ustalmy definicje niektórych podstawowych pojęć tej dziedziny:
- Sztuczna inteligencja odnosi się do zdolności systemu komputerowego do wykonywania zadań logicznych, planowania, rozwiązywania problemów, symulacji lub innych zadań. Sztuczna inteligencja naśladuje ludzką inteligencję dzięki informacjom wprowadzonym do niej za pomocą technik uczenia maszynowego.
- Uczenie maszynowe wykorzystuje dobrze zdefiniowane algorytmy i modele statystyczne dla systemów komputerowych, które polegają na wykonywaniu zadań w oparciu o wzorce i wnioskowania. Zostały zaprojektowane do wykonywania tych zadań bez wyraźnych instrukcji, a zamiast tego wykorzystują predefiniowane informacje z sieci neuronowych.
- Sieci neuronowe są inspirowane biologicznym funkcjonowaniem neuronów w mózgu, które są wykorzystywane do systematycznego programowania danych obserwacyjnych w modelu Deep Learning. Te zaprogramowane dane pomagają odszyfrować, rozróżnić i przetworzyć dane wejściowe na zakodowane informacje, aby ułatwić Głębokie Uczenie.
- Głębokie uczenie wykorzystuje wiele sieci neuronowych i technik ML do przetwarzania nieustrukturyzowanych i nieprzetworzonych danych wejściowych w dobrze zdefiniowane instrukcje. Instrukcje te ułatwiają automatyczne budowanie wielowarstwowych algorytmów poprzez ich reprezentację/uczenie się funkcji w sposób nienadzorowany.
- Adversarial Machine Learning to unikalna technika uczenia maszynowego, która dostarcza zwodnicze dane wejściowe powodujące nieprawidłowe działanie w modelu uczenia maszynowego. Adversarial Machine Learning wykorzystuje luki w danych testowych wewnętrznych algorytmów ML, które tworzą sieć neuronową. Atak AML może zagrozić wynikowym wynikom i stanowić bezpośrednie zagrożenie dla użyteczności systemu ML.
Aby poznać kluczowe koncepcje ML, takie jak Adversarial Machine Learning , zapisz się na studia magisterskie w zakresie Machine Learning & AI od upGrad.
Rodzaje ataków AML
Ataki kontradyktoryjne oparte na uczeniu maszynowym są podzielone na kategorie w oparciu o trzy rodzaje metodologii.
Oni są:
1. Wpływ na klasyfikator
Systemy uczenia maszynowego klasyfikują dane wejściowe na podstawie klasyfikatora. Jeśli atakujący może zakłócić fazę klasyfikacji, modyfikując sam klasyfikator, może to spowodować utratę wiarygodności systemu ML. Ponieważ te klasyfikatory są integralną częścią identyfikacji danych, manipulowanie mechanizmem klasyfikacji może ujawnić luki w zabezpieczeniach, które mogą być wykorzystane przez AML.
2. Naruszenie bezpieczeństwa
Podczas etapów uczenia się systemu ML programista określa dane, które należy uznać za legalne. Jeśli legalne dane wejściowe zostaną nieprawidłowo zidentyfikowane jako złośliwe lub jeżeli złośliwe dane zostaną dostarczone jako dane wejściowe podczas ataku AML, odrzucenie można określić jako naruszenie bezpieczeństwa.
3. Specyfika
Podczas gdy określone ataki ukierunkowane umożliwiają określone włamania/zakłócenia, ataki masowe zwiększają losowość danych wejściowych i powodują zakłócenia poprzez zmniejszoną wydajność/błędy klasyfikacji.
Ataki AML i ich kategorie są koncepcyjnie rozgałęzione poza domenę uczenia maszynowego. Według Gartnera, ze względu na rosnące zapotrzebowanie na systemy ML, prawie 2,3 miliona wolnych miejsc pracy jest dostępnych dla inżynierów ML i AI. [2] Możesz przeczytać więcej o tym, jak inżynieria uczenia maszynowego może być satysfakcjonującą karierą w 2021 roku .
Przeciwstawne strategie uczenia maszynowego
Aby dokładniej zdefiniować cel przeciwnika, jego wcześniejsza wiedza na temat systemu, który ma zostać zaatakowany, oraz poziom możliwej manipulacji komponentami danych może pomóc w zdefiniowaniu strategii uczenia maszynowego przeciwnika .
Oni są:
1. Unikanie
Algorytmy ML identyfikują i sortują zestaw danych wejściowych na podstawie określonych wstępnie zdefiniowanych warunków i obliczonych parametrów. Typ obejścia ataku AML ma tendencję do omijania tych parametrów używanych przez algorytmy do wykrywania ataku. Odbywa się to poprzez modyfikację próbek w sposób, który pozwala uniknąć wykrycia i błędnie zaklasyfikować je jako uzasadnione dane wejściowe.
Nie modyfikują algorytmu, ale fałszują dane wejściowe różnymi metodami, aby wymykały się one mechanizmowi wykrywania. Na przykład filtry antyspamowe, które analizują tekst wiadomości e-mail, są omijane za pomocą obrazów, które mają osadzony tekst kodu/linków złośliwego oprogramowania.
2. Ekstrakcja modelu
Znany również jako „kradzież modeli”; tego typu ataki AML są przeprowadzane na systemach ML w celu wydobycia początkowych danych treningowych wykorzystywanych do budowy systemu. Ataki te są zasadniczo w stanie zrekonstruować model tego systemu uczenia maszynowego, co może zagrozić jego skuteczności. Jeśli system przechowuje poufne dane lub jeśli sam ML jest zastrzeżony/wrażliwy, osoba atakująca może wykorzystać je na swoją korzyść lub ją zakłócić.
3. Zatrucie
Ten typ ataku Adversarial Machine Learning obejmuje zakłócenia danych treningowych. Ponieważ systemy ML są ponownie szkolone przy użyciu danych zebranych podczas ich działania, wszelkie zanieczyszczenia spowodowane wstrzykiwaniem próbek złośliwych danych mogą ułatwić atak AML. Aby zatruć dane, atakujący potrzebuje dostępu do kodu źródłowego tej ML i przeszkoli go do akceptowania nieprawidłowych danych, hamując w ten sposób działanie systemu.
Właściwa znajomość tych strategii ataku typu Adversarial Machine Learning może umożliwić programiście unikanie takich ataków podczas działania. Jeśli potrzebujesz praktycznego szkolenia w zakresie projektowania systemów ML, które mogą wytrzymać ataki AML, zapisz się na studia magisterskie z uczenia maszynowego i sztucznej inteligencji oferowane przez upGrad.
Określone typy ataków
Konkretne typy ataków, które mogą być wymierzone w systemy Deep Learning, wraz z konwencjonalnymi systemami ML, takimi jak regresja liniowa i „maszyny wektora nośnego”, mogą zagrozić integralności tych systemów. Oni są:
- Przykłady kontradyktoryjne, takie jak FMCG, PGD, C&W i ataki łatowe, powodują błędną klasyfikację maszyny, ponieważ wydają się one normalne dla użytkownika. W kodzie ataku używany jest specyficzny „szum”, który powoduje nieprawidłowe działanie klasyfikatorów.
- Ataki typu backdoor/trojan przeciążają system ML, bombardując go nieistotnymi i samoreplikującymi się danymi, które uniemożliwiają jego optymalne działanie. Te ataki typu Adversarial Machine Learning są trudne do ochrony, ponieważ wykorzystują luki istniejące w maszynie.
- Model Inversion przepisuje klasyfikatory, aby działały w sposób odwrotny do tego, w jakim były pierwotnie przeznaczone. Ta inwersja uniemożliwia maszynie wykonywanie podstawowych zadań ze względu na zmiany wprowadzone w jej nieodłącznym modelu uczenia się.
- Ataki z wnioskowaniem o członkostwo (MIA) można zastosować do SL (nadzorowane uczenie się) i GAN (generatywne sieci przeciwstawne). Ataki te opierają się na różnicach między zestawami początkowych danych treningowych a próbkami zewnętrznymi, które stanowią zagrożenie dla prywatności. Dzięki dostępowi do czarnej skrzynki i jej rekordu danych modele wnioskowania mogą przewidywać, czy próbka była obecna w danych wejściowych uczących, czy nie.
Aby chronić systemy ML przed tego typu atakami, programiści i inżynierowie ML są zatrudnieni we wszystkich głównych MNC. Indyjskie korporacje wielonarodowe, które goszczą swoje centra badawczo-rozwojowe w celu wspierania innowacji w uczeniu maszynowym, oferują pensje od 15 do 20 lakh INR rocznie. [3] Aby dowiedzieć się więcej o tej domenie i uzyskać wysokie wynagrodzenie jako inżynier ML, zarejestruj się w Advanced Certification w Machine Learning and Cloud hostowanym przez upGrad i IIT Madras.
Obrona przed AML
Aby bronić się przed takimi atakami Adversarial Machine Learning , eksperci sugerują, że programiści polegają na podejściu wieloetapowym. Te kroki posłużyłyby jako środki zaradcze wobec konwencjonalnych ataków AML opisanych powyżej. Te kroki to:
- Symulacja : symulowanie ataków zgodnie z możliwymi strategiami ataku napastnika może ujawnić luki. Zidentyfikowanie ich za pomocą tych symulacji może zapobiec wpływowi ataków AML na system.
- Modelowanie: Szacowanie możliwości i potencjalnych celów atakujących może zapewnić możliwość zapobiegania atakom AML. Odbywa się to poprzez tworzenie różnych modeli tego samego systemu ML, które mogą wytrzymać te ataki.
- Ocena wpływu: ten rodzaj obrony ocenia całkowity wpływ, jaki atakujący może mieć na system, zapewniając w ten sposób przygotowanie na wypadek takiego ataku.
- Pranie informacji : Modyfikując informacje wydobyte przez atakującego, ten rodzaj obrony może sprawić, że atak będzie bezcelowy. Gdy wyodrębniony model zawiera celowo umieszczone rozbieżności, osoba atakująca nie może odtworzyć skradzionego modelu.
Przykłady AML
Różne domeny w naszych nowoczesnych technologiach są bezpośrednio narażone na ataki Adversarial Machine Learning . Ponieważ technologie te opierają się na wstępnie zaprogramowanych systemach ML, mogą być wykorzystywane przez osoby o złych zamiarach. Niektóre z typowych przykładów ataków AML obejmują:
1. Filtrowanie spamu: celowo błędnie napisane „złe” słowa, które identyfikują spam lub dodanie „dobrych” słów, które uniemożliwiają identyfikację.
2. Bezpieczeństwo komputera : ukrywając kod złośliwego oprogramowania w danych plików cookie lub wprowadzając w błąd podpisy cyfrowe w celu ominięcia kontroli bezpieczeństwa.
3. Biometria: poprzez sfałszowanie cech biometrycznych, które są przekształcane w informacje cyfrowe w celu identyfikacji.
Wniosek
Ponieważ dziedziny uczenia maszynowego i sztucznej inteligencji wciąż się rozwijają, ich zastosowania zwiększają się w sektorach, takich jak automatyzacja, sieci neuronowe i bezpieczeństwo danych. Wrogie uczenie maszynowe zawsze będzie miało znaczenie dla etycznego celu ochrony systemów ML i zachowania ich integralności.
Jeśli chcesz dowiedzieć się więcej o uczeniu maszynowym, sprawdź nasz program Executive PG w zakresie uczenia maszynowego i sztucznej inteligencji, który jest przeznaczony dla pracujących profesjonalistów i zapewnia ponad 30 studiów przypadków i zadań, ponad 25 sesji mentorskich w branży, ponad 5 praktycznych ćwiczeń projekty zwieńczenia, ponad 450 godzin rygorystycznych szkoleń i pomocy w pośrednictwie pracy w najlepszych firmach.
Czy ataki adwersarzy są szkodliwe dla cyberbezpieczeństwa?
Cyberbezpieczeństwo jest priorytetem w erze cyfrowej. Jest również delikatna, ponieważ może powstrzymać zagrożenia dla swojej struktury i funkcji. Jeśli nie jest chroniony, IoT staje się podatny na kradzież prywatności, zniszczenie i niewłaściwe użycie. Ataki kontradyktoryjne mogą wystąpić, gdy parametry ustawione przez algorytmy są omijane przez błędną klasyfikację nadchodzącego ataku jako danych wejściowych. To tylko jeden ze sposobów naruszania systemów uczenia maszynowego. Wraz z rosnącą liczbą wrogich ataków na algorytmy uczenia maszynowego, bezpieczeństwo i skuteczność cyberbezpieczeństwa są zagrożone. Adversarial Machine Learning został opracowany w celu zwalczania tych zagrożeń.
W jaki sposób podatne są systemy uczenia maszynowego?
Systemy uczenia maszynowego muszą mieć solidną strukturę, aby były niezawodne. W ostatnich latach doszło do wielu złośliwych ataków na te systemy, ataki kontradyktoryjne naruszają bariery ochronne tych systemów. Dzieje się to poprzez powielanie modelu i zmianę początkowych danych treningowych, oszukiwanie parametrów algorytmu lub ponowne trenowanie istniejących danych w celu przeoczenia nadchodzących ataków. Te wrogie ataki mogą naruszać parametry etyczne i manipulować systemami w celu obsługi nieautoryzowanych funkcji. Adwersyjne mechanizmy obronne oparte na uczeniu maszynowym służą do identyfikowania ataków inwazyjnego złośliwego oprogramowania i przywracania integralności systemu.
Jakie strategie sprawdzają się w zwalczaniu ataków adwersarzy?
Ataki kontradyktoryjne mogą obejmować zarówno naruszenie danych, jak i manipulację całym systemem. Są wszechobecne i mogą szybko rozprzestrzeniać się w systemie, jeśli atakujący ma silny dostęp do algorytmu systemu. Przykładem jest filtrowanie spamu, w którym słowa są tak skonstruowane, że algorytm nie może ich wykryć jako spamu. Korzystając z Adversarial Machine Learning, programiści podejmują działania przeciwko tym atakom. Próbują symulować ataki, wizualizując strategię napastnika, rozpoznając schemat inwazji i identyfikując luki. Wykorzystują te spostrzeżenia, aby chronić system przed dalszymi naruszeniami. Testowanie zakresu umiejętności i możliwości atakującego może pomóc w modyfikacji i zabezpieczeniu systemu.