Düşmanca Makine Öğrenimi: Kavramlar, Saldırı Türleri, Stratejiler ve Savunmalar
Yayınlanan: 2021-05-02Önceki on yılların üstel ilerlemesi, günümüz dünyasında modern teknolojik gelişmeleri harekete geçirdi. Şu anda merkezinde AI ve ML gibi teknolojilerin bulunduğu devam eden 'Endüstri 4.0'ın bir parçasıyız. Bu sanayi devrimi, sinir ağları, Makine Öğrenimi ve Yapay Zeka, Nesnelerin İnterneti, sayısallaştırma ve çok daha fazlası teknolojilerinde bilimsel araştırma ve yeniliğe doğru küresel bir geçişi içerir.
Bize e-ticaret, üretim, sürdürülebilirlik, tedarik zinciri yönetimi vb. sektörlerde bir dizi fayda sağlıyorlar. AI/ML için küresel pazarın 2027 yılına kadar 266,92 milyar ABD dolarını aşması bekleniyor ve tercih edilen bir kariyer seçeneği olmaya devam ediyor her yerde mezunlar için.
Bu teknolojilerin adaptasyonu geleceğin önünü açarken, Adversarial Machine Learning (AML) saldırıları gibi olaylara hazırlıklı değiliz. SML, OCaml, F# vb. kodlama dilleri kullanılarak tasarlanan Makine Öğrenimi sistemleri, sisteme entegre edilmiş programlanabilir kodlara dayanır.
Kariyerinizi hızlandırmak için Makine Öğrenimi'ni dünyanın en iyi Üniversiteleri - Yüksek Lisanslar, Yönetici Yüksek Lisans Programları ve Makine Öğrenimi ve Yapay Zeka alanında Gelişmiş Sertifika Programından çevrimiçi öğrenin .
Deneyimli bilgisayar korsanları tarafından gerçekleştirilen harici AML saldırıları, bu ML sistemlerinin bütünlüğü ve doğruluğu için bir tehdit oluşturmaktadır. Giriş veri setinde yapılan küçük değişiklikler, ML algoritmasının beslemeyi yanlış sınıflandırmasına ve dolayısıyla bu sistemlerin güvenilirliğini düşürmesine neden olabilir.
Kendinizi bu tür AML saldırılarına dayanabilecek sistemler tasarlamak için doğru kaynaklarla donatmak için upGrad ve IIIT Bangalore tarafından sunulan Makine Öğrenimi PG Diplomasına kaydolun .
İçindekiler
Düşmanca Makine Öğrenimi Merkezli Kavramlar
AML konusuna girmeden önce, bu alanın bazı temel kavramlarının tanımlarını oluşturalım:
- Yapay Zeka , bir bilgi işlem sisteminin mantık, planlama, problem çözme, simülasyon veya diğer türden görevleri yerine getirme yeteneğini ifade eder. Yapay Zeka, Makine Öğrenimi tekniklerini kullanarak kendisine verilen bilgiler nedeniyle insan zekasını taklit eder.
- Makine Öğrenimi , bilgisayar sistemleri için, kalıplara ve çıkarımlara dayalı görevleri gerçekleştirmeye dayanan iyi tanımlanmış algoritmalar ve istatistiksel modeller kullanır. Bu görevleri açık talimatlar olmadan yürütmek ve bunun yerine sinir ağlarından önceden tanımlanmış bilgileri kullanmak üzere tasarlanmıştır.
- Sinir Ağları , gözlemsel verileri bir Derin Öğrenme modeline sistematik olarak programlamak için kullanılan bir beynin nöronlarının biyolojik işleyişinden ilham alır. Bu programlanmış veriler, Derin Öğrenmeyi kolaylaştırmak için giriş verilerini kodlanmış bilgilere deşifre etmeye, ayırt etmeye ve işlemeye yardımcı olur.
- Derin Öğrenme , yapılandırılmamış ve ham girdi verilerini iyi tanımlanmış talimatlara dönüştürmek için birden fazla sinir ağı ve ML tekniği kullanır. Bu talimatlar, denetimsiz bir şekilde temsil/özellik öğrenmesi yoluyla otomatik olarak çok katmanlı algoritmalar oluşturmayı kolaylaştırır.
- Düşmanca Makine Öğrenimi , bir Makine Öğrenimi modelinde arızaya neden olmak için aldatıcı girdiler sağlayan benzersiz bir makine öğrenimi tekniğidir. Düşmanca Makine Öğrenimi, bir sinir ağını oluşturan içsel ML algoritmalarının test verileri içindeki güvenlik açıklarından yararlanır. Bir AML saldırısı, ortaya çıkan sonuçları tehlikeye atabilir ve ML sisteminin kullanışlılığına doğrudan bir tehdit oluşturabilir.
Çelişkili Makine Öğrenimi gibi makine öğreniminin temel kavramlarını derinlemesine öğrenmek için upGrad'dan Makine Öğrenimi ve Yapay Zeka alanında Yüksek Lisans Programına (M.Sc) kaydolun.
AML Saldırılarının Türleri
Düşmanca Makine Öğrenimi saldırıları, üç tür metodolojiye göre kategorize edilir.
Onlar:
1. Sınıflandırıcıya Etkisi
Makine Öğrenimi sistemleri, girdi verilerini bir sınıflandırıcıya göre sınıflandırır. Bir saldırgan, sınıflandırıcının kendisini değiştirerek sınıflandırma aşamasını bozabilirse, ML sisteminin güvenilirliğini kaybetmesine neden olabilir. Bu sınıflandırıcılar, verileri tanımlamanın ayrılmaz bir parçası olduğundan, sınıflandırma mekanizmasında değişiklik yapılması, AML'ler tarafından kullanılabilecek güvenlik açıklarını ortaya çıkarabilir.
2. Güvenlik İhlali
Bir ML sisteminin öğrenme aşamaları sırasında, programcı meşru kabul edilecek verileri tanımlar. Meşru giriş verileri uygunsuz bir şekilde kötü amaçlı olarak tanımlanırsa veya bir AML saldırısı sırasında giriş verileri olarak kötü niyetli veriler sağlanırsa, reddetme bir güvenlik ihlali olarak adlandırılabilir.
3. Özgüllük
Belirli hedefli saldırılar, belirli izinsiz girişlere/kesintilere izin verirken, ayrım gözetmeyen saldırılar, girdi verileri içindeki rastgeleliğe katkıda bulunur ve düşük performans/sınıflandırma başarısızlığı yoluyla kesintiler yaratır.
AML saldırıları ve kategorileri kavramsal olarak Makine Öğrenimi alanından ayrılır. Gartner'a göre, makine öğrenimi sistemlerine yönelik artan talep nedeniyle, makine öğrenimi ve yapay zeka mühendisleri için yaklaşık 2,3 milyon iş ilanı mevcut. [2] Makine Öğrenimi Mühendisliğinin 2021'de nasıl ödüllendirici bir kariyer olabileceği hakkında daha fazla bilgi edinebilirsiniz .
Düşmanca Makine Öğrenimi Stratejileri
Düşmanın hedefini daha fazla tanımlamak için, saldırıya uğrayacak sistem hakkındaki ön bilgileri ve veri bileşenlerinin olası manipülasyon düzeyi, Düşman Makine Öğrenimi stratejilerinin tanımlanmasına yardımcı olabilir.
Onlar:
1. kaçınma
ML algoritmaları, önceden tanımlanmış belirli koşullara ve hesaplanan parametrelere dayalı olarak giriş veri kümesini tanımlar ve sıralar. AML saldırısının kaçınma türü, bir saldırıyı tespit etmek için algoritmalar tarafından kullanılan bu parametrelerden kaçınma eğilimindedir. Bu, örnekleri algılamayı önleyebilecek ve meşru girdi olarak yanlış sınıflandırmayacak şekilde değiştirerek gerçekleştirilir.
Algoritmayı değiştirmezler, bunun yerine girdiyi algılama mekanizmasından kaçması için çeşitli yöntemlerle taklit ederler. Örneğin, bir e-postanın metnini analiz eden istenmeyen posta önleme filtreleri, gömülü kötü amaçlı yazılım kodu/bağlantıları metnine sahip görüntülerin kullanımıyla kaçınılır.
2. Model çıkarma
Model hırsızlığı olarak da bilinir; bu tür AML saldırıları, sistemi oluşturmak için kullanılan ilk eğitim verilerini çıkarmak için ML sistemlerinde gerçekleştirilir. Bu saldırılar, esasen, etkinliğini tehlikeye atabilecek olan Makine Öğrenimi sisteminin modelini yeniden yapılandırma yeteneğine sahiptir. Sistem gizli verileri tutuyorsa veya makine öğreniminin doğası özel/hassassa, saldırgan bunu kendi çıkarları için kullanabilir veya bozabilir.
3. Zehirlenme
Bu tür Düşmanca Makine Öğrenimi saldırısı, eğitim verilerinin bozulmasını içerir. ML sistemleri, operasyonları sırasında toplanan veriler kullanılarak yeniden eğitildiğinden, kötü amaçlı veri örneklerinin enjekte edilmesinden kaynaklanan herhangi bir kontaminasyon, bir AML saldırısını kolaylaştırabilir. Verileri zehirlemek için, bir saldırganın bu makine öğreniminin kaynak koduna erişmesi ve yanlış verileri kabul etmesi için yeniden eğitmesi, böylece sistemin işleyişini engellemesi gerekir.
Bu Çelişkili Makine Öğrenimi saldırı stratejilerinin doğru bilgisi, bir programcının operasyon sırasında bu tür saldırılardan kaçınmasını sağlayabilir. AML saldırılarına dayanabilecek makine öğrenimi sistemleri tasarlamak için uygulamalı eğitime ihtiyacınız varsa, upGrad tarafından sunulan Makine Öğrenimi ve Yapay Zeka alanında Yüksek Lisans'a kaydolun.
Spesifik Saldırı Türleri
Lineer regresyon ve 'destek vektör makineleri' gibi geleneksel ML sistemleriyle birlikte Derin Öğrenme sistemlerini hedefleyebilen belirli saldırı türleri, bu sistemlerin bütünlüğünü tehdit edebilir. Onlar:
- FMCG, PGD, C&W ve yama saldırıları gibi ters örnekler, kullanıcıya normal göründükleri için makinenin yanlış sınıflandırmasına neden olur. Sınıflandırıcıların arızalanmasına neden olmak için saldırı kodu içinde belirli 'gürültü' kullanılır.
- Arka kapı/Truva saldırıları, bir ML sistemini, optimum çalışmasını engelleyen alakasız ve kendi kendini kopyalayan verilerle bombardıman ederek aşırı yüklenir. Bu Çelişkili Makine Öğrenimi saldırılarından korunmak zordur, çünkü makinedeki boşluklardan yararlanırlar.
- Model Tersine Çevirme, sınıflandırıcıları, başlangıçta amaçlananların tersi şekilde çalışacak şekilde yeniden yazar. Bu tersine çevirme, kendi doğal öğrenme modeline uygulanan değişiklikler nedeniyle makinenin temel görevlerini yerine getirmesini engeller.
- Üyelik Çıkarım Saldırıları (MIA'lar), SL'ye (denetimli öğrenme) ve GAN'lara (Üretici Düşman Ağları) uygulanabilir. Bu saldırılar, ilk eğitim verilerinin veri kümeleri ile gizlilik tehdidi oluşturan harici örnekler arasındaki farklara dayanır. Kara kutuya ve veri kaydına erişim ile çıkarım modelleri, örneğin eğitim girdisinde bulunup bulunmadığını tahmin edebilir.
Makine öğrenimi sistemlerini bu tür saldırılardan korumak için, tüm büyük ÇUŞ'larda makine öğrenimi programcıları ve mühendisleri istihdam edilmektedir. Makine Öğreniminde yeniliği teşvik etmek için Ar-Ge merkezlerine ev sahipliği yapan Hintli ÇUŞ'lar, yılda 15 ila 20 Lakh INR arasında değişen maaşlar sunuyor. [3] Bu alan hakkında daha fazla bilgi edinmek ve bir makine öğrenimi mühendisi olarak yüksek bir maaşı güvence altına almak için upGrad ve IIT Madras tarafından barındırılan Makine Öğrenimi ve Bulutta Gelişmiş Sertifikasyona kaydolun.
AML'lere Karşı Savunmalar
Uzmanlar, bu tür Çelişkili Makine Öğrenimi saldırılarına karşı savunmak için programcıların çok adımlı bir yaklaşıma güvenmelerini önerir. Bu adımlar, yukarıda açıklanan geleneksel AML saldırılarına karşı önlem görevi görecektir. Bu adımlar şunlardır:
- Simülasyon : Saldırganın olası saldırı stratejilerine göre saldırıları simüle etmek boşlukları ortaya çıkarabilir. Bunları bu simülasyonlar aracılığıyla belirlemek, AML saldırılarının sistem üzerinde bir etkisi olmasını engelleyebilir.
- Modelleme: Saldırganların yeteneklerini ve potansiyel hedeflerini tahmin etmek, AML saldırılarını önleme fırsatı sağlayabilir. Bu, aynı ML sisteminin bu saldırılara dayanabilecek farklı modelleri oluşturularak yapılır.
- Etki değerlendirmesi: Bu savunma türü, bir saldırganın sistem üzerinde sahip olabileceği toplam etkiyi değerlendirerek, böyle bir saldırı durumunda hazırlık yapılmasını sağlar.
- Bilgi aklama : Saldırgan tarafından çıkarılan bilgileri değiştirerek, bu tür bir savunma saldırıyı anlamsız hale getirebilir. Çıkarılan model bilerek yerleştirilmiş tutarsızlıklar içerdiğinde, saldırgan çalınan modeli yeniden oluşturamaz.
AML örnekleri
Modern teknolojilerimiz içindeki çeşitli alanlar, doğrudan Düşman Makine Öğrenimi saldırılarının tehdidi altındadır . Bu teknolojiler önceden programlanmış ML sistemlerine dayandığından, kötü niyetli kişiler tarafından istismar edilebilir. AML saldırılarının tipik örneklerinden bazıları şunlardır:
1. İstenmeyen e-posta filtreleme: İstenmeyen e-postaları tanımlayan 'kötü' sözcükleri kasıtlı olarak yanlış yazarak veya tanımlamayı engelleyen 'iyi' sözcüklerin eklenmesiyle.
2. Bilgisayar güvenliği : Çerez verileri içinde kötü amaçlı yazılım kodunu gizleyerek veya güvenlik kontrollerini atlamak için dijital imzaları yanlış yönlendirerek.
3. Biyometri: Tanımlama amacıyla dijital bilgilere dönüştürülen biyometrik özellikleri taklit ederek.
Çözüm
Makine Öğrenimi ve Yapay Zeka alanları genişlemeye devam ettikçe, otomasyon, sinir ağları ve veri güvenliği gibi sektörlerde uygulamaları artıyor. Çelişkili Makine Öğrenimi , makine öğrenimi sistemlerini koruma ve bütünlüklerini koruma etik amacı için her zaman önemli olacaktır.
Makine öğrenimi hakkında daha fazla bilgi edinmek istiyorsanız, çalışan profesyoneller için tasarlanmış ve 30'dan fazla vaka çalışması ve ödevi, 25'ten fazla sektör mentorluğu oturumu, 5'ten fazla uygulamalı uygulamalı Makine Öğrenimi ve AI programında Yönetici PG Programımıza göz atın. capstone projeleri, en iyi firmalarla 450 saatten fazla sıkı eğitim ve işe yerleştirme yardımı.
Düşman saldırıları siber güvenliğe zararlı mı?
Siber güvenlik, dijital çağda bir önceliktir. Yapısına ve işlevine yönelik tehditleri saklamadığı için de kırılgandır. Korunmadığı takdirde IoT, mahremiyet hırsızlığına, hasara ve kötüye kullanıma karşı savunmasız hale gelir. Algoritmalar tarafından ayarlanan parametreler, gelen saldırıyı girdi verisi olarak yanlış sınıflandırarak kaçınıldığında, ters saldırılar meydana gelebilir. Bu, makine öğrenimi sistemlerini ihlal etmenin yalnızca bir yoludur. Makine öğrenimi algoritmalarına yönelik artan sayıda düşmanca saldırı ile siber güvenliğin güvenliği ve etkinliği tehlikeye atılıyor. Adversarial Machine Learning, bu tehditlerin üstesinden gelmek için geliştirilmiştir.
Makine Öğrenimi Sistemleri nasıl savunmasızdır?
Makine Öğrenimi Sistemlerinin güvenilir olması için yapılarında sağlam olması gerekir. Son yıllarda bu sistemlere yönelik bir sürü kötü niyetli saldırı oldu, düşmanca saldırılar bu sistemlerin koruyucu bariyerlerini aşıyor. Bu, modeli kopyalayarak ve ilk eğitim verilerini değiştirerek, algoritmanın parametrelerini aldatarak veya gelen saldırıları gözden kaçırmak için mevcut verileri yeniden eğiterek gerçekleşir. Bu düşmanca saldırılar, etik parametreleri ihlal edebilir ve sistemleri yetkisiz işlevleri işletmek üzere manipüle edebilir. Düşmanca Makine Öğrenimi savunmaları, istilacı kötü amaçlı yazılım saldırılarını belirlemek ve sistemin bütünlüğünü geri yüklemek için kullanılır.
Düşman saldırılarına karşı hangi stratejiler işe yarar?
Düşman saldırıları, veri ihlalinden tüm sistemin manipülasyonuna kadar değişebilir. Saldırganın sistemin algoritmasına güçlü erişimi varsa, bunlar yaygındır ve sistem genelinde hızla yayılabilirler. Bir örnek spam filtrelemedir, burada kelimeler, algoritma onları spam olarak algılayamayacak şekilde yapılandırılmıştır. Adversarial Machine Learning kullanarak programcılar bu saldırılara karşı önlem alırlar. Saldırganın stratejisini görselleştirerek, istila modellerini tanıyarak ve boşlukları belirleyerek saldırıları simüle etmeye çalışırlar. Sistemi daha fazla ihlalden korumak için bu bilgileri kullanırlar. Saldırganın beceri ve kapasitesinin kapsamını test etmek, sistemin değiştirilmesine ve korunmasına yardımcı olabilir.