Pembelajaran Mesin Bermusuhan: Konsep, Jenis Serangan, Strategi & Pertahanan

Diterbitkan: 2021-05-02

Kemajuan eksponensial dari dekade sebelumnya telah mendorong kemajuan teknologi modern di dunia saat ini. Saat ini kami adalah bagian dari 'Industri 4.0' yang sedang berlangsung, yang pusatnya adalah teknologi seperti AI dan ML. Revolusi industri ini melibatkan transisi global menuju penelitian ilmiah dan inovasi dalam teknologi jaringan saraf, Pembelajaran Mesin, dan Kecerdasan Buatan, IoT, digitalisasi, dan banyak lagi.

Mereka memberi kita berbagai manfaat di sektor-sektor seperti e-commerce, manufaktur, keberlanjutan, manajemen rantai pasokan, dll. Pasar global untuk AI/ML diperkirakan akan melampaui USD 266,92 miliar pada tahun 2027 dan terus menjadi pilihan karir yang disukai untuk lulusan di mana-mana.

Sementara adaptasi teknologi ini membuka jalan untuk masa depan, kami tidak siap untuk kejadian seperti serangan Adversarial Machine Learning (AML). Sistem Pembelajaran Mesin yang dirancang menggunakan bahasa pengkodean seperti SML, OCaml, F#, dll., mengandalkan kode yang dapat diprogram yang terintegrasi di seluruh sistem.

Pelajari Pembelajaran Mesin online dari Universitas top dunia – Magister, Program Pascasarjana Eksekutif, dan Program Sertifikat Tingkat Lanjut di ML & AI untuk mempercepat karier Anda.

Serangan AML eksternal yang dilakukan oleh peretas berpengalaman menimbulkan ancaman bagi integritas dan akurasi sistem ML ini. Sedikit modifikasi pada kumpulan data input dapat menyebabkan algoritme ML salah mengklasifikasikan umpan, dan dengan demikian mengurangi keandalan sistem ini.

Untuk melengkapi diri Anda dengan sumber daya yang tepat untuk merancang sistem yang dapat menahan serangan AML tersebut, daftarkan diri Anda di PG Diploma dalam Pembelajaran Mesin yang ditawarkan oleh upGrad dan IIIT Bangalore .

Daftar isi

Konsep Berpusat pada Pembelajaran Mesin Bermusuhan

Sebelum kita mempelajari topik AML, mari kita tentukan definisi dari beberapa konsep dasar domain ini:

  • Kecerdasan Buatan mengacu pada kemampuan sistem komputasi untuk melakukan logika, perencanaan, pemecahan masalah, simulasi, atau jenis tugas lainnya. AI meniru kecerdasan manusia karena informasi yang dimasukkan ke dalamnya dengan menggunakan teknik Machine Learning.
  • Pembelajaran Mesin menggunakan algoritme dan model statistik yang terdefinisi dengan baik untuk sistem komputer, yang mengandalkan pelaksanaan tugas berdasarkan pola dan kesimpulan. Mereka dirancang untuk menjalankan tugas-tugas ini tanpa instruksi eksplisit, dan sebagai gantinya menggunakan informasi yang telah ditentukan dari jaringan saraf.
  • Neural Networks terinspirasi oleh fungsi biologis neuron otak, yang digunakan untuk memprogram data pengamatan secara sistematis ke dalam model Deep Learning. Data terprogram ini membantu menguraikan, membedakan, dan memproses data masukan menjadi informasi berkode untuk memfasilitasi Deep Learning.
  • Deep Learning menggunakan beberapa jaringan saraf dan teknik ML untuk memproses data input mentah dan tidak terstruktur menjadi instruksi yang terdefinisi dengan baik. Instruksi ini memfasilitasi pembuatan algoritme berlapis-lapis secara otomatis melalui pembelajaran representasi/fiturnya tanpa pengawasan.
  • Pembelajaran Mesin Adversarial adalah teknik ML unik yang memasok input yang menipu untuk menyebabkan kegagalan fungsi dalam model Pembelajaran Mesin. Pembelajaran Mesin Adversarial mengeksploitasi kerentanan dalam data uji algoritme ML intrinsik yang membentuk jaringan saraf. Serangan AML dapat membahayakan hasil yang dihasilkan dan menimbulkan ancaman langsung terhadap kegunaan sistem ML.

Untuk mempelajari konsep kunci ML, seperti Adversarial Machine Learning , secara mendalam, daftarkan diri untuk Master of Science (M.Sc) dalam Machine Learning & AI dari upGrad.

Jenis Serangan AML

Serangan Adversarial Machine Learning dikategorikan berdasarkan tiga jenis metodologi.

Mereka:

1. Pengaruh pada Pengklasifikasi

Sistem Machine Learning mengklasifikasikan data input berdasarkan classifier. Jika penyerang dapat mengganggu fase klasifikasi dengan memodifikasi pengklasifikasi itu sendiri, itu dapat mengakibatkan sistem ML kehilangan kredibilitasnya. Karena pengklasifikasi ini merupakan bagian integral untuk mengidentifikasi data, merusak mekanisme klasifikasi dapat mengungkapkan kerentanan yang dapat dieksploitasi oleh AML.

2. Pelanggaran Keamanan

Selama tahap pembelajaran sistem ML, programmer mendefinisikan data yang dianggap sah. Jika data input yang sah secara tidak tepat diidentifikasi sebagai berbahaya, atau jika data berbahaya diberikan sebagai data input selama serangan AML, penolakan dapat disebut sebagai pelanggaran keamanan.

3. Spesifisitas

Sementara serangan bertarget spesifik memungkinkan intrusi/gangguan tertentu, serangan sembarangan menambah keacakan dalam data input dan menciptakan gangguan melalui penurunan kinerja/kegagalan untuk mengklasifikasikan.

Serangan AML dan kategorinya secara konseptual bercabang dari domain Machine Learning. Karena meningkatnya permintaan untuk sistem ML, hampir 2,3 juta lowongan pekerjaan tersedia untuk insinyur ML dan AI, menurut Gartner. [2] Anda dapat membaca lebih lanjut tentang bagaimana Teknik Pembelajaran Mesin dapat menjadi karier yang bermanfaat di tahun 2021 .

Strategi Pembelajaran Mesin Bermusuhan

Untuk lebih menentukan tujuan musuh, pengetahuan mereka sebelumnya tentang sistem yang akan diserang dan tingkat kemungkinan manipulasi komponen data dapat membantu dalam menentukan strategi Pembelajaran Mesin Musuh .

Mereka:

1. Penghindaran

Algoritme ML mengidentifikasi dan mengurutkan kumpulan data input berdasarkan kondisi tertentu yang telah ditentukan sebelumnya dan parameter yang dihitung. Jenis penghindaran serangan AML cenderung menghindari parameter ini yang digunakan oleh algoritme untuk mendeteksi serangan. Ini dilakukan dengan memodifikasi sampel dengan cara yang dapat menghindari deteksi dan salah mengklasifikasikannya sebagai input yang sah.

Mereka tidak memodifikasi algoritme tetapi malah memalsukan input dengan berbagai metode sehingga lolos dari mekanisme deteksi. Misalnya, filter anti-spam yang menganalisis teks email dihindarkan dengan penggunaan gambar yang telah menyematkan teks kode/tautan malware.

2. Ekstraksi model

Juga dikenal sebagai 'mencuri model'; jenis serangan AML ini dilakukan pada sistem ML untuk mengekstrak data pelatihan awal yang digunakan untuk membangun sistem. Serangan-serangan ini pada dasarnya mampu merekonstruksi model sistem Pembelajaran Mesin itu, yang dapat membahayakan kemanjurannya. Jika sistem menyimpan data rahasia, atau jika sifat ML itu sendiri adalah kepemilikan/sensitif, penyerang dapat menggunakannya untuk keuntungan mereka atau mengganggunya.

3. Keracunan

Jenis serangan Adversarial Machine Learning ini melibatkan gangguan pada data pelatihan. Karena sistem ML dilatih ulang menggunakan data yang dikumpulkan selama operasinya, kontaminasi apa pun yang disebabkan oleh penyuntikan sampel data berbahaya dapat memfasilitasi serangan AML. Untuk meracuni data, penyerang memerlukan akses ke kode sumber ML tersebut dan melatihnya kembali untuk menerima data yang salah, sehingga menghambat fungsi sistem.

Pengetahuan yang tepat tentang strategi serangan Adversarial Machine Learning ini dapat memungkinkan pemrogram untuk menghindari serangan semacam itu selama operasi. Jika Anda memerlukan pelatihan langsung untuk merancang sistem ML yang tahan terhadap serangan AML, daftarlah untuk Magister Pembelajaran Mesin dan AI yang ditawarkan oleh upGrad.

Jenis Serangan Khusus

Jenis serangan khusus yang dapat menargetkan sistem Deep Learning, bersama dengan sistem ML konvensional seperti regresi linier dan 'mesin dukungan-vektor', dapat mengancam integritas sistem ini. Mereka:

  • Contoh permusuhan, seperti FMCG, PGD, C&W, dan serangan patch, menyebabkan mesin salah mengklasifikasikan, karena tampak normal bagi pengguna. 'Noise' khusus digunakan dalam kode serangan untuk menyebabkan malfungsi pengklasifikasi.
  • Serangan Backdoor/Trojan membebani sistem ML dengan membombardirnya dengan data yang tidak relevan dan mereplikasi sendiri yang mencegahnya berfungsi optimal. Serangan Adversarial Machine Learning ini sulit untuk dilindungi, karena mereka mengeksploitasi celah yang ada di dalam mesin.
  • Model Inversion menulis ulang pengklasifikasi agar berfungsi dengan cara yang berlawanan dengan yang semula dimaksudkan. Pembalikan ini mencegah mesin melakukan tugas dasarnya karena perubahan yang diterapkan pada model pembelajaran bawaannya.
  • Membership Inference Attacks (MIA) dapat diterapkan ke SL (supervised learning) dan GANs (Generative Adversarial Networks). Serangan ini bergantung pada perbedaan antara kumpulan data dari data pelatihan awal dan sampel eksternal yang menimbulkan ancaman privasi. Dengan akses ke kotak hitam dan catatan datanya, model inferensi dapat memprediksi apakah sampel ada dalam input pelatihan atau tidak.

Untuk melindungi sistem ML dari jenis serangan ini, programmer dan insinyur ML dipekerjakan di semua MNC utama. MNC India yang menjadi tuan rumah pusat R&D mereka untuk mendorong inovasi dalam Pembelajaran Mesin, menawarkan gaji mulai dari 15 hingga 20 Lakh INR per tahun. [3] Untuk mempelajari lebih lanjut tentang domain ini dan mendapatkan gaji besar sebagai insinyur ML, daftarkan diri di Sertifikasi Lanjutan dalam Pembelajaran Mesin dan Cloud yang diselenggarakan oleh upGrad dan IIT Madras.

Pertahanan Terhadap AML

Untuk bertahan melawan serangan Pembelajaran Mesin Bermusuhan seperti itu, para ahli menyarankan agar programmer mengandalkan pendekatan multi-langkah. Langkah-langkah ini akan berfungsi sebagai tindakan balasan terhadap serangan AML konvensional yang dijelaskan di atas. Langkah-langkah ini adalah:

  • Simulasi : Mensimulasikan serangan sesuai dengan kemungkinan strategi serangan penyerang dapat mengungkapkan celah. Mengidentifikasi mereka melalui simulasi ini dapat mencegah serangan AML berdampak pada sistem.
  • Pemodelan: Memperkirakan kemampuan dan potensi sasaran penyerang dapat memberikan peluang untuk mencegah serangan AML. Ini dilakukan dengan membuat model berbeda dari sistem ML yang sama yang dapat menahan serangan ini.
  • Evaluasi dampak: Jenis pertahanan ini mengevaluasi dampak total yang dapat dimiliki penyerang terhadap sistem, sehingga memastikan persiapan jika terjadi serangan semacam itu.
  • Pencucian informasi : Dengan memodifikasi informasi yang diambil oleh penyerang, jenis pertahanan ini dapat membuat serangan menjadi sia-sia. Ketika model yang diekstraksi berisi perbedaan yang sengaja ditempatkan, penyerang tidak dapat membuat ulang model yang dicuri.

Contoh AML

Berbagai domain dalam teknologi modern kita secara langsung berada di bawah ancaman serangan Adversarial Machine Learning . Karena teknologi ini bergantung pada sistem ML yang telah diprogram sebelumnya, mereka dapat dieksploitasi oleh orang-orang dengan niat jahat. Beberapa contoh umum serangan AML meliputi:

1. Penyaringan spam: Dengan sengaja salah mengeja kata-kata 'buruk' yang mengidentifikasi spam atau penambahan kata-kata 'baik' yang mencegah identifikasi.

2. Keamanan komputer : Dengan menyembunyikan kode malware di dalam data cookie atau menyesatkan tanda tangan digital untuk melewati pemeriksaan keamanan.

3. Biometrik: Dengan memalsukan sifat biometrik yang diubah menjadi informasi digital untuk tujuan identifikasi.

Kesimpulan

Karena bidang Pembelajaran Mesin dan Kecerdasan Buatan terus berkembang, aplikasi mereka meningkat di berbagai sektor seperti otomatisasi, jaringan saraf, dan keamanan data. Pembelajaran Mesin Adversarial akan selalu signifikan untuk tujuan etis melindungi sistem ML dan menjaga integritasnya.

Jika Anda tertarik untuk mengetahui lebih banyak tentang pembelajaran mesin, lihat Program PG Eksekutif kami dalam Pembelajaran Mesin dan program AI yang dirancang untuk para profesional yang bekerja dan menyediakan 30+ studi kasus & tugas, 25+ sesi bimbingan industri, 5+ praktik langsung proyek batu penjuru, lebih dari 450 jam pelatihan yang ketat & bantuan penempatan kerja dengan perusahaan-perusahaan top.

Apakah serangan Adversarial berbahaya bagi keamanan siber?

Keamanan siber menjadi prioritas di era digital. Ia juga rapuh karena mampu menahan ancaman terhadap struktur dan fungsinya. Jika tidak dilindungi, IoT menjadi rentan terhadap pencurian privasi, kerusakan, dan penyalahgunaan. Serangan permusuhan dapat terjadi ketika parameter yang ditetapkan oleh algoritme dihindari dengan salah mengklasifikasikan serangan yang masuk sebagai data input. Ini hanyalah salah satu cara untuk menembus sistem pembelajaran mesin. Dengan meningkatnya jumlah serangan permusuhan pada algoritme pembelajaran mesin, keamanan, dan kemanjuran keamanan siber dikompromikan. Pembelajaran Mesin Adversarial telah dikembangkan untuk mengatasi ancaman ini.

Bagaimana Sistem Pembelajaran Mesin rentan?

Sistem Pembelajaran Mesin harus kuat dalam strukturnya agar dapat diandalkan. Ada segerombolan serangan berbahaya pada sistem ini dalam beberapa tahun terakhir, serangan permusuhan menembus penghalang pelindung sistem ini. Ini terjadi melalui duplikasi model dan mengubah data pelatihan awal, menipu parameter algoritme, atau melatih ulang data yang ada untuk mengabaikan serangan yang masuk. Serangan permusuhan ini dapat melanggar parameter etika dan memanipulasi sistem untuk mengoperasikan fungsi yang tidak sah. Pertahanan Adversarial Machine Learning digunakan untuk mengidentifikasi serangan malware yang menyerang dan memulihkan integritas sistem.

Strategi apa yang berhasil untuk memerangi serangan Adversarial?

Serangan permusuhan dapat berkisar dari pelanggaran data hingga manipulasi seluruh sistem. Mereka menyebar dan dapat menyebar ke seluruh sistem dengan cepat jika penyerang memiliki akses yang kuat ke algoritme sistem. Contohnya adalah pemfilteran spam, di mana kata-kata disusun sedemikian rupa sehingga algoritme tidak dapat mendeteksinya sebagai spam. Menggunakan Adversarial Machine Learning, programmer membuat tindakan terhadap serangan ini. Mereka mencoba untuk mensimulasikan serangan dengan memvisualisasikan strategi penyerang, mengenali pola invasi mereka, dan mengidentifikasi celah. Mereka menggunakan wawasan ini untuk melindungi sistem dari pelanggaran lebih lanjut. Menguji cakupan keterampilan dan kemampuan penyerang dapat membantu dalam memodifikasi dan mengamankan sistem.