التعلم الآلي العدائي: المفاهيم وأنواع الهجمات والاستراتيجيات والدفاعات

نشرت: 2021-05-02

دفع التقدم الهائل في العقود الماضية التقدم التكنولوجي الحديث في عالم اليوم. نحن حاليًا جزء من "الصناعة 4.0" المستمرة ، وفي قلبها تقنيات مثل الذكاء الاصطناعي والتعلم الآلي. تتضمن هذه الثورة الصناعية انتقالًا عالميًا نحو البحث العلمي والابتكار في تقنيات الشبكات العصبية ، والتعلم الآلي ، والذكاء الاصطناعي ، وإنترنت الأشياء ، والرقمنة ، وغير ذلك الكثير.

إنها توفر لنا مجموعة من المزايا في قطاعات مثل التجارة الإلكترونية والتصنيع والاستدامة وإدارة سلسلة التوريد وما إلى ذلك. من المتوقع أن يتجاوز السوق العالمي للذكاء الاصطناعي / تعلم الآلة 266.92 مليار دولار أمريكي بحلول عام 2027 وسيظل الاختيار المفضل للوظيفة. للخريجين في كل مكان.

بينما يمهد تكييف هذه التقنيات الطريق للمستقبل ، فإننا غير مستعدين لأحداث مثل هجمات التعلم الآلي العدائية (AML). تعتمد أنظمة التعلم الآلي المصممة باستخدام لغات الترميز مثل SML و OCaml و F # وما إلى ذلك ، على أكواد قابلة للبرمجة يتم دمجها في جميع أنحاء النظام.

تعلم التعلم الآلي عبر الإنترنت من أفضل الجامعات في العالم - الماجستير ، وبرامج الدراسات العليا التنفيذية ، وبرنامج الشهادة المتقدم في ML & AI لتسريع حياتك المهنية.

تشكل هجمات AML الخارجية التي يقوم بها قراصنة ذوو خبرة تهديدًا لسلامة ودقة أنظمة ML هذه. يمكن أن تؤدي التعديلات الطفيفة على مجموعة بيانات الإدخال إلى قيام خوارزمية ML بتصنيف الخلاصة بشكل خاطئ ، وبالتالي تقليل موثوقية هذه الأنظمة.

لتجهيز نفسك بالموارد المناسبة لتصميم الأنظمة التي يمكنها مقاومة هجمات AML ، سجّل في دبلومة PG في التعلم الآلي التي تقدمها upGrad و IIIT Bangalore .

جدول المحتويات

تركزت المفاهيم على التعلم الآلي العدائي

قبل الخوض في موضوع مكافحة غسل الأموال ، دعونا نضع تعريفات لبعض المفاهيم الأساسية لهذا المجال:

  • يشير الذكاء الاصطناعي إلى قدرة نظام الحوسبة على أداء المنطق أو التخطيط أو حل المشكلات أو المحاكاة أو أنواع أخرى من المهام. يحاكي الذكاء الاصطناعي الذكاء البشري بسبب المعلومات التي يتم تغذيتها به باستخدام تقنيات التعلم الآلي.
  • يستخدم التعلم الآلي خوارزميات ونماذج إحصائية محددة جيدًا لأنظمة الكمبيوتر ، والتي تعتمد على أداء المهام بناءً على الأنماط والاستنتاجات. وهي مصممة لتنفيذ هذه المهام دون تعليمات صريحة ، وبدلاً من ذلك تستخدم المعلومات المحددة مسبقًا من الشبكات العصبية.
  • الشبكات العصبية مستوحاة من الأداء البيولوجي للخلايا العصبية في الدماغ ، والتي تُستخدم لبرمجة بيانات المراقبة بشكل منهجي في نموذج التعلم العميق. تساعد هذه البيانات المبرمجة في فك ، وتمييز ، ومعالجة بيانات الإدخال في معلومات مشفرة لتسهيل التعلم العميق.
  • يستخدم التعلم العميق شبكات عصبية متعددة وتقنيات ML لمعالجة بيانات الإدخال الخام وغير المهيكلة في تعليمات محددة جيدًا. تسهل هذه التعليمات بناء خوارزميات متعددة الطبقات تلقائيًا من خلال التمثيل / التعلم الخاص بها بطريقة غير خاضعة للإشراف.
  • التعلم الآلي العدائي هو أسلوب فريد من نوعه في تعلم الآلة يوفر مدخلات خادعة لإحداث خلل في نموذج التعلم الآلي. يستغل التعلم الآلي العدائي نقاط الضعف الموجودة في بيانات الاختبار لخوارزميات ML الذاتية التي تشكل شبكة عصبية. يمكن أن يضر هجوم AML بالنتائج الناتجة ويشكل تهديدًا مباشرًا لفائدة نظام ML.

لتعلم المفاهيم الأساسية لـ ML ، مثل التعلم الآلي العدائي ، بشكل متعمق ، قم بالتسجيل في درجة الماجستير في العلوم (ماجستير) في التعلم الآلي والذكاء الاصطناعي من upGrad.

أنواع هجمات مكافحة غسل الأموال

يتم تصنيف هجمات التعلم الآلي العدائية بناءً على ثلاثة أنواع من المنهجيات.

هم انهم:

1. التأثير على المصنف

تصنف أنظمة التعلم الآلي بيانات الإدخال بناءً على المصنف. إذا تمكن المهاجم من تعطيل مرحلة التصنيف عن طريق تعديل المصنف نفسه ، فقد يؤدي ذلك إلى فقدان نظام ML لمصداقيته. نظرًا لأن هذه المصنفات جزء لا يتجزأ من تحديد البيانات ، فإن العبث بآلية التصنيف يمكن أن يكشف عن نقاط الضعف التي يمكن استغلالها بواسطة AMLs.

2. انتهاك الأمن

أثناء مراحل التعلم في نظام ML ، يحدد المبرمج البيانات التي تعتبر شرعية. إذا تم تحديد بيانات الإدخال المشروعة بشكل غير صحيح على أنها بيانات ضارة ، أو إذا تم تقديم بيانات ضارة كبيانات إدخال أثناء هجوم AML ، فيمكن وصف الرفض بأنه انتهاك أمني.

3. الخصوصية

بينما تسمح الهجمات المستهدفة المحددة بتدخلات / اضطرابات محددة ، فإن الهجمات العشوائية تضيف إلى العشوائية في بيانات الإدخال وتخلق اضطرابات من خلال الأداء المنخفض / الفشل في التصنيف.

هجمات AML وفئاتها متفرعة من الناحية المفاهيمية خارج مجال التعلم الآلي. نظرًا للطلب المتزايد على أنظمة ML ، يتوفر ما يقرب من 2.3 مليون وظيفة شاغرة لمهندسي ML و AI ، وفقًا لشركة Gartner. [2] يمكنك قراءة المزيد حول كيف يمكن أن تكون هندسة التعلم الآلي مهنة مجزية في عام 2021 .

استراتيجيات التعلم الآلي العدائية

لتحديد هدف الخصم بشكل أكبر ، يمكن أن تساعد معرفته السابقة بالنظام المراد مهاجمته ومستوى التلاعب المحتمل في مكونات البيانات في تحديد استراتيجيات التعلم الآلي العدائية .

هم انهم:

1. التهرب

تحدد خوارزميات ML وفرز مجموعة بيانات الإدخال بناءً على شروط محددة مسبقًا ومعلمات محسوبة. يميل نوع التهرب من هجوم AML إلى التهرب من هذه المعلمات التي تستخدمها الخوارزميات لاكتشاف أي هجوم. يتم ذلك عن طريق تعديل العينات بطريقة يمكن أن تتجنب الكشف عنها وتصنيفها بشكل خاطئ كمدخلات مشروعة.

إنهم لا يعدلون الخوارزمية ولكن بدلاً من ذلك ينتحلون المدخلات بطرق مختلفة بحيث يفلت من آلية الكشف. على سبيل المثال ، يتم التهرب من عوامل تصفية مكافحة البريد العشوائي التي تحلل نص رسالة البريد الإلكتروني باستخدام الصور التي تحتوي على نص مضمّن من رمز / روابط برامج ضارة.

2. نموذج الاستخراج

يُعرف أيضًا باسم "سرقة النماذج" ؛ يتم تنفيذ هذا النوع من هجمات AML على أنظمة ML لاستخراج بيانات التدريب الأولية المستخدمة لبناء النظام. هذه الهجمات قادرة بشكل أساسي على إعادة بناء نموذج نظام التعلم الآلي هذا ، والذي يمكن أن يضر بفعاليته. إذا كان النظام يحتفظ ببيانات سرية ، أو إذا كانت طبيعة غسل الأموال نفسها مملوكة / حساسة ، فيمكن للمهاجم استخدامها لمصلحته أو تعطيله.

3. التسمم

يتضمن هذا النوع من هجوم التعلم الآلي العدائي تعطيل بيانات التدريب. نظرًا لإعادة تدريب أنظمة ML باستخدام البيانات التي تم جمعها أثناء عملياتها ، فإن أي تلوث ناتج عن حقن عينات من البيانات الضارة يمكن أن يسهل هجوم AML. بالنسبة لبيانات التسمم ، يحتاج المهاجم إلى الوصول إلى الكود المصدري لذلك ML وإعادة تدريبه على قبول البيانات غير الصحيحة ، مما يعيق عمل النظام.

يمكن للمعرفة الصحيحة بإستراتيجيات هجوم التعلم الآلي العدائية أن تمكن المبرمج من تجنب مثل هذه الهجمات أثناء التشغيل. إذا كنت بحاجة إلى تدريب عملي لتصميم أنظمة ML يمكنها مقاومة هجمات AML ، فقم بالتسجيل في برنامج الماجستير في التعلم الآلي والذكاء الاصطناعي الذي تقدمه upGrad.

أنواع الهجوم المحددة

يمكن أن تهدد أنواع الهجمات المحددة التي يمكن أن تستهدف أنظمة التعلم العميق ، جنبًا إلى جنب مع أنظمة ML التقليدية مثل الانحدار الخطي و "آلات ناقلات الدعم" ، سلامة هذه الأنظمة. هم انهم:

  • تتسبب الأمثلة العدائية ، مثل FMCG و PGD و C&W وهجمات التصحيح ، في تصنيف الجهاز بشكل خاطئ ، كما يبدو عاديًا للمستخدم. يتم استخدام "ضوضاء" محددة داخل كود الهجوم لإحداث خلل في المصنفات.
  • تفرط هجمات الباب الخلفي / حصان طروادة في تحميل نظام ML عن طريق قصفه ببيانات غير ذات صلة وذاتية التكرار تمنعه ​​من الأداء الأمثل. يصعب الحماية من هجمات التعلم الآلي العدائية هذه ، لأنها تستغل الثغرات الموجودة داخل الجهاز.
  • نموذج Inversion يعيد كتابة المصنفات لتعمل بطريقة معاكسة التي كانت مخصصة لها في الأصل. يمنع هذا الانعكاس الجهاز من أداء مهامه الأساسية بسبب التغييرات المطبقة على نموذج التعلم المتأصل.
  • يمكن تطبيق هجمات استدلال العضوية (MIAs) على SL (التعلم الخاضع للإشراف) و GANs (شبكات الخصومة التوليدية). تعتمد هذه الهجمات على الاختلافات بين مجموعات البيانات لبيانات التدريب الأولية والعينات الخارجية التي تشكل تهديدًا للخصوصية. من خلال الوصول إلى الصندوق الأسود وسجل بياناته ، يمكن لنماذج الاستدلال التنبؤ بما إذا كانت العينة موجودة في إدخال التدريب أم لا.

لحماية أنظمة ML من هذه الأنواع من الهجمات ، يتم توظيف مبرمجي ومهندسي ML في جميع الشركات متعددة الجنسيات الرئيسية. تقدم الشركات متعددة الجنسيات الهندية التي تستضيف مراكز البحث والتطوير الخاصة بها لتشجيع الابتكار في التعلم الآلي ، رواتب تتراوح من 15 إلى 20 Lakh INR سنويًا. [3] لمعرفة المزيد حول هذا المجال وتأمين راتب ضخم كمهندس ML ، سجّل في شهادة متقدمة في التعلم الآلي والحوسبة السحابية التي تستضيفها upGrad و IIT Madras.

الدفاعات ضد AMLs

للدفاع ضد مثل هذه الهجمات العدائية للتعلم الآلي ، يقترح الخبراء أن المبرمجين يعتمدون على نهج متعدد الخطوات. قد تكون هذه الخطوات بمثابة تدابير مضادة لهجمات AML التقليدية الموصوفة أعلاه. هذه الخطوات هي:

  • المحاكاة : محاكاة الهجمات وفقًا لاستراتيجيات الهجوم المحتملة للمهاجم يمكن أن تكشف عن ثغرات. يمكن أن يؤدي تحديدها من خلال هذه المحاكاة إلى منع هجمات AML من التأثير على النظام.
  • النمذجة: يمكن أن يوفر تقدير القدرات والأهداف المحتملة للمهاجمين فرصة لمنع هجمات AML. يتم ذلك عن طريق إنشاء نماذج مختلفة من نفس نظام ML يمكنها مقاومة هذه الهجمات.
  • تقييم الأثر: يقوم هذا النوع من الدفاع بتقييم التأثير الكلي الذي يمكن أن يحدثه المهاجم على النظام ، وبالتالي يضمن الاستعداد في حالة حدوث مثل هذا الهجوم.
  • غسيل المعلومات : من خلال تعديل المعلومات التي يستخرجها المهاجم ، يمكن لهذا النوع من الدفاع أن يجعل الهجوم عديم الجدوى. عندما يحتوي النموذج المستخرج على تناقضات موضوعة عن قصد ، لا يمكن للمهاجم إعادة إنشاء النموذج المسروق.

أمثلة على AMLs

تتعرض المجالات المختلفة ضمن تقنياتنا الحديثة مباشرةً لتهديد هجمات التعلم الآلي العدائية . نظرًا لأن هذه التقنيات تعتمد على أنظمة ML المبرمجة مسبقًا ، فقد يتم استغلالها من قبل الأشخاص ذوي النوايا الخبيثة. تتضمن بعض الأمثلة النموذجية لهجمات AML ما يلي:

1. تصفية البريد العشوائي: عن طريق الخطأ في تهجئة الكلمات "السيئة" التي تحدد البريد العشوائي أو إضافة كلمات "جيدة" تمنع تحديد الهوية.

2. أمان الكمبيوتر : عن طريق إخفاء رمز البرامج الضارة داخل بيانات ملفات تعريف الارتباط أو تضليل التوقيعات الرقمية لتجاوز عمليات التحقق الأمنية.

3. القياسات الحيوية: عن طريق تزوير سمات القياسات الحيوية التي يتم تحويلها إلى معلومات رقمية لأغراض تحديد الهوية.

خاتمة

مع استمرار توسع مجالات التعلم الآلي والذكاء الاصطناعي ، تزداد تطبيقاتها عبر قطاعات مثل الأتمتة والشبكات العصبية وأمن البيانات. سيكون التعلم الآلي العدائي دائمًا مهمًا للغرض الأخلاقي المتمثل في حماية أنظمة ML والحفاظ على سلامتها.

إذا كنت مهتمًا بمعرفة المزيد عن التعلم الآلي ، فراجع برنامجنا التنفيذي في التعلم الآلي وبرنامج الذكاء الاصطناعي المصمم للمهنيين العاملين ويقدم أكثر من 30 دراسة حالة ومهمة ، و 25+ جلسة إرشاد في المجال ، وأكثر من 5 تدريب عملي عملي مشاريع تتويجا ، أكثر من 450 ساعة من التدريب الصارم والمساعدة في التوظيف مع الشركات الكبرى.

هل الهجمات العدائية ضارة بالأمن السيبراني؟

يمثل الأمن السيبراني أولوية في العصر الرقمي. كما أنها هشة لأنها تقف في وجه التهديدات التي يتعرض لها هيكلها ووظيفتها. إذا لم تكن محمية ، تصبح إنترنت الأشياء عرضة لسرقة الخصوصية والضرر وسوء الاستخدام. يمكن أن تحدث الهجمات العدائية عندما يتم التهرب من المعلمات التي تحددها الخوارزميات عن طريق الخطأ في تصنيف الهجوم الوارد على أنه بيانات إدخال. هذه مجرد طريقة واحدة لاختراق أنظمة التعلم الآلي. مع تزايد عدد الهجمات العدائية على خوارزميات التعلم الآلي ، تتعرض سلامة وفعالية الأمن السيبراني للخطر. تم تطوير التعلم الآلي العدائي لمواجهة هذه التهديدات.

كيف تكون أنظمة التعلم الآلي ضعيفة؟

يجب أن تكون أنظمة التعلم الآلي قوية في هيكلها حتى تكون موثوقة. كان هناك سرب من الهجمات الخبيثة على هذه الأنظمة في السنوات الأخيرة ، حيث تخترق الهجمات العدائية الحواجز الوقائية لهذه الأنظمة. يحدث هذا من خلال تكرار النموذج وتغيير بيانات التدريب الأولية ، أو خداع معلمات الخوارزمية ، أو إعادة تدريب البيانات الموجودة للتغاضي عن الهجمات الواردة. يمكن أن تنتهك هذه الهجمات العدائية المعايير الأخلاقية وتتلاعب بالأنظمة لتشغيل وظائف غير مصرح بها. تُستخدم دفاعات التعلم الآلي العدائية لتحديد هجمات البرامج الضارة الغازية واستعادة تكامل النظام.

ما هي الاستراتيجيات التي تعمل من أجل مكافحة الهجمات العدائية؟

يمكن أن تتراوح الهجمات العدائية من انتهاك البيانات إلى التلاعب بالنظام بأكمله. إنها منتشرة ويمكن أن تنتشر عبر النظام بسرعة إذا كان المهاجم لديه وصول قوي إلى خوارزمية النظام. ومن الأمثلة على ذلك تصفية الرسائل غير المرغوب فيها ، حيث يتم تنظيم الكلمات بحيث لا تتمكن الخوارزمية من اكتشافها كبريد عشوائي. باستخدام التعلم الآلي العدائي ، يتخذ المبرمجون تدابير ضد هذه الهجمات. يحاولون محاكاة الهجمات من خلال تصور استراتيجية المهاجم ، والتعرف على نمط الغزو ، وتحديد الثغرات. يستخدمون هذه الأفكار لحماية النظام من المزيد من الانتهاكات. يمكن أن يساعد اختبار نطاق مهارات وقدرات المهاجم في تعديل النظام وحمايته.