خوارزمية الانتشار العكسي - نظرة عامة

نشرت: 2021-10-15

كانت الشبكات العصبية هي الكلمة الأكثر شيوعًا في عالم تقنية الذكاء الاصطناعي. وعند الحديث عن الشبكات العصبية ، فإن الانتشار العكسي هو كلمة يجب التركيز عليها. تعد خوارزمية الانتشار العكسي إحدى الكتل الأساسية للشبكة العصبية. نظرًا لأن أي شبكة عصبية تحتاج إلى التدريب لأداء المهمة ، فإن backpropagation هو خوارزمية تُستخدم لتدريب الشبكة العصبية. إنه شكل من أشكال خوارزمية التعلم الخاضع للإشراف والتي تُستخدم لتدريب مدارك الطبقات المتعددة في شبكة عصبية اصطناعية.

تعتبر البرمجة النموذجية حيث يتم إدخال البيانات ويتم تنفيذ منطق البرمجة. أثناء إجراء المعالجة ، يتلقى المستخدم الإخراج. لكن ، هذا الناتج ، بطريقة ما ، يمكن أن يؤثر على منطق البرمجة. هذا ما تفعله خوارزمية الانتشار العكسي. سيؤثر الناتج على المنطق وينتج عنه مخرجات أفضل.

ستركز المقالة على خوارزمية backpropagation وعملية عملها.

جدول المحتويات

أهمية التكاثر الخلفي

تكمن أهمية backpropagation في استخدامه في الشبكات العصبية. يتطلب تصميم الشبكات العصبية تهيئة الأوزان في البداية فقط. هذه الأوزان هي بعض القيم العشوائية أو أي متغيرات عشوائية يتم أخذها في الاعتبار لتهيئة الأوزان. نظرًا لإدخال الأوزان بشكل عشوائي ، فهناك احتمال ألا تكون الأوزان هي الأوزان الصحيحة. هذا يعني أن الأوزان لن تناسب النموذج. قد يكون ناتج النموذج مختلفًا عن الناتج المتوقع. نتيجة لذلك ، هناك قيمة خطأ عالية. ولكن ، من المهم دائمًا تقليل الخطأ ، كما أن التفكير في طرق تقليل الخطأ يمثل تحديًا. يحتاج النموذج إلى التدريب أنه كلما حدثت هذه الأنواع من السيناريوهات ، فإنه يحتاج إلى تغيير المعلمات وفقًا لذلك. ومع تغيير المعلمات ، سيتم تقليل قيمة الخطأ.

لذلك ، فإن تدريب النموذج مطلوب ، والتوزيع العكسي هو أحد الطرق التي يمكن من خلالها تدريب النموذج بحيث يكون هناك قيم خطأ دنيا.

يمكن تلخيص بعض خطوات خوارزمية الانتشار العكسي في الشبكات العصبية أدناه:

● حساب الخطأ: سيحسب انحراف ناتج النموذج عن الناتج الفعلي للنموذج.

● الحد الأدنى من الخطأ: في هذه الخطوة ، سيتم التحقق مما إذا كان الخطأ المتولد قد تم تصغيره أم لا.

● تحديث المعلمة: الخطوة مخصصة لتحديث معلمات النموذج. إذا كان النموذج يولد قيمة خطأ عالية جدًا ، فإنه يحتاج إلى تحديث معلماته ،

مثل الأوزان والتحيزات. يتم إعادة فحص النموذج بحثًا عن الخطأ ، وتتكرر العملية حتى يتم تقليل الخطأ الناتج.

● النموذج النهائي: بعد عملية الفحص والتحديث المتكررة ، يتم تقليل الخطأ إلى أدنى حد ، ويكون النموذج جاهزًا الآن للمدخلات. يمكن إدخال المدخلات في النموذج ، ويمكن تحليل مخرجات النموذج.

الشبكة العصبية ذات الانتشار الخلفي

في أي شبكة عصبية ، تبحث خوارزمية الانتشار العكسي عن الحد الأدنى لقيمة الخطأ. يتم ذلك من خلال تقنية النسب المتدرج أو قاعدة دلتا ، والتي من خلالها يتم البحث عن الحد الأدنى من وظيفة الخطأ من مساحة الوزن. بمجرد تحديد الأوزان التي تقلل من وظيفة الخطأ ، فإنها تعتبر الحل لمشكلة التعلم. في الستينيات ، عندما تم تقديم الخوارزمية أولاً ثم في السنوات اللاحقة ، زادت شعبية الخوارزمية. يمكن تدريب الشبكة العصبية بشكل فعال من خلال هذه الخوارزمية باستخدام طريقة قاعدة السلسلة. إذا كان هناك مرور أمامي عبر الشبكة العصبية ، فسيتم إجراء تمرير للخلف بواسطة معلمة النموذج من خلال تعديل المعلمات مثل التحيزات والأوزان. لكي تعمل خوارزمية الانتشار العكسي ، يجب تحديد الشبكة العصبية أولاً.

نموذج الشبكة العصبية

إذا تم النظر في نموذج من 4 طبقات للشبكة العصبية ، فسوف يتكون من الطبقات ؛ طبقة الإدخال ، 4 خلايا عصبية مصممة للطبقات المخفية ، وسيكون هناك 1 خلية عصبية مصممة لطبقة الإخراج.

طبقة الإدخال: يمكن أن تكون طبقة الإدخال بسيطة أو معقدة. ستحتوي طبقة الإدخال البسيطة على المقاييس ، وستتكون طبقة الإدخال المعقدة من مصفوفات متعددة الأبعاد أو متجهات. تعتبر مجموعات التنشيط الأولى مساوية لقيم الإدخال.

بمصطلح التنشيط ، يعني قيمة الخلايا العصبية التي تنتج بعد تطبيق وظيفة التنشيط.

الطبقات المخفية: استخدام مدخلات موزونة معينة مثل z ^ l في الطبقات l ، والتنشيطات a ^ l في نفس الطبقة l. يتم إنشاء المعادلات لهذه الطبقات مثل الطبقة 2 والطبقة 3.

يتم حساب عمليات التنشيط للطبقات من خلال استخدام وظيفة التنشيط f. وظيفة التنشيط "f" ، هي وظيفة غير خطية تسمح بتعلم الأنماط المعقدة الموجودة في البيانات بواسطة الشبكة.

تتكون مصفوفة الوزن على شكل (ن ، م) ، حيث يشير الرقم "ن" إلى الخلايا العصبية الناتجة ، بينما يشير الحرف "م" إلى الخلايا العصبية المدخلة للشبكة العصبية. في نموذج الطبقات المذكورة أعلاه ، سيكون عدد n 2 ، وعدد m سيكون 4. أيضًا ، يجب أن يتطابق الرقم الأول في الرمز السفلي للوزن مع فهرس الخلية العصبية الموجودة في الطبقة التالية. يجب أن يتطابق الرقم الثاني مع الفهرس العصبي للطبقة السابقة من الشبكة.

طبقة الإخراج: طبقة الإخراج هي الطبقة الأخيرة من الشبكة العصبية. يتنبأ بقيمة النموذج. يتم استخدام تمثيل المصفوفة لتبسيط المعادلة.

إلى الأمام انتشار الشبكة العصبية وتقييمها

تشكل المعادلات المتولدة في تعريف الشبكة العصبية الانتشار الأمامي للشبكة. يتنبأ بإخراج النموذج. في خوارزمية الانتشار إلى الأمام ، فإن الخطوة الأخيرة التي ينطوي عليها الأمر هي تقييم المخرجات المتوقعة مقابل المخرجات المتوقعة. إذا كان الناتج المتوقع هو "s" ، وكان الناتج المتوقع "y" ، فيجب تقييم s مقابل y. بالنسبة لمجموعة بيانات التدريب (x ، y) ، x هي الإدخال ، و y هي الإخراج.

تستخدم دالة التكلفة "C" لتقييم s مقابل y. قد تكون دالة التكلفة بسيطة مثل متوسط ​​الخطأ التربيعي (MSE) ، أو قد تكون معقدة ، مثل الانتروبيا التبادلية. بناءً على قيمة C ، يتعرف النموذج على المقدار الذي يجب تعديل المعلمات للاقتراب من الناتج المتوقع ، وهو y. يتم ذلك من خلال خوارزمية الانتشار الخلفي.

خوارزمية الانتشار العكسي

تقوم خوارزمية backpropagation بشكل متكرر بتعديل الأوزان في اتصالات الشبكة لتقليل الفرق بين مخرجات النموذج إلى المخرجات المتوقعة. إنه أيضًا في خوارزمية backpropagation يمكن إنشاء ميزات جديدة ومفيدة في الشبكة.

تهدف خوارزمية الانتشار العكسي أيضًا إلى تقليل أو تقليل وظيفة التكلفة المحددة للشبكة أي ج. ويتم ذلك من خلال تعديل المعلمات مثل التحيزات والأوزان. يتم تحديد هذا التعديل الذي يتعين إجراؤه في المعلمات من خلال تدرجات وظائف التكلفة فيما يتعلق بجميع تلك المعلمات.

يُعرَّف تدرج الدالة C في النقطة x بأنه متجه جميع المشتقات الجزئية الموجودة في دالة التكلفة C في x.

يتم قياس الحساسية للتغير في قيمة الوظيفة من خلال مشتق الدالة C فيما يتعلق بالتغير في الوسيطة x. هذا يعني أن المشتق هو الذي يخبر أين تتحرك دالة التكلفة C.

يتم تحديد التغيير في المعلمة x بواسطة التدرج اللوني. وهي تعرض التغييرات المطلوبة في المعامل x لتقليل C. تُستخدم قاعدة السلسلة لحساب التدرجات. إنه التدرج اللوني الذي يسمح بتحسين المعلمات.

هذه هي الطريقة التي تعمل بها خوارزمية الانتشار العكسي في تحسين وتدريب الشبكة العصبية. إنه يمثل جزءًا مهمًا من جوانب التعلم الآلي. كونه جزءًا أساسيًا من تدريب الشبكة العصبية ، فإن فهم خوارزمية الانتشار العكسي أمر ضروري. إذا كنت تريد أن تكون خبيرًا في التعلم الآلي والذكاء الاصطناعي ، فيمكنك الاطلاع على دورة "ماجستير العلوم في التعلم الآلي والذكاء الاصطناعي" التي تقدمها upGrad. أي من المهنيين العاملين مؤهلون للدورة. سيتم تدريبك من خلال كليات الخبراء من IIIT Bangalore وأيضًا من LJMU. سيساعدك تعلم المحتوى الذي يزيد عن 650 ساعة في إعداد نفسك لمستقبل الذكاء الاصطناعي في المستقبل. نرحب بأي استفسار بخصوص الدورة.

ما هي الطريقة المستخدمة في خوارزمية الانتشار العكسي؟

الطريقة المستخدمة في خوارزمية الانتشار العكسي هي قاعدة السلسلة.

لماذا يتم استخدام خوارزمية الانتشار العكسي؟

يتم استخدام خوارزمية backpropagation لتقليل خطأ النموذج.

كيف تقلل خوارزمية الانتشار العكسي من خطأ الشبكة؟

تحاول خوارزمية الانتشار العكسي ضبط المعلمات وفقًا لذلك مما يؤدي إلى تقليل الخطأ.