دليل CNN Deep Learning

نشرت: 2022-10-14

زادت قدرة الذكاء الاصطناعي على سد الفجوة بين المهارات البشرية والآلية بشكل كبير. يركز كل من المحترفين والهواة على العديد من جوانب المجال لتحقيق نتائج رائعة. يعد مجال رؤية الكمبيوتر واحدًا من العديد من هذه التخصصات.

جدول المحتويات

برامج الذكاء الاصطناعي والتعلم الآلي لدينا في الولايات المتحدة

ماجستير العلوم في التعلم الآلي والذكاء الاصطناعي من جامعة جون مورس بليفربول و IIITB برنامج PG التنفيذي في التعلم الآلي والذكاء الاصطناعي من IIITB
لاستكشاف جميع دوراتنا ، قم بزيارة صفحتنا أدناه.
دورات تعلم الآلة

يهدف هذا المجال إلى منح أجهزة الكمبيوتر القدرة على رؤية وفهم العالم مثل البشر واستخدام هذا الفهم في مهام مختلفة ، بما في ذلك التعرف على الصور والفيديو ، وتحليل الصور وتصنيفها ، وترفيه الوسائط ، وأنظمة التوصية ، ومعالجة اللغة الطبيعية ، وما إلى ذلك. الشبكة العصبية التلافيفية هي الخوارزمية الأساسية المستخدمة لتطوير وتحسين تحسينات التعلم العميق في رؤية الكمبيوتر بمرور الوقت. دعنا نتعرف أكثر على خوارزمية التعلم العميق!

احصل على شهادة التعلم الآلي من أفضل الجامعات في العالم. احصل على درجة الماجستير أو برنامج PGP التنفيذي أو برامج الشهادات المتقدمة لتسريع مسار حياتك المهنية.

ما هي الشبكة العصبية الالتفافية؟

الشبكة العصبية التلافيفية أو CNN هي طريقة تعلم عميق يمكن أن تأخذ صورة إدخال ، وتعطي عناصر وكائنات مختلفة في أهمية الصورة ، مثل الأوزان القابلة للتعلم والتحيزات ، والتمييز بينها. من الناحية المقارنة ، تتطلب شبكة CNN معالجة مسبقة أقل بكثير من تقنيات التصنيف الأخرى. تمتلك CNN القدرة على تعلم هذه المرشحات والخصائص ، بينما في التقنيات البدائية ، يتم تصميم المرشحات يدويًا.

تتأثر بنية CNN بكيفية تنظيم القشرة المرئية وتشبه شبكة اتصال الخلايا العصبية في الدماغ البشري. تتفاعل الخلايا العصبية الفردية مع المنبهات فقط في منطقة المجال البصري المحدودة هذه ، والمعروفة باسم المجال الاستقبالي. سلسلة من هذا التداخل تغطي المجال البصري بأكمله.

بنية الشبكة العصبية الالتفافية

تختلف بنية الشبكات العصبية التلافيفية عن الشبكات العصبية التقليدية. تقوم الشبكة العصبية العادية بتحويل المدخلات ، وتمريرها عبر عدة طبقات مخفية. تتكون كل طبقة من مجموعة من الخلايا العصبية المرتبطة بجميع الخلايا العصبية في الطبقة التي تحتها. طبقة الإخراج النهائية المتصلة بالكامل هي المكان الذي يتم فيه تمثيل التنبؤات.

يتم تنظيم الشبكات العصبية التلافيفية بشكل مختلف قليلاً. يتم ترتيب الطبقات أولاً في ثلاثة أبعاد: العرض والارتفاع والعمق. بالإضافة إلى ذلك ، يرتبط جزء فقط من الخلايا العصبية في الطبقة التالية بتلك الموجودة في الطبقة أدناه. سيتم بعد ذلك تكثيف المخرجات في متجه درجة احتمالية واحدة وتجميعها مع طبقة الالتواء.

تتكون CNN من جزأين:

استخراج المعالم من الطبقات المخفية

ستقوم الشبكة بإجراء سلسلة من العمليات التلافيفية والتجميعية في هذا القسم لاكتشاف الميزات. هذا هو المكان الذي ستحدد فيه الشبكة خطوط النمر وأذنين وأربعة أرجل إذا كان لديك صورة واحدة.

تصنيف القسم

علاوة على هذه الميزات المسترجعة ، ستعمل طبقات الالتفاف كمصنف في هذه الحالة. سيعطون احتمال تطابق كائن الصورة مع تنبؤات الخوارزمية.

استخراج الميزات

يعد الالتفاف أحد المكونات الرئيسية لشبكة CNN. يُشار إلى الجمع الرياضي بين وظيفتين لإنتاج وظيفة ثالثة باسم الالتواء. فهو يجمع بين مجموعتين من البيانات. يتم إنشاء خريطة المعالم عن طريق إجراء التفاف على بيانات الإدخال في حالة شبكة CNN باستخدام مرشح أو نواة. يتم الالتفاف عن طريق تحريك المرشح فوق المدخلات. يقوم كل موقع بضرب المصفوفة وجمع الإخراج على خريطة المعالم.

نقوم بإجراء العديد من التلافيفات على المدخلات ، باستخدام مرشح مختلف لكل عملية. نتيجة لذلك ، يتم إنتاج خرائط ميزات مختلفة. يتم تجميع ناتج طبقة الالتفاف في النهاية باستخدام كل خرائط المعالم هذه.

مثل أي شبكة عصبية أخرى ، نستخدم عملية تنشيط لجعل مخرجاتنا غير خطية ، حيث تُستخدم وظيفة التنشيط لإرسال ناتج الالتواء في شبكة عصبية تلافيفية.

أنواع الشبكة العصبية الالتفافية

طبقة الالتواء:

المكون التأسيسي لـ CNN هو طبقة الالتواء. إنه يحمل غالبية العبء الحسابي على الشبكة. تصنع هذه الطبقة حاصل ضرب نقطي بين مصفوفتين ، إحداهما هي النواة ، ومجموعة من المعلمات القابلة للتعلم ، والأخرى هي المنطقة المقيدة للحقل الاستقبالي. مقارنة بالصورة ، النواة أصغر في الفضاء ولكنها أعمق. يشير هذا إلى أن عرض kerne وارتفاعه سيكونان صغيرين مكانيًا إذا كانت الصورة تتكون من ثلاث قنوات ؛ ومع ذلك ، فإن العمق سيرتفع إلى جميع القنوات الثلاث.

تتحرك النواة عبر ارتفاع الصورة وعرضها أثناء التمرير الأمامي ، مما يؤدي إلى إنشاء تمثيل للصورة لتلك المنطقة المستقبلة. نتيجة لذلك ، يتم إنشاء تمثيل ثنائي الأبعاد للصورة يسمى خريطة التنشيط ، مما يكشف عن استجابة النواة في كل موقع في الصورة. الخطوة هي اسم لحجم النواة المنزلق.

طبقة التجميع:

تقلل هذه الطبقة فقط من قوة الحوسبة اللازمة لمعالجة البيانات. يتم تحقيقه عن طريق تقليل أبعاد المصفوفة المميزة. نحاول استخراج الميزات المسيطرة من جزء صغير من الحي في هذه الطبقة.

متوسط ​​التجميع و Max-pooling نوعان مختلفان من استراتيجيات التجميع.

على عكس Max-pooling ، الذي يأخذ ببساطة أعلى قيمة بين جميع أولئك الموجودين داخل منطقة التجميع ، يقوم متوسط ​​التجميع بإخراج متوسط ​​جميع القيم داخل منطقة التجميع.

لدينا الآن مصفوفة تحتوي على العناصر الأساسية للصورة بعد تجميع الطبقات ، وهذه المصفوفة لها أبعاد أصغر ، والتي ستكون مفيدة جدًا في المرحلة التالية.

طبقة متصلة بالكامل:

طريقة غير مكلفة لتعلم التباديل غير الخطي للخصائص عالية المستوى التي يوفرها خرج الطبقة التلافيفية هي إضافة طبقة متصلة بالكامل. في تلك المنطقة ، تتعلم الطبقة المتصلة بالكامل الآن وظيفة قد لا تكون خطية.

بعد تحويله إلى تنسيق مناسب لمدركنا متعدد المستويات ، سنقوم بتسطيح صورة الإدخال إلى متجه عمود. تستقبل الشبكة العصبية للتغذية الأمامية الإخراج المسطح ، ويتم استخدام backpropagation لكل تكرار تدريب. يمكن للنموذج تصنيف الصور باستخدام طريقة Softmax Classification من خلال تحديد السمات السائدة والمحددة منخفضة المستوى عبر العديد من الحقب.

الطبقات غير الخطية:

غالبًا ما يتم تضمين الطبقات غير الخطية مباشرة بعد الطبقة التلافيفية لإضافة اللاخطية إلى خريطة التنشيط لأن الالتفاف عملية خطية ، والصور ليست سوى خطية.

تأتي العمليات غير الخطية في مجموعة متنوعة من الأشكال ، وأكثرها شيوعًا هي:

السيني

الصيغة الرياضية للخطية السينية هي () = 1 / (1 + e). إنه يهدم رقمًا حقيقيًا في النطاق بين 0 و 1. يصبح تدرج السيني صفرًا تقريبًا عندما يكون التنشيط إما عند الذيل ، وهي ميزة سينية غير مواتية للغاية. سيعمل Backpropagation على قتل التدرج اللوني بشكل فعال إذا أصبح التدرج المحلي صغيرًا جدًا. بالإضافة إلى ذلك ، افترض أن مدخلات الخلايا العصبية إيجابية بشكل حصري. في هذه الحالة ، سيكون الناتج السيني إما إيجابيًا بشكل حصري أو سلبيًا بشكل حصري ، مما يؤدي إلى ديناميكية متعرجة لتحديثات التدرج للوزن.

تانه

يكثف Tanh عددًا حقيقيًا إلى النطاق [-1 ، 1]. مثل الخلايا العصبية السينية ، فإن التنشيط مشبع ، ولكن على عكسهم ، فإن نتاجه يكون صفريًا.

ReLU

اكتسبت الوحدة الخطية المصححة (ReLU) مؤخرًا شعبية كبيرة. ينفذ حساب الوظيفة () = max (0 ،). بعبارة أخرى ، التنشيط موجود فقط عند عتبة الصفر. يعمل ReLU على تسريع عملية التقارب بمقدار ست مرات ويمكن الاعتماد عليه أكثر من السيني والتانه.

لسوء الحظ ، يمكن أن يكون ReLU هشًا أثناء التدريب ، وهو عيب. يمكن للتدرج القوي تحديثه عن طريق منع الخلايا العصبية من التحديث أكثر. ومع ذلك ، يمكننا أن نجعل هذا العمل باختيار معدل التعلم المناسب.

مدونات التعلم الآلي والذكاء الاصطناعي الشعبية

إنترنت الأشياء: التاريخ والحاضر والمستقبل دروس تعلم الآلة: تعلم ML ما هي الخوارزمية؟ بسيط سهل
راتب مهندس الروبوتات في الهند: جميع الأدوار يوم في حياة مهندس التعلم الآلي: ماذا يفعلون؟ ما هو إنترنت الأشياء (إنترنت الأشياء)
التقليب مقابل الجمع: الفرق بين التقليب والجمع أهم 7 اتجاهات في الذكاء الاصطناعي وتعلم الآلة التعلم الآلي باستخدام R: كل ما تحتاج إلى معرفته

ابدأ دليلك إلى CNN Deep Learning مع UpGrad

التحق للحصول على ماجستير العلوم في التعلم الآلي والذكاء الاصطناعي في UpGrad بالتعاون مع جامعة جون مورس بليفربول.

يقوم برنامج الشهادة بإعداد الطلاب للأدوار الفنية الحالية والمستقبلية من خلال توفير الموضوعات ذات الصلة بالصناعة. كما يتم التأكيد بشدة على المشاريع الحقيقية ودراسات الحالة المتعددة والأكاديميين الدوليين التي يقدمها خبراء الموضوع بشكل كبير في البرنامج.

من خلال التسجيل ، يمكنك الاستفادة من ميزات UpGrad الحصرية ، مثل مراقبة الشبكة وجلسات الدراسة ودعم التعلم بنطاق 360 درجة.

ما هي خوارزمية التعلم العميق لـ CNN؟

الطريقة التي تعمل بها CNN هي الحصول على صورة ، وتخصيص وزن لها اعتمادًا على العناصر المختلفة في الصورة ، ثم فصلها عن بعضها البعض. بالمقارنة مع خوارزميات التعلم العميق الأخرى ، تتطلب CNN القليل جدًا من المعالجة المسبقة للبيانات.

ما الذي يميز CNN عن التعلم العميق؟

غالبًا ما يستخدم التعلم العميق في التسويق لتبدو أكثر احترافًا مما هي عليه. هناك العديد من أنواع الشبكات العصبية العميقة ، بما في ذلك CNN. تحظى شبكات CNN بإعجاب كبير نظرًا لاستخداماتها المفيدة العديدة في التعرف على الصور.

لماذا تتفوق CNN على الاتصال الكامل؟

لا تحتوي التلافيفات على اتصالات كثيفة ، ولا تؤثر جميع عقد الإدخال على كل عقدة إخراج. بفضل هذا ، يمكن للطبقات التلافيفية الآن التعلم بمزيد من المرونة. بالإضافة إلى ذلك ، هناك أوزان أقل لكل طبقة ، مما يفيد المدخلات عالية الأبعاد مثل بيانات الصورة.

هل تستخدم CNN للصور فقط؟

نعم. يمكن معالجة أي مجموعة بيانات ثنائية وثلاثية الأبعاد باستخدام CNN.