Customize Consent Preferences

We use cookies to help you navigate efficiently and perform certain functions. You will find detailed information about all cookies under each consent category below.

The cookies that are categorized as "Necessary" are stored on your browser as they are essential for enabling the basic functionalities of the site. ... 

Always Active

Necessary cookies are required to enable the basic features of this site, such as providing secure log-in or adjusting your consent preferences. These cookies do not store any personally identifiable data.

No cookies to display.

Functional cookies help perform certain functionalities like sharing the content of the website on social media platforms, collecting feedback, and other third-party features.

No cookies to display.

Analytical cookies are used to understand how visitors interact with the website. These cookies help provide information on metrics such as the number of visitors, bounce rate, traffic source, etc.

No cookies to display.

Performance cookies are used to understand and analyze the key performance indexes of the website which helps in delivering a better user experience for the visitors.

No cookies to display.

Advertisement cookies are used to provide visitors with customized advertisements based on the pages you visited previously and to analyze the effectiveness of the ad campaigns.

No cookies to display.

قائمة مصطلحات التعلم الآلي (24): التسوية الحزمية Batch Normalization

ما هي التسوية الحزمية Batch Normalization؟

تعد التسوية الحزمية تقنية تستخدم في التعلم العميق لتسريع عملية التدريب. تتم هذه العملية عن طريق ضبط تنشيط الطبقات في الشبكة العصبية لكل حزمة صغيرة من البيانات أثناء التدريب. حيث تساعد هذه التقنية على تقليل قيمة تحول المتغير الداخلي Internal Covariate Shift. تحول المتغير الداخلي هو التغيير في توزيع تنشيط الشبكة بسبب التغيير في معلمات الشبكة أثناء التدريب. أيضا تساعد هذه التقنية على تحسين الاستقرار في الشبكة بالاضافة إلى تسريع تدريب الشبكة. التسوية الحزمية تُستخدم لجعل الشبكات العصبية أسرع وأكثر ثباتًا. و ذلك من خلال تسوية أو معالجة مدخلات الطبقات عن طريق إعادة التمركز وإعادة التوسع. التسوية الحزمية هي أسلوب من أساليب التعلم الخاضع للإشراف. الذي يحول مخرجات الطبقة البينية إلى تنسيق قياسي يسمى ضبط أو معالجة. يؤدي هذا بشكل فعال إلى إعادة تعيين توزيع ناتج الطبقة السابقة لتتم معالجته بكفاءة أكبر بواسطة الطبقة اللاحقة.

ما هي مزايا التسوية الحزمية؟

يؤدي هذا النهج إلى جعل معدلات التعلم أسرع. و ذلك نظرًا لأن التسوية تضمن عدم وجود قيمة تنشيط عالية أو منخفضة جدًا. هذا بالإضافة إلى السماح لكل طبقة بالتعلم بشكل مستقل عن الطبقات الأخرى. أيضا تؤدي تسوية المدخلات إلى تقليل معدل التسرب أو فقد البيانات بين طبقات المعالجة. مما يحسن الدقة بشكل كبير في جميع أنحاء الشبكة العصبية.

 التسوية الحزمية لها مزايا عديدة منها:

  • تحسين استقرار التدريب: تساعد التسوية الحزمية على تقليل التحول المتغير الداخلي و الذي بدوره يمكن أن يحسن استقرار عملية التدريب.
  • تقارب أسرع: من خلال تحسين استقرار عملية التدريب ، يمكن لمطابقة الدُفعات أن تسمح بتقارب أسرع و وقت تدريب أقصر. ويمكنه أيضًا تمكين استخدام معدلات تعلم اعلى.
  • تأثير التنظيم: تعمل التسوية الحزمية كمنظم ، مما يساعد على تقليل فرط التخصيص وتحسين أداء التعميم للنموذج.
  • أداء أفضل مع شبكات أعمق: تعد التسوية الحزمية فعالة بشكل خاص في الشبكات العميقة ، حيث يمكن أن تساعد في معالجة مشكلة تلاشي التدرج الاشتقاقي.
  • أكثر قوة في التهيئة: تعد التسوية الحزمية أكثر قوة في اختيار تهيئة الاوزان ، والتي يمكن أن تجعل عملية التدريب أكثر موثوقية.
  • تدفق التدرج الاشتقاقي المحسّن: يمكن للتسوية الحزمية تحسين تدفق التدرج الاشتقاقي عبر الشبكة ، مما قد يساعد في تجنب مشكلة انفجار التدرج الاشتقاقي.

كيف تعمل التسوية الحزمية Batch Normalization؟

لتعزيز استقرار شبكة التعلم العميق ، تعمل التسوية الحزمية على التأثير على إخراج طبقة التنشيط السابقة بطرح متوسط ​​الحزمة ، ثم القسمة على الانحراف المعياري للحزمة.

نظرًا لأن هذا التحول أو التحجيم للمخرجات بواسطة معلمة مُهيأه عشوائيًا يقلل من دقة الأوزان في الطبقة التالية ، يتم تطبيق طريقة النزول المتدرج الاشتقاقي العشوائي لإزالة هذه التسوية في حالة ما إذا كانت دالة الفقد عالية جدًا.

و في الاخير النتيجة النهائية هي أن التسوية الحزمية تضيف معلمتين إضافيتين قابلتين للتدريب إلى الطبقة: قيمة الإخراج التي تم تسويتها مضروبة في معامل جاما (الانحراف المعياري) ، ومعامل بيتا (المتوسط البياني) الإضافي. هذا هو السبب في أن التسوية الحزمية تعمل جنبًا إلى جنب مع طريقة النزول المتدرج الاشتقاقي بحيث يمكن إلغاء ضبط “denormalization” البيانات ببساطة عن طريق تغيير هذين الوزنين لكل مخرج. يؤدي هذا إلى تقليل فقد البيانات وزيادة الاستقرار على طول الشبكة عن طريق تغيير جميع الأوزان الأخرى ذات الصلة.

 

Share on facebook
فيسبوك
Share on twitter
تويتر
Share on linkedin
لينكدإن
Share on whatsapp
واتساب

اترك تعليقاً