قائمة مصطلحات التعلم الآلي (10): تعلم الآلة العدائي Adversarial Machine Learning

تعلم الآلة العدائي Adversarial Machine Learning

هو تقنية تعلم آلي تحاول خداع النماذج من خلال توفير مدخلات خادعة. السبب الأكثر شيوعًا هو التسبب في حدوث خلل في نموذج التعلم الآلي. تم تصميم معظم تقنيات التعلم الآلي للعمل على مجموعات مشكلة محددة يتم فيها إنشاء بيانات التدريب والاختبار من نفس التوزيع الإحصائي.

التعلم الآلي العدائي عبارة عن مجموعة من التقنيات لتدريب الشبكات العصبية على كيفية اكتشاف البيانات أو السلوكيات المضللة عمدًا. هذا يختلف عن مشكلة التصنيف القياسية في التعلم الآلي ، لأن الهدف ليس فقط تحديد المدخلات “السيئة” ، ولكن تحديد نقاط الضعف بشكل استباقي وصياغة خوارزميات تعلم أكثر مرونة.

في حين أن هناك أنواعًا لا حصر لها من الهجمات والمتجهات لاستغلال أنظمة التعلم الآلي ، فإن جميع الهجمات يتم تلخيصها في الاتي:

التهرب من التصنيف Classification evasion: الشكل الأكثر شيوعًا للهجوم ، حيث يسعى الخصم إلى إخفاء المحتوى الضار لتمرير عوامل تصفية الخوارزمية.

تسمم البيانات Data poisoning: يحاول هذا الهجوم الأكثر تعقيدًا التلاعب بعملية التعلم من خلال تقديم بيانات مزيفة أو مضللة تهدد نواتج الخوارزمية.

ملحوظة: مجال التدريب هذا -تعلم الآلة العدائي Adversarial Machine Learning- أمن ، وليس مثل شبكات الخصومة التوليدية (GAN) ، التي تعتبر تقنية تعلم آلي غير خاضعة للإشراف تضع شبكتين عصبيتين ضد بعضهما البعض لتسريع عملية التعلم.

دفاعات تعلم الآلة العدائي

تندرج أكثر التقنيات نجاحًا في تدريب أنظمة الذكاء الاصطناعي على مقاومة هذه الهجمات ضمن فئتين:

التدريب الخصومي Adversarial training

هذه طريقة تعلم خاضع للإشراف حيث يتم إدخال أكبر عدد ممكن من الأمثلة العدائية في النموذج ووصفها صراحة بأنها تهديد. هذا هو نفس النهج الذي يستخدمه برنامج مكافح الفيروسات النموذجي، مع تحديثات متعددة كل يوم. على الرغم من فعاليته الشديدة ، إلا أنه يتطلب صيانة مستمرة لمواكبة التهديدات الجديدة. أيضا لا يزال يعاني من المشكلة الأساسية المتمثلة في أنه لا يمكنه إلا إيقاف حدوث شيء قد حدث بالفعل سابقا.

التقطير الدفاعي Defensive distillation

تضيف هذه الإستراتيجية المرونة إلى عملية تصنيف الخوارزمية بحيث يكون النموذج أقل عرضة للاستغلال. في تدريب التقطير ، يتم تدريب أحد النماذج على التنبؤ باحتمالات الإخراج output probabilities لنموذج آخر تم تدريبه على معيار أساسي سابق للتأكيد على الدقة accuracy.

بالنسبة لأكبر ميزة يتميز بها نهج التقطير هي أنه قابل للتكيف مع التهديدات غير المعروفة. على الرغم من عدم كفائته 100% ، إلا أنه أكثر ديناميكية ويتطلب تدخلاً بشريًا أقل مقارنة بالتدريب العدائي Adversarial training. أما بالنسبة لأكبر عيوبه قإنه في حين أن النموذج الثاني لديه مساحة أكبر للمناورة لرفض معالجة المدخلات ، فإنه لا يزال ملزمًا بالقواعد العامة للنموذج الأول. لذلك مع قوة الحوسبة الكافية والضبط الدقيق من جانب المهاجم ، يمكن إجراء هندسة عكسية لكلا النموذجين لاكتشاف الثغرات الأساسية.

يمكن مشاهدة هاتين المحاضرتين لتوضح الفكرة أكثر و حيث يمكنك تفعيل الترجمة لإظهار الترجمة بالعربي -الترجمة تلقائية-

Share on facebook
فيسبوك
Share on twitter
تويتر
Share on linkedin
لينكدإن
Share on whatsapp
واتساب

اترك تعليقاً

المشاركات الاخيرة

أحدث التعليقات

أفحص بحثك بالمجان

رفع الملف