فيديو

جدول المحتويات:

Anonim

غرب العالم هو واحد من مسلسلاتي التلفزيونية المفضلة في السنوات القليلة الماضية. تجمع دراما HBO بين مجموعة رائعة من الممثلين في مؤامرة جذابة تمس بعض الجوانب الأكثر إثارة للجدل لمستقبل الذكاء الاصطناعي (AI). في كل حلقة تقريبًا من الموسم الأول من West World ، نجد أن البشر يحاولون فهم القرارات التي يتخذها المضيف (الروبوتات) في ظروف معينة. في كل مرة يحتاج فيها بعض الأشخاص إلى شرح حول سلوك المضيف ، يمكنه ببساطة الاستعلام عن نظام يباشر شرح السبب وراء قرار المضيف. ما عليك سوى قول "التحليل ، وشرح X أو Y" وسيواصل المضيف تقديم تفاصيل التعقيدات الكامنة وراء سلوكياته أو تصرفاته. إذا كانت الأشياء فقط تعمل على هذا النحو في أنظمة الذكاء الاصطناعي الحقيقي (AI).

يعد تفسير المعرفة وتفسيرها أحد أصعب المشكلات في أنظمة التعليم العميق الحديثة. في أنظمة التعلم العميقة الخاضعة للإشراف ، تكون عمليات تدريب النموذج والمعرفة المضمنة في هذا النموذج غير قابلة للتفسير تقريبًا. ومع ذلك ، فإن تفسير المعرفة هو عنصر أساسي في طريقة تعلم البشر. لنأخذ إعدادًا كلاسيكيًا للطالب والمعلم يحاول فيه المعلم نقل مفهوم محدد للطالب باستخدام سلسلة من الأمثلة. استنادًا إلى ملاحظات الطالب ، سيقوم المعلم بتكييف تفسيراته ومحاولة تحديد أكثر الأمثلة ملاءمة لتحسين معرفة الطالب. هذه العملية التربوية تعمل ببراعة للبشر ولكنها تفشل فشلا ذريعا للشبكات العصبية.

تتطلب بعض السيناريوهات الأكثر إثارة للاهتمام في أنظمة التعلم العميق تعاونًا سلسًا بين البشر والشبكات العصبية. ومع ذلك ، في معظم السيناريوهات ، من الصعب للغاية إقامة هذا التعاون لأن كلا الجانبين يتحدثان عن بروتوكولات مختلفة. تحاول ورقة بحثية حديثة من OpenAI مواجهة هذا التحدي من خلال اقتراح طريقة تربوية أكثر لتكنولوجيا أنظمة التعليم العميق.

تحت عنوان "أمثلة تربوية وتربوية" ، صاغ باحثو OpenAI أطروحة مثيرة حول ما يجعل فهم المعرفة بنظم التعلم العميق أمرًا صعبًا للغاية. في رأيهم ، يتمثل جزء من التحدي في أن معظم أبنية التعلم العميقة تعتمد على الشبكات العصبية للمعلم والطلاب لتدريبهم بشكل مشترك مما يمنع أي حلقة تغذية مرتدة بين الاثنين. بدلاً من هذا النموذج ، يقترح فريق OpenAI هيكلاً يمكن من خلاله تدريب شبكات المعلمين والطلاب بشكل متكرر يمكن أن ينتج استراتيجيات تدريس أكثر قابلية للتفسير.

تعلم الآلة القابلة للتفسير

يمكن اعتبار استراتيجية التدريس القابلة للتفسير OpenAI على أنها لعبة ديناميكية بين شبكتين عصبيتين وطالب ومعلم. الهدف من اللعبة هو أن يخمن الطالب مفهومًا معينًا قائمًا على أمثلة من هذا المفهوم والهدف من المعلم هو تعلم اختيار أكثر الأمثلة توضيحية للطالب. باستخدام سيناريو التعرف على الصور كقياس ، يجب على الطالب محاولة تخمين المفاهيم في صورة معينة بينما يجب على المعلم محاولة اختيار أنسب الصور لتحسين معرفة الطالب.

تعمل التقنية ذات المرحلتين على التدريس القابل للتفسير على النحو التالي: يتم إعطاء شبكة عصبية "للطالب" أمثلة لمدخلات منتقاة بشكل عشوائي ويتم تدريبها من تلك الأمثلة باستخدام طرق التعلم التقليدية الخاضعة للإشراف لتخمين تسميات المفاهيم الصحيحة. في الخطوة الثانية ، تقوم شبكة "المعلم" - التي لديها مفهوم مقصود للتدريس والوصول إلى الملصقات التي تربط المفاهيم بالأمثلة - باختبار الأمثلة المختلفة للطالب ومعرفة أي مفهوم تسميات يقوم الطالب بتعيينها ، وفي النهاية يلتقي في أصغر مجموعة من الأمثلة التي يحتاجها لإعطاء الطالب تخمين المفهوم المقصود.

المفتاح لأساليب OpenAI هو أن يتم تدريب شبكات المعلمين والطلاب بشكل متكرر بدلاً من المشاركة. في الوضع التقليدي ، سيتم تدريب كلتا الشبكتين العصبية معًا على اختيار أمثلة يصعب تفسيرها من قِبل البشر. الهدف من تقنية OpenAI هو إنتاج استراتيجيات تدريس أكثر قابلية للتفسير ، ولكن كيف يمكننا قياس كمية الترجمة؟ لتقييم أداء الوضع ، تركز فريق OpenAI على مقياسين أساسيين:

1. تقييم مدى تشابه الاستراتيجيات المختارة مع الاستراتيجيات البديهية التي صممها الإنسان في كل مهمة.

2. تقييم فعالية الاستراتيجيات المختارة في تدريس البشر.

طبق باحثو OpenAI استراتيجيات قابلة للتفسير عبر مجموعة كبيرة ومتنوعة من السيناريوهات التي حققت نتائج ملحوظة تحسنت بشكل كبير مقارنة بالتقنيات التقليدية. وبشكل أكثر تحديدًا ، يؤدي التدريس القابل للتفسير إلى قيام نموذج الطالب بتعلم استراتيجية تعلم قابلة للتفسير ، الأمر الذي يقيد المعلم على تعلم استراتيجية تعليمية قابلة للتفسير.

موصى به اختيار المحرر