الذكاء الاصطناعي في ابتسامة إنسان آلي أزرق

by Ayesha Al Jaber
Robot EVA

الكائن يشبه دعامة فيلم خيال علمي. إنه في الواقع مشروع معقد للغاية لفريق من مختبر الآلات الإبداعية في جامعة كولومبيا في نيويورك (الولايات المتحدة). تم تقديم رأس الإنسان الآلي هذا المسمى EVA ، في مؤتمر ICRA 2021 للروبوتات والأتمتة ، الذي عقد في الفترة ما بين 30 مايو و 5 يونيو.

ستة أنواع مختلفة من التعبيرات

إنه مصنوع من جلد صناعي أزرق مرن ، وخلفه مجموعة من 25 محركًا ، مع كابلات من النايلون وآليات طباعة ثلاثية الأبعاد ، تسمح بتحريك أكبر عدد ممكن من عضلات الوجه والرقبة والجفون والعينين.

كل شيء يتناسب تمامًا مع جمجمة الروبوت. لم يتم وضع نظام الرؤية الحاسوبية في عيني الروبوت. يعتمد على كاميرا خارجية تتصل بها EVA.

https://www.youtube.com/watch؟v=STx2HMHJFY8

يسمح الجانب الميكانيكي البحت للمشروع بستة أنواع مختلفة من التعبيرات: الفرح والحزن والخوف والغضب والاشمئزاز والمفاجأة. لكن المهمة الرئيسية هي أتمتة توليد تعبيرات الوجه بواسطة الروبوت ، وفقًا لما يقوله المحاور البشري. هذا لجعل التفاعل بين الإنسان والآلة أكثر طبيعية ، خاصة في سياقات العمل حيث يكون البشر والروبوتات “زملاء” أو يساعدون بعضهم البعض.

تعلم من صورتك الخاصة

لهذا الغرض ، استخدم الفريق التعلم الآلي ، ولا سيما تقنيات تعلم عميق. المبدأ بسيط: يتعلم الروبوت التعرف على تعابير وجه الأشخاص الذين ينظر إليهم من أجل إصدار نفس التعبير في المقابل. نبتسم له ، يبتسم. في الممارسة العملية ، كان من الضروري تدريب EVA. تعلم الروبوت ، في البداية ، أن يفهم كيف يعمل وجهه الاصطناعي. لهذا قام الباحثون بوضعه لعدة ساعات أمام الكاميرا التي صورته وأعادت صورته إليه وهو يقيد تعابير وجهه بشكل عشوائي. هكذا تعلمت EVA أي فعل من المحرك ينشط أي “عضلة” في وجهه.

https://www.youtube.com/watch؟v=1vBLI-q04kM

بعد ذلك ، تقوم الكاميرا بتصوير تعبيرات المحاور الحقيقي. يستخرج برنامج OpenPose للتعرف على الموقف المفتوح المصدر المناطق الرئيسية في اللعب (حول العينين والفم وما إلى ذلك) ويضعها على صورة ثابتة للإنسان الآلي مضمن فيه. ثم يُنشئ البرنامج ، للروبوت ، صورة لنفسه تتبنى تعبيرات الوجه التي تم التقاطها للتو في الشخص الثالث. هذا له تأثير بدء تشغيل المحركات لإعادة إنتاجه. اتبعت EVA طريقة التعلم هذه أيضًا عبر فيديوهات يوتيوب لثماني شخصيات مختلفة. في النهاية ، تعرض الروبوت لسلوك 12 شخصًا لـ 380 تعبيرًا.

حقيقة ملحوظة ، ل تعلم عميق، لم يكن هناك في أي وقت من الأوقات أي مهام إشراف وتوسيم لقاعدة البيانات كما تتم ممارستها في معظم الأوقات لتدريب أنظمة التعرف التلقائي (الصور والأشكال والأشخاص).

في الحالة الحالية للمشروع ، يقوم الروبوت بتقليد فقط ، وهو ما قد لا يكون مناسبًا في الوضع الحقيقي. لكن المشروع أثبت على الأقل أنه من الممكن أتمتة ردود فعل الوجه وإثارة هذه التفاعلات في الوقت الفعلي. لتحسين المشروع ، حسب تقديرات الباحثين في نهاية مقالهم ، سيكون من الضروري جعل الروبوت يكتسب “مستوى أعلى من فهم العواطف والرغبات والنوايا البشرية.” الكأس الأبدية للذكاء الاصطناعي. الذي يتكون من جعلها تبدو أقل اصطناعية.

Related Articles

Leave a Comment