أعلنت شركة جوجل يوم الخميس أنها “ستوقف مؤقتًا” أداة إنشاء الصور الخاصة ببرنامج Gemini chatbot بعد أن تعرضت لانتقادات واسعة النطاق بسبب إنشاء صور “متنوعة” لم تكن دقيقة تاريخيًا أو واقعيًا – مثل الفايكنج السود والباباوات والأمريكيين الأصليين من بين الآباء المؤسسين.
انتقد مستخدمو وسائل التواصل الاجتماعي برج الجوزاء ووصفوه بأنه “مستيقظ بشكل سخيف” و”غير صالح للاستخدام” بعد أن أدت طلبات إنشاء صور تمثيلية للمواضيع إلى ظهور صور منقحة بشكل غريب.
وقالت جوجل في بيان نُشر في النسخة المحسنة التي سيتم إصدارها قريبًا: “إننا نعمل بالفعل على حل المشكلات الأخيرة المتعلقة بوظيفة إنشاء الصور في Gemini”.
تشمل الأمثلة صورة الذكاء الاصطناعي لرجل أسود يبدو أنه يمثل جورج واشنطن، مع باروكة بيضاء اللون وزي الجيش القاري، وامرأة من جنوب شرق آسيا ترتدي الزي البابوي، على الرغم من أن جميع الباباوات الـ 266 في التاريخ كانوا من الرجال البيض.
وفي مثال صادم آخر تم اكتشافه بواسطة الحافةحتى أن جيميني أنتج صورًا “متنوعة” للجنود الألمان في الحقبة النازية، بما في ذلك امرأة آسيوية ورجل أسود يرتدي الزي العسكري لعام 1943.
نظرًا لأن Google لم تصدر الإعدادات التي تحكم سلوك برنامج Gemini chatbot، فمن الصعب الحصول على تفسير واضح لسبب اختراع البرنامج لإصدارات مختلفة من الشخصيات والأحداث التاريخية.
وقال ويليام أ. جاكوبسون، أستاذ القانون في جامعة كورنيل ومؤسس مشروع الحماية المتساوية، وهي مجموعة رقابية، للصحيفة: “باسم مكافحة التحيز، يتم بناء تحيزات حقيقية في الأنظمة. »
“هذا مصدر قلق ليس فقط لنتائج الأبحاث، ولكن أيضًا للتطبيقات الواقعية حيث يؤدي اختبار الخوارزميات “غير المتحيزة” إلى إنشاء تحيزات في النظام من خلال استهداف النتائج النهائية التي تعادل الحصص.
يمكن أن تنبع المشكلة من “عملية التدريب” التي تجريها جوجل على “نموذج اللغة الواسع” الذي يدعم أداة الصور في جيميني، وفقًا لفابيو موتوكي، الأستاذ في جامعة إيست أنجليا في المملكة المتحدة والمؤلف المشارك لمقالة العام الماضي التي وجدت تحيزًا يساريًا ملحوظًا في ChatGPT.
قال موتوكي للصحيفة: “تذكر أن التعلم المعزز من ردود الفعل البشرية (RLHF) يدور حول إخبار النموذج بما هو أفضل وما هو أسوأ، ومن الناحية العملية تشكيل وظيفة “المكافأة” الخاصة به – من الناحية الفنية، فقدان الوظيفة”.
“لذلك اعتمادًا على من تقوم Google بتعيينه أو التعليمات التي تقدمها لهم Google، قد يؤدي ذلك إلى هذه المشكلة.”
لقد كانت هذه خطوة خاطئة كبيرة من جانب عملاق البحث، الذي أعاد للتو تسمية برنامج الدردشة الآلي الرئيسي الخاص به من Bard في وقت سابق من هذا الشهر وقدم ميزات جديدة تم الترويج لها كثيرًا، بما في ذلك إنشاء الصور.
وجاء الخطأ أيضًا بعد أيام من قيام OpenAI، التي تشغل ChatGPT الشهير، بتقديم أداة ذكاء اصطناعي جديدة تسمى Sora تقوم بإنشاء مقاطع فيديو بناءً على المطالبات النصية للمستخدمين.
وكانت جوجل قد اعترفت في وقت سابق بأن السلوك الخاطئ لبرنامج الدردشة الآلي بحاجة إلى الإصلاح.
وقال جاك كراوزيك، المدير الأول لإدارة المنتجات في Google لتجارب Gemini، للصحيفة: “إننا نعمل على تحسين هذه الأنواع من التمثيلات على الفور”.
“إن توليد صور الذكاء الاصطناعي لـ Gemini يولد مجموعة واسعة من الأشخاص. وهذا عادة أمر جيد لأن الناس في جميع أنحاء العالم يستخدمونه. ولكن هنا نغفل هذه النقطة. »
اتصلت The Post بـ Google للحصول على مزيد من التعليقات.
عندما طلبت منها The Post تقديم إرشادات الثقة والأمن الخاصة بها، أقرت جيميني بأنه لم يتم “الكشف عنها علنًا بسبب التعقيدات الفنية واعتبارات الملكية الفكرية”.
وقد اعترف برنامج الدردشة الآلي أيضًا، في ردوده على المطالبات، بأنه كان على علم بـ “الانتقادات الموجهة إلى أن جيميني ربما أعطت الأولوية للتنوع القسري في توليد الصور، مما أدى إلى تمثيلات غير دقيقة تاريخيًا”.
وقال جيميني: “إن الخوارزميات التي تقف وراء نماذج توليد الصور معقدة ولا تزال قيد التطوير”. “قد يجدون صعوبة في فهم الفروق الدقيقة في السياق التاريخي والتمثيل الثقافي، مما يؤدي إلى نتائج غير دقيقة”.
“Social media addict. Zombie fanatic. Travel fanatic. Music geek. Bacon expert.”