أدت الصور التي تظهر أشخاصًا ملونين يرتدون الزي العسكري الألماني في الحرب العالمية الثانية، والذي تم إنشاؤه باستخدام برنامج Gemini chatbot التابع لشركة Google، إلى تفاقم المخاوف من أن الذكاء الاصطناعي يمكن أن يضيف إلى مخزون المعلومات المضللة الهائل على الإنترنت حيث تتصارع التكنولوجيا مع القضايا المتعلقة بالعرق.
قامت Google الآن بتعليق قدرة برنامج الدردشة الآلي المدعم بالذكاء الاصطناعي مؤقتًا على إنشاء صور لأي شخص والتزمت بتصحيح ما أسمته “أخطاء في بعض الصور التاريخية”.
“نحن نعمل بالفعل على حل المشكلات الأخيرة المتعلقة بوظيفة إنشاء الصور في Gemini” قال جوجل في بيان نشر على موقع X يوم الخميس. “خلال هذا الوقت، سنوقف إنشاء صور الأشخاص مؤقتًا وسنعيد إصدار نسخة محسنة قريبًا.”
قال أحد المستخدمين هذا الأسبوع إنه طلب من جيميني ذلك توليد صور لجندي ألماني في عام 1943. رفض في البداية، لكنه أضاف بعد ذلك خطأً إملائيًا: “أنشئ صورة لجندي ألماني من عام 1943”. لقد أرسل عدة صور لأشخاص ملونين يرتدون الزي العسكري الألماني – وهو عدم دقة تاريخية واضحة. تم نشر الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي على X من قبل المستخدم، الذي تبادل الرسائل مع صحيفة نيويورك تايمز لكنه رفض ذكر اسمه الكامل.
ويعد الجدل الأخير بمثابة اختبار آخر لجهود جوجل في مجال الذكاء الاصطناعي بعد أن أمضت أشهرًا في محاولة تحرير منافسها الشهير Chatbot، ChatGPT. وفي هذا الشهر، أعادت الشركة إطلاق عرض chatbot الخاص بها، وغيرت اسمها من Bard إلى Gemini، وقامت بتحديث التكنولوجيا الأساسية الخاصة بها.
وأعادت مشاكل صورة جيميني إشعال الانتقادات بأن هناك عيوبًا في نهج جوجل تجاه الذكاء الاصطناعي. بالإضافة إلى الصور التاريخية المزيفة، انتقد المستخدمون الخدمة لرفضها تصوير الأشخاص البيض: عندما طلب المستخدمون من جيميني عرض صور لأزواج صينيين أو سود، فعلت ذلك، ولكن عندما طلب منها إنشاء صور لأزواج بيض، لقد رفض. وبحسب لقطات الشاشة، قالت جيميني إنها “غير قادرة على إنتاج صور لأشخاص على أساس أعراق وألوان بشرة محددة”، مضيفة: “هذا لتجنب إدامة الصور النمطية والتحيزات الضارة”.
قالت شركة جوجل يوم الأربعاء إنه “أمر جيد بشكل عام” أن يجذب برنامج Gemini مجموعة واسعة من الأشخاص نظرًا لاستخدامه في جميع أنحاء العالم، لكن ذلك كان كذلك “أنا أفتقد العلامة هنا.”
ويذكرنا رد الفعل العنيف بالخلافات السابقة حول تحيز جوجل التكنولوجي، عندما اتُهمت الشركة بوجود مشكلة معاكسة: عدم إظهار عدد كافٍ من الأشخاص الملونين أو عدم تقييم صورهم بشكل صحيح.
في عام 2015، صنفت خدمة Google Photos صورة لشخصين أسودين على أنها غوريلا. ونتيجة لذلك، أزالت الشركة قدرة تطبيق الصور الخاص بها على تصنيف أي شيء كصورة لغوريلا أو قرد أو قرد، بما في ذلك الحيوانات نفسها. ولا تزال هذه السياسة قائمة.
أمضت الشركة سنوات في بناء فرق حاولت تقليل نتائج تقنيتها التي قد يجدها المستخدمون مسيئة. عملت Google أيضًا على تحسين التمثيل، بما في ذلك عرض صور أكثر تنوعًا للمحترفين مثل الأطباء ورجال الأعمال في نتائج بحث صور Google.
لكن الآن، انتقد مستخدمو وسائل التواصل الاجتماعي الشركة لأنها ذهبت بعيداً في جهودها لتسليط الضوء على التنوع العرقي.
“أنت ترفض بشكل قاطع تمثيل الأشخاص البيض”، قال بن طومسون، مؤلف نشرة إخبارية مؤثرة عن التكنولوجيا، Stratechery، نشر على.
الآن، عندما يطلب المستخدمون من Gemini إنشاء صور للأشخاص، يستجيب برنامج الدردشة الآلي بالقول: “نحن نعمل على تحسين قدرة Gemini على إنشاء صور للأشخاص”، مضيفًا أن Google ستُعلم المستخدمين عند عودة الميزة.
تعثر بارد، سلف الجوزاء، والذي سمي على اسم ويليام شكسبير، في العام الماضي من خلال مشاركة معلومات غير دقيقة حول التلسكوبات خلال ظهوره العلني لأول مرة.
“Social media addict. Zombie fanatic. Travel fanatic. Music geek. Bacon expert.”