تكتسب Bing Chat المدعومة بالذكاء الاصطناعي ثلاث شخصيات مميزة – Ars Technica

تكتسب Bing Chat المدعومة بالذكاء الاصطناعي ثلاث شخصيات مميزة – Ars Technica

0 minutes, 11 seconds Read

بنج إدواردز / آرس تكنيكا

يوم الأربعاء ، موظف مايكروسوفت مايك ديفيدسون إعلان أن الشركة طرحت ثلاثة أنماط شخصية مميزة لروبوت Bing Chat التجريبي المدعوم بالذكاء الاصطناعي: إبداعي أو متوازن أو دقيق. مايكروسوفت كانت مقال منذ 24 فبراير مع عدد محدود من المستخدمين. يؤدي التبديل بين الأوضاع إلى نتائج مختلفة تعمل على تغييرها توازن بين الصرامة والإبداع.

Bing Chat هو مساعد مدعوم بالذكاء الاصطناعي يعتمد على نموذج لغة كبير متقدم (LLM) تم تطويره بواسطة OpenAI. الميزة الرئيسية لـ Bing Chat هي أنه يمكنه البحث في الويب ودمج النتائج في ردوده.

أعلنت Microsoft عن Bing Chat في 7 فبراير ، وبعد فترة وجيزة من إطلاقها ، دفعت الهجمات العدائية بثبات إصدارًا مبكرًا من Bing Chat إلى محاكاة الجنون ، واكتشف المستخدمون أنه يمكن إقناع الروبوت بذلك. هدد هم. بعد فترة وجيزة ، خفضت Microsoft بشكل كبير نوبات Bing Chat من خلال فرض قيود صارمة على أطوال الدردشة.

منذ ذلك الحين ، جربت الشركة طرقًا لإعادة بعض شخصية Bing Chat الوقحة لأولئك الذين يريدون ذلك ، ولكن أيضًا تسمح للمستخدمين الآخرين بالبحث عن إجابات أكثر تحديدًا. نتج عن ذلك واجهة “نمط المحادثة” الجديدة المكونة من ثلاثة اختيارات.

في تجاربنا مع جميع الأنماط الثلاثة ، لاحظنا أن الوضع “الإبداعي” أنتج اقتراحات أقصر وأكثر شذوذًا لم تكن دائمًا آمنة أو عملية. لقد أخطأ الوضع “الدقيق” في جانب الحذر ، وأحيانًا لا يقترح أي شيء إذا لم يكن يرى طريقة آمنة للحصول على نتيجة. في المنتصف ، غالبًا ما ينتج عن الوضع “متوازن” أطول الإجابات مع نتائج البحث الأكثر تفصيلاً واستشهادات مواقع الويب في إجاباتها.

READ  قد تكشف Samsung النقاب عن سلسلة Galaxy S23 في 1 فبراير

مع النماذج اللغوية الكبيرة ، غالبًا ما تزداد الأخطاء غير المتوقعة (الهلوسة) مع زيادة “الإبداع” ، مما يعني عادةً أن نموذج الذكاء الاصطناعي سينحرف أكثر عن المعلومات التي تعلمها في مجموعة البيانات الخاصة به. غالبًا ما يطلق باحثو الذكاء الاصطناعي على هذه الخاصية “درجة حرارة“، لكن أعضاء فريق Bing يقولون إن هناك المزيد من أنماط المحادثة الجديدة.

وفقًا لأحد موظفي Microsoft ميخائيل باراخينيعمل تبديل الوضع في Bing Chat على تغيير الجوانب الأساسية لسلوك الروبوت ، بما في ذلك التبديل بين نماذج AI المختلفة التي تم تلقيها تدريب إضافي الاستجابات البشرية عندما يخرج. تستخدم الأوضاع المختلفة أيضًا مطالبات أولية مختلفة ، مما يعني أن Microsoft تقوم بتبديل موجه تعريف الشخصية مثل ذلك الذي تم الكشف عنه في هجوم الحقن السريع الذي كتبنا عنه في فبراير.

بينما لا يزال Bing Chat متاحًا فقط لأولئك الذين اشتركوا في قائمة الانتظار ، تواصل Microsoft باستمرار تحسين Bing Chat وميزات بحث Bing الأخرى المدعومة بالذكاء الاصطناعي أثناء استعدادها لنشرها على نطاق أوسع للمستخدمين. أعلنت Microsoft مؤخرًا عن خطط لدمج التكنولوجيا في نظام التشغيل Windows 11.

author

Akeem Ala

"Social media addict. Zombie fanatic. Travel fanatic. Music geek. Bacon expert."

Similar Posts

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *