قبل نهاية ولاية الرئيس ترامب ، وفي ذروة تبادل الاتهامات بين الولايات المتحدة والصين بشأن مرض كوفيد -19 ، ظهرت بوادر حرب جديدة بين البلدين ، وهي حرب الذكاء الاصطناعي ، وظهرت العديد من الأسئلة: هل هذه التكنولوجيا جاهزة للعمل بأمان؟ الذكاء الاصطناعي العسكري بسهولة؟
خوارزميات مضللة
على الرغم من أن تقنيات الذكاء الاصطناعي العسكرية تهيمن على الإستراتيجية العسكرية في الولايات المتحدة والصين ؛ إلا أن ما أشعل فتيل الأزمة هو أن الباحثين الصينيين شنوا في مارس الماضي هجومًا رائعًا ، وربما مدمرًا ، ضد واحدة من أغلى الأصول التكنولوجية في أمريكا ، وهي سيارة تسلا الكهربائية.
تمكن فريق بحثي من مختبر الأمن التابع لشركة Tencent الصينية العملاقة للتكنولوجيا من إيجاد عدة طرق لخداع خوارزميات الذكاء الاصطناعي في Tesla من خلال تعديل البيانات التي يتم إدخالها في مستشعرات السيارة بعناية ، وتمكن الفريق من خداع الذكاء. المصطنع الذي يدور السيارة ويخلطها.
خدع الفريق خوارزميات Tesla الرائعة القادرة على اكتشاف قطرات المطر على الزجاج الأمامي أو تتبع الخطوط على الطريق ، وتشغيل ماسحات الزجاج الأمامي لتتصرف كما لو كانت تمطر ، وتغيير علامات الممرات على الطريق لإرباك نظام القيادة المستقل ، لذلك عبرت المسار المعاكس. حركة المرور.
بعد نجاح التجربة الصينية ، شدد الفريق على أن خوارزميات “التعلم العميق” ، التي تتعامل مع مجالات تطبيق مختلفة مثل التعرف على الوجه وتشخيص السرطان ، يمكن خداعها إذا تم اكتشاف نقاط ضعفها.
حماية الأمن القومي
تخصص ميزانية البنتاغون المقترحة لعام 2020 والبالغة 718 مليار دولار 927 مليون دولار للذكاء الاصطناعي والتعلم الآلي. تشمل المشاريع الحالية اختبار ما إذا كان بإمكان الذكاء الاصطناعي التنبؤ عندما تحتاج الدبابات والشاحنات إلى الصيانة ، بالإضافة إلى الأشياء التي تحتل صدارة تكنولوجيا الأسلحة.
في وقت سابق من هذا العام ، أعلنت الولايات المتحدة عن استراتيجية رئيسية لتسخير الذكاء الاصطناعي في العديد من مجالات الجيش ، بما في ذلك التحليل الاستخباراتي ، واتخاذ القرار ، واستقلالية المركبات ، والخدمات اللوجستية ، والأسلحة.
قد لا يبدو خداع سيارات تسلا الكهربائية بمثابة تهديد استراتيجي خطير للولايات المتحدة ؛ ولكن ماذا لو تم استخدام تقنيات مماثلة لخداع الطائرات بدون طيار ، أو البرامج التي تحلل صور الأقمار الصناعية ، لرؤية الأشياء غير الموجودة أو التي لا ترى الأشياء الموجودة؟
ينبع سبب دفع البنتاغون للذكاء الاصطناعي جزئيًا من الخوف من كيفية استخدام المنافسين لهذه التكنولوجيا.
في العام الماضي ، أرسل وزير الدفاع آنذاك جيم ماتيس تعليقًا إلى الرئيس دونالد ترامب يحذر فيه من أن الولايات المتحدة متأخرة بالفعل فيما يتعلق بالذكاء الاصطناعي.
في يوليو 2017 ، صاغت الصين استراتيجيتها للذكاء الاصطناعي ، معلنة أن “أكبر الدول المتقدمة في العالم تتخذ تطوير الذكاء الاصطناعي كاستراتيجية رئيسية لتحسين المنافسة الوطنية وحماية الأمن القومي”.
بعد بضعة أشهر ، أعلن فلاديمير بوتين من روسيا إعلانًا مشؤومًا ، “من سيصبح قائدًا في (الذكاء الاصطناعي) سيصبح حاكم العالم”.
يمكن فهم الرغبة في بناء أذكى الأسلحة وأكثرها فتكًا. ولكن كما يبدو في حالة السطو على سيارة كهربائية من تسلا ، فإن العدو الذي يعرف كيف تعمل خوارزمية الذكاء الاصطناعي يمكن أن يجعلها غير مجدية أو حتى تحريكها للعمل ضد مالكها.
شبكات التعلم العميق
على خلفية تراكم الاستخدامات العسكرية للذكاء الاصطناعي ، حظيت نقاط الضعف هذه باهتمام كبير وأثارت العديد من المخاوف. على سبيل المثال ، قد يؤدي الحد الأدنى من التغييرات في صورة الإدخال إلى قيام الشبكة بتصنيفها بشكل غير صحيح وجعلها تبدو مشابهة لشخص آخر ؛ لكن هذا يختلف تمامًا عن خوارزمية الذكاء الاصطناعي.
يمكن أن يكون الحل الدفاعي ضد البيانات العدائية هو استخدام شبكات التعلم العميق ، ويمكن للشبكات العصبية متعددة الطبقات اكتشاف الكائنات بمهارة غير مسبوقة ، ويتضمن تدريب الشبكة العصبية إدخال البيانات لمعالجة أنواع مختلفة من الصور وبيانات الاستشعار الضرورية للعمليات العسكرية.
وبدأ البنتاغون في الاهتمام ، وفي أغسطس من هذا العام ، أعلنت وكالة مشاريع الأبحاث المتقدمة (DARPA) عن العديد من مشاريع أبحاث الذكاء الاصطناعي الكبرى ، بما في ذلك مشروع يركز على التعلم الآلي القوي.
يمكن فهم رد الفعل المتكرر ضد الاستخدام العسكري لـ ABI. لكنها قد تفوت الصورة الأكبر. حتى عندما يكون الناس قلقين بشأن الروبوتات القاتلة الذكية ، ربما يكون الخطر الأكبر على المدى القريب هو ضباب الحرب الخوارزمي ، الذي يمثله الذكاء الاصطناعي العسكري العدواني ، وهو ضباب لا تستطيع حتى أذكى الآلات تعلمه.