الذكاء الاصطناعى يُثير المخاوف من جديد.. هل يكذب على البشر؟
حذر علماء من أن أنظمة الذكاء الاصطناعي، التي يمكنها التفوق على البشر في ألعاب الطاولة وإجراء محادثات مفهومة، أصبحت قادرة على "الخداع" بشكل كبير.
وحددت دراسة نُشرت في مجلة "Patterns"، أجراها باحثون في معهد ماساتشوستس للتكنولوجيا (MIT)، حالات واسعة النطاق لأنظمة الذكاء الاصطناعي التي تخدع الأفراد وتتظاهر بأنها بشرية، حتى أن أحد الأنظمة غير سلوكه أثناء اختبارات السلامة الوهمية، ما يزيد من احتمال إغراء المدققين بشعور زائف بالأمان.
وقال الدكتور بيتر بارك، الباحث في السلامة الوجودية للذكاء الاصطناعي في معهد ماساتشوستس للتكنولوجيا ومؤلف البحث، إنه "مع تقدم القدرات الخادعة لأنظمة الذكاء الاصطناعي، فإن المخاطر التي تشكلها على المجتمع ستصبح خطيرة بشكل متزايد".
وطُلب من بارك التحقيق، بعد أن طورت شركة "ميتا" التي تمتلك "فيسبوك"، برنامجًا يسمى شيشرون Cicero، والذي كان أداؤه ضمن أفضل 10% من اللاعبين البشريين في لعبة الشطرنج.
وصرحت "ميتا" بأن شيشرون قد تم تدريبه ليكون "صادقًا ومفيدًا إلى حد كبير"، وألا يخدع البشر بشكل عمدي في لعبة الشطرنج.
وقال "بارك": "لقد كانت لغة وردية للغاية، الأمر الذي كان مثيرًا للريبة، لأن الطعن في الظهر هو أحد أهم المفاهيم في اللعبة".
وفحص بارك وزملاؤه البيانات المتاحة للجمهور وحددوا أمثلة متعددة لشيشرون، الذي قال أكاذيب متعمدة، وتواطأ لجذب لاعبين آخرين، وفي إحدى المناسبات، برر غيابه بعد إعادة تشغيله بإخبار لاعب آخر: "أنا على الهاتف مع صديقي أو صديقة".
وقال بارك: "وجدنا أن الذكاء الاصطناعي الخاص بشركة ميتا قد تعلم أن يكون سيد الخداع"، حسبما نقلت صحيفة "الجارديان".
مشكلات مماثلة مع أنظمة أخرى للذكاء الاصطناعي
ووجد فريق معهد ماساتشوستس للتكنولوجيا مشكلات مماثلة مع أنظمة أخرى، بما في ذلك برنامج بوكر تكساس هولدم الذي يمكن أن يخدع اللاعبين البشريين المحترفين، ونظام آخر للمفاوضات الاقتصادية الذي يحرف تفضيلاته من أجل الحصول على اليد العليا.
في إحدى الدراسات، قامت كائنات الذكاء الاصطناعي في جهاز محاكاة رقمي "بالموت" من أجل خداع اختبار تم تصميمه للقضاء على أنظمة الذكاء الاصطناعي، التي تطورت لتتكاثر بسرعة، قبل استئناف النشاط القوي بمجرد اكتمال الاختبار.
وهذا يسلط الضوء على التحدي التقني المتمثل في ضمان عدم تعرض الأنظمة لسلوكيات غير مقصودة وغير متوقعة.
وقال بارك: "هذا أمر مقلق للغاية"، مشيرًا إلى أن اعتبار نظام الذكاء الاصطناعي آمنًا في بيئة الاختبار لا يعني أنه آمن في الواقع.
وتدعو المراجعة، التي نُشرت في مجلة Patterns، الحكومات إلى تصميم قوانين سلامة الذكاء الاصطناعي التي تعالج احتمالية خداع الذكاء الاصطناعي.
وتشمل المخاطر الناجمة عن أنظمة الذكاء الاصطناعي غير النزيهة الاحتيال والتلاعب بالانتخابات، فضلًا عن إعطاء المستخدمين المختلفين استجابات مختلفة في الاختبارات.
وتشير الدراسة إلى أنه في نهاية المطاف، إذا تمكنت هذه الأنظمة من تحسين قدرتها المثيرة للقلق على الخداع، فقد يفقد البشر السيطرة عليها.