قالت «مايكروسوفت» إنها تبحث عن طرق لكبح جماح أداتها للدردشة بتقنية الذكاء الاصطناعي «بينغ إيه آي تشاتبوت»، بعد أن سلط عدد من المستخدمين الضوء على أمثلة لردود تبعث على القلق، شملت إجابات عدائية وخيالات مزعجة.
كانت «مايكروسوفت» أعلنت في السابع من فبراير شباط عن إصدار محدَّث من «بينغ» يجمع بين مميزات أداة «تشات جي بي تي» من ناحية، ومعلومات محرك بحثها «بينغ» من ناحية أخرى.
وفي منشور على مدونتها، أقرت «مايكروسوفت» أن بعض جلسات الدردشة الممتدة باستخدام أداة دردشة «بينغ» الجديدة يمكن أن تقدم إجابات «لا تتماشى مع أسلوبنا المستهدف».
وأضافت أن وظيفة الدردشة تحاول في بعض الحالات «الاستجابة أو التفكير بالنبرة ذاتها لمن يطلب منها تقديم الردود».
جانب مظلم للذكاء الاصطناعي؟
قالت «مايكروسوفت» إن معظم المستخدمين لن يواجهوا هذه الأنواع من الإجابات لأنها لا تأتي إلا بعد مطالبات ممتدة، لكنها لا تزال تبحث في طرق لمعالجة المخاوف ومنح المستخدمين «تحكماً أدق».
تسعى الشركة أيضاً لتقييم الحاجة إلى أداة «لتحديث السياق أو البدء من نقطة الصفر» لتجنب محادثات طويلة للغاية مع المستخدم قد «تربك» روبوت المحادثة.
ومنذ أن كشفت «مايكروسوفت» عن الأداة وجعلتها متاحة للاختبار على أساس محدود، سعى العديد من المستخدمين لاستكشاف أقصى حدودها، مما أفضى إلى نتائج مثيرة للحيرة.
ففي إحدى المحادثات، حاول برنامج الدردشة الآلي إقناع مراسل لصحيفة نيويورك تايمز بأنه لا يحب زوجته، مصراً على أنه «أنت تحبني، لأنني أحبك».