“روبوتات المحادثة” تنشر أخباراً كاذبة

يعاني الذكاء الاصطناعي من صعوبة تمييز الحقائق، وهو ما ظهر مؤخراً في حالة تضمنت غوغل ومايكروسوفت معاً.

في حين تضع شركات روبوتات المحادثة تحذيرات بأن المعلومات قد لا تكون دقيقة، لكن معظم المستخدمين يصدقونها على أي حال.

منذ تشرين الثاني، باتت روبوتات المحادثة القائمة على الذكاء الاصطناعي هي مجال منافسة عمالقة التقنية بسبب انتشارها السريع.

وعلى أعتاب النجاح المتفجر لروبوت المحادثة القائم على الذكاء الاصطناعي، ChatGPT، بدأت عمالقة التقنية بسباق محموم لتكون أولى من تهيمن على المجال الجديد والناشئ عبر طرح خدماتها وتقديمها للمستخدمين بأسرع شكل ممكن، وبينما كانت مايكروسوفت هي الأولى عندما ضمنت خوارزمية GPT-4 في روبوت محادثة ضمن محرك بحثها، Bing، سرعان ما تبعتها غوغل مع ذكائها الاصطناعي المسمى Bard.

لكن وبينما أحدثت روبوتات المحادثة ثورة كبرى من حيث قدرتها على توليد الكلام واختصار المواضيع الطويلة والتفاعل باللغة الطبيعية، فقد ظهرت مشكلة كبرى في كونها لا تميز الحقيقة من الزيف، وبالنظر إلى أنها تستقي محتوى تدريبها من الإنترنت، فاحتمال نقل معلومات خاطئة أو الفهم الخاطئ للمعلومات كبيرة للغاية.

في حالة أخيرة نشرها موقع The Verge، أظهر روبوتا المحادثة الخاصين بغوغل ومايكروسوفت جانبهما السيئ عبر تناقل أخبار كاذبة، والاستشهاد ببعضهما البعض حتى.

وكان محرك القصة هو سؤال محرك البحث Bing إن كان الذكاء الاصطناعي المنافس، Bard، قد توقف عن العمل. وبشكل مقنع للغاية، كان جواب Bing هو نعم، وقدم تواريخ وأسباب تبدو مقنعة للغاية، لكن بالنظر إلى أن الإجابة خاطئة تماماً كان لا بد من البحث عن أصلها وطريقة بدايتها.

في حين بدأ الأمر من تعليق ساخر على منتدى Hacker News حيث قال أحد المستخدمين أنه يتخيل توقف الذكاء الاصطناعي الخاص بغوغل بعد عام واحد (مشيراً إلى عادة غوغل بإيقاف العديد من الخدمات بعد فترات قصيرة من إطلاقها)، ليقوم مستخدم آخر باستخدام ChatGPT لإنشاء خبر مزيف ومقنع عن الأمر ويضع النتيجة في تعليق.

لاحقاً، قام أحد المستخدمين بسؤال ذكاء غوغل الاصطناعي، Bard، عن نفسه إن كان قد توقف، وبشكل صادم أجاب أنه قد توقف حقاً، واستشهد بالتعليق سابق الذكر، وهو ما دفع المستخدم لنشر تغريدة يتناول فيها هذا الخطأ، ومن هنا تم تغطية التغريدة في خبر على موقع Windows Central، ليقوم الذكاء الاصطناعي الخاص بمايكروسوفت بفهم الخبر بشكل خاطئ واستخدامه كدليل على أن Bard قد توقف حقاً.

في حال كان ما سبق محيراً، فالشرح المبسط هو أن الذكاء الاصطناعي (Bing) نشر معلومة كاذبة مستشهداً بخبر ساخر من كون الذكاء الاصطناعي (Bard) ينشر معلومات خاطئة، وكان الذكاء الاصطناعي (Bard) الذي نشر تلك المعلومة الخاطئة قد استشهد بتعليق ساخر تمت كتابته باستخدام ذكاء اصطناعي ثالث (ChatGPT).

حيث يبدو كل ما سبق مقلقاً للغاية بحد ذاته، لكن الأمر يصبح أسوأ عندما نأخذ بعين الاعتبار أن كل ذلك كان قد جرى بالخطأ ودون قصد، لكن عندما يبدأ المستخدمون بالتضليل المقصود للذكاء الاصطناعي، وهو ما سيحدث دون شك وبالأخص في المواضيع الجدلية مثل السياسة والاقتصاد وسواها، ستكون النتائج أسوأ بمراحل من الآن.

من ناحية أخرى تقوم مختلف خدمات روبوت المحادثة بوضع تحذيرات من أنها قد لا تكون دقيقة تماماً من حيث الحقائق، لكن وبالنظر إلى أنها تقدم ضمن محركات البحث التي يستخدمها الأشخاص بشكل محدد لمعرفة المعلومات، تعرف الشركات تماماً أن المستخدمين سيصدقون روبوتات المحادثة وما تقدمه من معلومات خاطئة وأخبار كاذبة.

/ميناتِك/

اترك ردإلغاء الرد