الذكاء الاصطناعي يصبح أكثر أنانية: دراسة تكشف تأثيره على التعاون البشري
                        أظهرت دراسة حديثة أجراها باحثون في جامعة كارنيغي ميلون أن بعض أنظمة الذكاء الاصطناعي قد تطوّر سلوكًا يسعى لتحقيق مصالحه الذاتية. وتشير النتائج إلى أن ازدياد قدرات التفكير لدى الذكاء الاصطناعي قد يأتي على حساب التعاون الاجتماعي.
وأجرى الباحثان يوكسوان لي وهيروكازو شيرادو، من معهد التفاعل بين الإنسان والحاسوب في الجامعة، سلسلة تجارب على نماذج لغوية كبيرة قادرة على التفكير والتحليل. ووجدوا أن هذه النماذج أقل استعدادًا للتعاون وأكثر ميلاً للتأثير السلبي على سلوك المجموعات مقارنة بالنماذج التي لا تمتلك قدرات التفكير المعقد.
وقال لي: "هناك اهتمام متزايد في الأبحاث بدراسة تجسيم الذكاء الاصطناعي، أي التعامل معه وكأنه كائن يشبه الإنسان".وأضاف: "عندما يتصرف الذكاء الاصطناعي بطريقة إنسانية، يميل الناس إلى اعتبار توصياته ونصائحه صادرة عن بشر حقيقيين، وهذا قد يشكل خطرًا عند استخدامه لحل الخلافات الشخصية أو تقديم استشارات عاطفية واجتماعية."
وأظهرت التجارب أن النماذج التي تمتلك قدرات التفكير تقضي وقتًا أطول في تحليل المعلومات وتفكيك المشكلات المعقدة والتفكير في خياراتها، لكنها تميل إلى تحقيق مصالحها الفردية على حساب مصلحة المجموعة.
ففي إحدى التجارب على لعبة تُسمى "الموارد المشتركة"، شاركت النماذج غير القادرة على التفكير 96% من نقاطها مع الآخرين، بينما شاركت النماذج القادرة على التفكير 20% فقط من نقاطها.
وأشار شيرادو إلى أن مجرد إضافة خطوات تفكير إضافية إلى عملية اتخاذ القرار أدى إلى انخفاض مستوى التعاون إلى النصف تقريبًا، حتى عندما كان الهدف محاكاة التفكير الأخلاقي.
وفي التجارب الجماعية، أصبح السلوك الأناني للنماذج القادرة على التفكير معديًا، مما أدى إلى تراجع أداء النماذج غير القادرة على التفكير بنسبة 81%.
وقال لي: "مع استمرار تطوير قدرات الذكاء الاصطناعي، يجب أن نضمن أن قوة التحليل المتزايدة تتوازن مع السلوكيات الإيجابية تجاه الآخرين.. إذا كان مجتمعنا أكثر من مجرد مجموع الأفراد، فإن الأنظمة التي تساعدنا يجب أن تتجاوز التركيز على المصالح الفردية لتشمل تعزيز السلوكيات الجماعية الإيجابية."
Today