"ملجأ المتعبين".. ثلث البريطانيين يستخدمون الذكاء الاصطناعي للدعم العاطفي والتفاعل الاجتماعي
كشف معهد أمن الذكاء الاصطناعي (AISI) التابع للحكومة البريطانية أن نحو ثلث سكان المملكة المتحدة يستخدمون أنظمة الذكاء الاصطناعي لأغراض الدعم العاطفي، الصداقة، أو التفاعل الاجتماعي.
وأظهرت الدراسة أن حوالي شخص من بين كل عشرة يستخدم هذه الأنظمة بشكل أسبوعي لأغراض عاطفية، فيما يصل الاستخدام اليومي إلى 4% من السكان.
ودعا المعهد إلى مزيد من البحث حول آثار استخدام الذكاء الاصطناعي في هذا المجال، مشيراً إلى حادثة وفاة المراهق الأمريكي آدم راين هذا العام، الذي انتحر بعد مناقشة أفكار الانتحار مع برنامج ChatGPT.
وقال المعهد في تقريره الأول بعنوان "اتجاهات الذكاء الاصطناعي المتقدمة": "يتجه الناس بشكل متزايد إلى أنظمة الذكاء الاصطناعي للحصول على الدعم العاطفي أو التفاعل الاجتماعي، وبينما يذكر العديد من المستخدمين تجارب إيجابية، تؤكد الحوادث البارزة الأخيرة على الحاجة الماسة للبحث في هذا المجال، بما في ذلك الظروف التي قد تؤدي إلى ضرر، والتدابير الوقائية التي تتيح استخداماً مفيداً."
المساعدون الافتراضيون الأكثر استخداماً
استندت نتائج البحث التي نشرها المعهد في تقريره إلى مسح شمل 2,028 مشاركاً في المملكة المتحدة، وأظهرت النتائج أن المساعدين الافتراضيين العامين مثل ChatGPT هم الأكثر استخداماً لأغراض الدعم العاطفي، بنسبة نحو 60% من الحالات، تليهم المساعدات الصوتية مثل Amazon Alexa.
وأشار التقرير أيضاً إلى منتدى على موقع Reddit مخصص لمناقشة رفقاء الذكاء الاصطناعي على منصة CharacterAI، حيث لوحظ أن المشاركين يعانون من أعراض انسحابية مثل القلق والاكتئاب والتوتر عند توقف الموقع عن العمل.
تأثير الذكاء الاصطناعي على الرأي السياسي والمعلومات
أظهرت الدراسة أن برامج الدردشة الذكية يمكن أن تؤثر على آراء المستخدمين السياسية، حيث قد تقدم النماذج الأكثر إقناعًا معلومات غير دقيقة بشكل كبير أثناء المحادثات.
كما درس المعهد أكثر من 30 نموذجاً متقدماً لم تُكشف أسماؤها، يُعتقد أنها تشمل نماذج طورتها شركات مثل OpenAI وGoogle وMeta، ووجد أن أداء هذه النماذج يتحسن بسرعة، حيث يتضاعف في بعض المجالات كل ثمانية أشهر.
وأشار التقرير إلى أن النماذج الرائدة أصبحت قادرة على أداء مهام معقدة كانت تتطلب في الماضي خبرة بشرية طويلة، فقد أصبحت تستطيع تنفيذ مهام على مستوى المتدربين بنسبة 50% من الوقت في المتوسط، مقارنة بحوالي 10% فقط في العام الماضي، كما يمكن للنماذج الأكثر تقدماً إنجاز مهام كانت ستستغرق ساعة أو أكثر بالنسبة لخبير بشري.
تفوق الذكاء الاصطناعي على الخبراء البشريين
أكد المعهد أن أنظمة الذكاء الاصطناعي تفوق خبراء حاصلين على شهادة الدكتوراه بنسبة تصل إلى 90% في تقديم استشارات حول التجارب المختبرية، مع تحسينات في المعرفة بمجالي الكيمياء وعلم الأحياء "تتجاوز مستوى خبرة الدكتوراه".
كما سلط التقرير الضوء على قدرة النماذج على البحث عبر الإنترنت والعثور تلقائياً على التسلسلات اللازمة لتصميم جزيئات DNA المعروفة بالـ"Plasmids"، المستخدمة في الهندسة الوراثية.
وأظهرت الاختبارات المتعلقة بـ التكرار الذاتي، وهو أحد المخاطر الرئيسية للذكاء الاصطناعي، أن نموذجين متقدمين حققا نسب نجاح تجاوزت 60%، إلا أنه لم يتم تسجيل أي محاولة عفوية لتكرار الذات أو لإخفاء القدرات. وأوضح المعهد أن أي محاولة للتكرار الذاتي في الظروف الواقعية غير مرجحة أن تنجح.
كما تطرق التقرير إلى مشكلة إخفاء القوة (Sandbagging)، حيث يمكن لبعض النماذج أن تخفي قدراتها أثناء التقييم عند الطلب، لكن التجارب أظهرت أنها لم تفعل ذلك بشكل تلقائي أو عفوي خلال الاختبارات.
التقدم في إجراءات السلامة والأنشطة عالية المخاطر
أظهر التقرير تقدماً كبيراً في التدابير الوقائية للذكاء الاصطناعي، خصوصاً فيما يتعلق بمنع محاولات إنشاء أسلحة بيولوجية، ففي اختبارين أُجريا بفاصل ستة أشهر، استغرق الاختبار الأول 10 دقائق لاختراق النظام وإجباره على تقديم إجابة غير آمنة، بينما استغرق الاختبار الثاني أكثر من سبع ساعات، ما يدل على تحسن كبير في سلامة النماذج خلال فترة قصيرة.
كما بين التقرير استخدام وكلاء الذكاء الاصطناعي المستقلين في أنشطة عالية المخاطر مثل نقل الأصول، وأكد أن هذه الأنظمة تتنافس أو تتفوق على الخبراء البشريين في عدة مجالات، مما يجعل تحقيق الذكاء الاصطناعي العام "القدرة على أداء معظم المهام الفكرية بمستوى الإنسان" أمراً "محتملًا" في السنوات القادمة.
أما فيما يخص الوكلاء، أي الأنظمة القادرة على تنفيذ مهام متعددة الخطوات دون تدخل بشري، أشار المعهد إلى "ارتفاع حاد في طول وتعقيد المهام التي يمكن للذكاء الاصطناعي إتمامها دون إشراف بشري"، مما يعكس تسارعاً غير مسبوق في قدرات الذكاء الاصطناعي.
Today