...

Logo Yotel Air CDG
in partnership with
Logo Nextory

"تشات جي بي تي" في مأزق: دعوى ضد OpenAI بعد أن اتّهم روبوت الدردشة رجلاً بقتل أطفاله

Business • Mar 21, 2025, 6:46 PM
2 min de lecture
1

بدأت القضية عندما سأل الرجل، آرف هيلمار هولمن، روبوت الدردشة "تشات جي بي تي" عن هويته، فجاءه الرد بقصة مختلقة زعمت أنه اتُّهِم وأُدين لاحقاً بقتل اثنين من أبنائه ومحاولة قتل ابنه الثالث، وحُكم عليه بالسجن لمدة 21 عاماً.

ورغم أن هذه الادعاءات غير صحيحة، إلا أن بعض التفاصيل التي ذكرها الروبوت كانت دقيقة، مثل عدد أبنائه وجنسهم واسم مسقط رأسه. 

وتسلط هذه الواقعة الضوء على ظاهرة تُعرف بـ"هلوسة الذكاء الاصطناعي"، حيث تقدم نماذج الدردشة أحياناً معلومات مضللة أو خاطئة، نتيجة التحيزات أو عدم الدقة في البيانات التي تم تدريبها عليها. 

تطبيق "تشات جي بي تي"
تطبيق "تشات جي بي تي" Matt Rourke/AP

وقد أعلنت منظمة Noyb النمساوية المعنية بحماية الخصوصية، يوم الخميس، عن تقديمها شكوى رسمية ضد OpenAI، وأرفقتها بصورة للرد الذي حصل عليه هولمن من "تشات جي بي تي". وأوضحت Noyb أنها حجبت تاريخ التفاعل بين المستخدم والروبوت في الوثائق المقدمة إلى الهيئة النرويجية. 

وأشارت المجموعة إلى أن OpenAI عدّلت النموذج منذ وقوع الحادثة، بحيث لم يعد "تشات جي بي تي" يقدم الادعاءات السابقة بحق هولمن عند البحث عن اسمه. غير أن Noyb حذرت من أن البيانات غير الصحيحة قد تظل جزءاً من مجموعة النماذج اللغوية الكبيرة (LLM)، ولا توجد وسيلة تتيح لهولمن التأكد مما إذا كانت المعلومات الخاطئة قد حُذفت نهائياً، خاصة أن "تشات جي بي تي" يستخدم بيانات المستخدمين لتدريب أنظمته باستمرار.

تحذير من مخاطر "هلوسة" الذكاء الاصطناعي

أعرب هيلمار هولمن عن مخاوفه قائلاً: "يعتقد البعض أنه لا دخان بلا نار، لكن ما يثير قلقي أكثر هو أن يقرأ أحدهم هذه المعلومات المضللة ويصدّقها". 

وقد طالبت منظمة Noyb هيئة حماية البيانات النرويجية بإلزام OpenAI بحذف أي بيانات مضللة، وضبط نماذج الذكاء الاصطناعي لمنع توليد معلومات غير دقيقة. كما دعت إلى فرض غرامة إدارية على الشركة لمنع تكرار مثل هذه الانتهاكات مستقبلاً. 

وأكدت المنظمة أن الشركات لا يمكنها التهرب من الالتزامات القانونية عبر وضع تنويه يخلي مسؤوليتها، مشددةً على أنه: "لا يمكن لشركات الذكاء الاصطناعي أن 'تُخفي' المعلومات الخاطئة عن المستخدمين بينما تواصل معالجتها داخليًا". 

وحذّرت Noyb من تداعيات عدم معالجة مشكلة "الهلوسة" في تقنيات الذكاء الاصطناعي، مشيرةً إلى أن استمرارها قد يؤدي إلى الإضرار بسمعة الأفراد بسهولة. وأضافت: "يجب أن تتوقف شركات الذكاء الاصطناعي عن التصرف كما لو أن اللائحة العامة لحماية البيانات لا تنطبق عليها، في حين أنها ملزمة بها بوضوح". 

وفي ظل هذه الاتهامات، تواصلت Euronews Next مع OpenAI للحصول على تعليق رسمي منها.