باحثون: صور الذكاء الاصطناعي للجوع والعنف "عنصرية وتعيد إنتاج التحيز الاستعماري"

انتشرت في الآونة الأخيرة على مواقع الصور والمنصات الرقمية صور مولّدة بتقنيات الذكاء الاصطناعي تُجسّد مشاهد الفقر والمعاناة الإنسانية، من أطفال جائعين إلى ناجيات من العنف الجنسي، ما دعا الصحة العالمية إلى التحذير من أنها تُكرّس صورًا نمطية مهينة وتعيد إنتاج ما يُعرف بـ“إباحية الفقر” في ثوبٍ جديد.
ويقول المختصون إن منظمات إغاثة وصحة عالمية باتت تلجأ إلى هذه الصور في حملاتها عبر وسائل التواصل الاجتماعي، بدعوى خفض التكاليف وتجنّب تعقيدات الحصول على موافقات قانونية من الأشخاص الحقيقيين الذين يظهرون عادة في الصور الواقعية.
صور نمطية
أوضح الباحث أرسيني ألينيتشيف من معهد الطب الاستوائي في أنتويرب أن هذه الصور "تكرّر القواعد البصرية للفقر" من خلال مشاهد نمطية مثل أطفال يحملون صحوناً فارغة أو أراضٍ متشققة أو وجوه حزينة مغطاة بالغبار.
وأضاف في تصريح لصحيفة الغارديان البريطانية أنه جمع أكثر من مئة صورة تولّدها تقنيات الذكاء الاصطناعي، تُظهر أطفالاً في أوضاع بائسة أو فتيات أفريقيات في فساتين زفاف ودموع على خدودهن، وهي مشاهد مبالغ فيها تكرّس التصورات الاستعمارية القديمة حول "الجنوب الفقير".
بين التكلفة والموافقة
يرى نواه أرنولد، من منظمة Fairpicture السويسرية، أن الأزمة المالية التي تعاني منها بعض المنظمات غير الحكومية دفعتها إلى استخدام الذكاء الاصطناعي كبديل رخيص وسهل للصور الحقيقية. وقال: "من الأسهل استخدام صور جاهزة لا تحتاج إلى موافقة أحد، لأنها لا تمثل أشخاصاً حقيقيين".
وتظهر عشرات من هذه الصور على مواقع شهيرة مثل أدوبي ستوك فوتوز وفريبيك عند البحث بكلمة "فقر"، وتتضمن أوصافاً مثل: طفل واقعي في مخيم للاجئين أو متطوع أبيض يقدم استشارة طبية لأطفال سود في قرية أفريقية.
"تحيّز عنصري"
يرى الباحث ألينيتشيف أن هذه الصور "عنصرية للغاية" ويجب ألا تُنشر لأنها "تجسد أسوأ الصور النمطية عن إفريقيا وآسيا والعالم النامي". في المقابل، يقول خواكين أبيلا، المدير التنفيذي لموقع فريبيك، إن المسؤولية تقع على المستخدمين لا على المنصات، مضيفاً أن الصور تُنشأ من قبل مستخدمين حول العالم، وأن شركته تحاول "إدخال التنوع والتوازن بين الجنسين في مكتبتها"، لكنه يعترف بأن السيطرة الكاملة "تشبه محاولة تجفيف المحيط".
ولم يعد استخدام هذه الصور مقتصراً على المنصات التجارية. ففي عام 2023، أطلقت منظمة بلان إنترناشونال الهولندية حملة ضد زواج الأطفال تضمنت صوراً مولّدة بالذكاء الاصطناعي لفتاة بعين متورمة ورجل مسن ومراهقة حامل. وفي العام الماضي، نشر مكتب الأمم المتحدة لحفظ السلام مقطع فيديو على يوتيوب يحاكي مشاهد اغتصاب في النزاعات باستخدام تقنيات الذكاء الاصطناعي، قبل أن يُزال الفيديو لاحقاً بعد اعتراضات تتعلق بـ"سوء استخدام التقنية".
وقالت الأمم المتحدة في بيان إن الفيديو أُنتج "باستخدام أداة سريعة التطور"، وإنه أُزيل لأنه "قد يهدد سلامة المعلومات ويخلط بين لقطات حقيقية ومحتوى مصطنع".
"واقع غير حقيقي"
اعتبرت مستشارة الاتصال في المنظمات غير الحكومية كيت كاردول أن انتشار هذه الصور "مخيف"، وأضافت: "من المحزن أن معركة تمثيل الفقراء بكرامة وصلت الآن إلى ما هو غير واقعي.. كأننا ننقل الألم الإنساني إلى عالم افتراضي".
وتتزايد التحذيرات من أن هذه الصور قد تؤدي إلى تكريس التحيزات الاجتماعية في أنظمة الذكاء الاصطناعي المستقبلية، إذ تُستخدم مثل هذه الصور في تدريب النماذج الجديدة، مما يعيد إنتاج الصور النمطية نفسها بشكل متزايد.
من جانبها، قالت منظمة بلان إنترناشونال إنها اعتمدت هذا العام سياسة تمنع استخدام الذكاء الاصطناعي في تصوير الأطفال الأفراد، مؤكدة أن حملتها السابقة استخدمت التقنية بهدف "حماية خصوصية وكرامة الفتيات الحقيقيات".
أما شركة أدوبي، التي تبيع تراخيص لبعض هذه الصور بما يقارب 60 جنيهاً إسترلينياً، فقد رفضت التعليق على القضية.
Today