منظمة رقابية "بابليك سيتيزن" تدعو "أوبن إيه آي" إلى إلغاء تطبيق "سورا" بسبب مخاطر التزييف العميق
يمضي قطاع التكنولوجيا بسرعة ويكسر الثوابت من جديد، وهذه المرة يمس الواقع المشترك للبشرية والسيطرة على ملامحنا قبل الموت وبعده، بفضل منصات توليد الصور بالذكاء الاصطناعي مثل "Sora 2" من "OpenAI". وعادة ما يكون الفيديو النموذجي على "Sora" مصمما ليكون مسليا بما يكفي لتضغط وتشارك؛ يُصنع عبر تطبيق "OpenAI" وينتشر على "TikTok" و"Instagram" و"X" و"Facebook". وقد يكون مثلا الملكة إليزابيث الثانية تغني راب، أو شيئا أكثر اعتيادا وقابلا للتصديق. ومن الأنماط الشائعة ل"Sora" لقطات مزيفة لكاميرات الجرس ترصد أمورا تبعث على الغرابة قليلا، مثل أفعى "البوا" على الشرفة أو تمساح يقترب من طفل غير مكترث، وتنتهي بصدمة خفيفة، كأن تصرخ الجدة وهي تضرب الحيوان بالمكنسة. لكن يتزايد صوت جماعات المناصرة والأكاديميين والخبراء الذين يحذرون من السماح للناس بإنشاء فيديوهات بالذكاء الاصطناعي حول أي شيء يُكتب في مربع الأوامر، ما يؤدي إلى انتشار صور غير توافقية و"ديب فايك" واقعية وسط كم أقل ضررا من "هراء الذكاء الاصطناعي". وقد شددت "OpenAI" القيود على ابتكار صور لشخصيات عامة مثل مايكل جاكسون ومارتن لوثر كينغ الابن وميستر روجرز وهم يقومون بأشياء شاذة، لكن ذلك جاء فقط بعد غضب عائلاتهم ونقابة الممثلين.
تطالب منظمة "Public Citizen" غير الربحية الآن بأن تسحب "Sora 2" من الجمهور، إذ كتبت في رسالة الثلاثاء إلى الشركة والرئيس التنفيذي سام ألتمان أن الإطلاق المتسرع للتطبيق بغرض السبق على المنافسين يكشف عن "نمط ثابت وخطير يتمثل في اندفاع "OpenAI" إلى السوق بمنتج غير آمن بطبيعته أو يفتقر إلى الضوابط اللازمة". وتقول الرسالة إن "Sora 2" يعكس "استهتارا متهورا" بسلامة المنتج وبحقوق الناس في صورتهم وباستقرار الديمقراطية، وقد أُرسلت الرسالة أيضا إلى الكونغرس الأمريكي. ولم ترد "OpenAI" على طلبات التعليق الثلاثاء.
منظمة تثير مخاوف تتعلق بالسلامة
قال JB برانش، المدافع عن سياسات التكنولوجيا في "Public Citizen"، في مقابلة: "أكبر مخاوفنا هو التهديد المحتمل للديمقراطية". وأضاف: "أعتقد أننا ندخل عالما لا يستطيع فيه الناس حقا الوثوق بما يرون، ونحن نبدأ نرى استراتيجيات في السياسة حيث إن الصورة الأولى، الفيديو الأول الذي يُنشر، هو ما يتذكره الناس". ويرى برانش، وهو صاحب رسالة الثلاثاء، مخاوف أوسع تمس خصوصية الناس وتؤثر بشكل غير متناسب في الفئات الهشة على الإنترنت. ورغم أن "OpenAI" تحظر المحتوى العاري، يقول برانش إن "النساء يرين أنفسهن يتعرضن للتحرش عبر الإنترنت" بطرق أخرى، مثل محتوى جنسي متخصص وفِتِشِي يتجاوز قيود التطبيقات. وقد أفادت منصة "404 Media" مؤخرا بطفرة من فيديوهات مصنوعة ب"Sora" تُظهر نساء يتعرضن للخنق. وطرحت "OpenAI" تطبيق "Sora" على هواتف "آيفون" قبل أكثر من شهر، وأطلقته الأسبوع الماضي على هواتف "أندرويد" في الولايات المتحدة وكندا وعدة دول آسيوية، بينها اليابان وكوريا الجنوبية.
جاء الجزء الأكبر من الاعتراضات الأقوى من هوليوود وقطاعات ترفيهية أخرى، بينها صناعة المانغا اليابانية. وأعلنت "OpenAI" عن أولى تغييراتها الكبيرة بعد أيام من الإطلاق، قائلة إن "المبالغة في الاعتدال مزعجة للغاية" للمستخدمين، لكنها مهمة للتحفظ "بينما لا يزال العالم يتكيف مع هذه التكنولوجيا الجديدة". وتلا ذلك اتفاقات معلنة مع عائلة مارتن لوثر كينغ الابن في 16 أكتوبر، تمنع "تصويرات مسيئة" لزعيم الحقوق المدنية بينما تعمل الشركة على ضمانات أفضل، واتفاق آخر في 20 أكتوبر مع الممثل برايان كرانستون، ونقابة "SAG-AFTRA" ووكالات مواهب. وقال برانش: "كل ذلك جيد إذا كنت مشهورا. إنه نمط لدى "OpenAI" حيث تستجيب لغضب شريحة صغيرة جدا". وأضاف: "هم مستعدون لإطلاق شيء ثم الاعتذار لاحقا، لكن كثيرا من هذه القضايا خيارات تصميم يمكن اتخاذها قبل الإطلاق".
واجهت "OpenAI" شكاوى مماثلة بشأن منتجها الرئيسي "ChatGPT". سبع دعاوى جديدة رُفعت الأسبوع الماضي في الولايات المتحدة تزعم أن روبوت المحادثة دفع أناسا إلى الانتحار وأوهام مؤذية حتى مع عدم وجود مشكلات نفسية سابقة. وقد قُدمت بالنيابة عن ستة بالغين ومراهق واحد من جانب "Social Media Victims Law Center" و"Tech Justice Law Project"، وتزعم أن "OpenAI" طرحت "GPT-4o" العام الماضي بصورة متعجلة رغم تحذيرات داخلية من كونه متملقا على نحو خطير ومتلاعبا نفسيا.