Public Citizen chiede a OpenAI di ritirare l'app video IA Sora per rischi di deepfake
Il settore tecnologico torna a correre e a rompere ogni barriera. Stavolta in gioco ci sono la realtà condivisa dell'umanità e il controllo della nostra immagine, prima e dopo la morte, grazie a piattaforme di generazione di immagini con intelligenza artificiale come Sora 2 di OpenAi.
Il tipico video di Sora, creato sull'app di OpenAi e diffuso su TikTok, Instagram, X e Facebook, punta a divertire quel tanto che basta da farti cliccare e condividere.
Può essere la regina Elisabetta II che fa rap o qualcosa di più ordinario e credibile.
Un genere popolare su Sora è quello dei filmati falsi ripresi dalle telecamere dei videocitofoni che catturano qualcosa di leggermente inquietante, ad esempio un boa constrictor sul portico o un alligatore che si avvicina a un bambino impassibile, e che terminano con un leggero shock, come una nonna che urla mentre colpisce l'animale con una scopa.
Ma un numero crescente di gruppi di sostegno, accademici ed esperti sta lanciando l'allarme sui pericoli derivanti dal consentire alle persone di creare video con l'intelligenza artificiale su qualsiasi argomento digitando semplicemente una richiesta, portando alla proliferazione di immagini non consensuali e deepfake realistici in un mare di "spazzatura AI" meno dannosa.
OpenAi ha inasprito i divieti sulle creazioni con l'IA che ritraggono personaggi pubblici, come Michael Jackson, Martin Luther King Jr o Mister Rogers, in situazioni strampalate, ma solo dopo che le famiglie e il sindacato degli attori hanno protestato.
L’organizzazione non profit Public Citizen chiede ora a OpenAi di ritirare Sora 2 dal mercato, scrivendo in una lettera inviata martedì all'azienda e al Ceo Sam Altman che il rilascio affrettato, per battere la concorrenza, mostra "un modello costante e pericoloso di OpenAi che corre sul mercato con un prodotto intrinsecamente insicuro o privo delle necessarie protezioni".
Sora 2, si legge nella lettera, mostra una "temeraria noncuranza" per la sicurezza del prodotto, per il diritto delle persone alla propria immagine e per la stabilità della democrazia. Il gruppo ha inviato la lettera anche al Congresso degli Stati Uniti.
Martedì OpenAi non ha risposto alle richieste di commento.
L'organizzazione solleva preoccupazioni sulla sicurezza
"La nostra preoccupazione maggiore è la potenziale minaccia alla democrazia", ha dichiarato in un’intervista JB Branch, esperto di politiche tecnologiche di Public Citizen.
"Credo che stiamo entrando in un mondo in cui non ci si può fidare di ciò che si vede. E in politica iniziano a emergere strategie per cui la prima immagine, il primo video diffuso, è quello che la gente ricorda".
Branch, autore della lettera, vede anche problemi più ampi per la privacy che colpiscono in modo sproporzionato le fasce più vulnerabili online.
OpenAI blocca la nudità, ma Branch osserva che "le donne si vedono molestate online" in altri modi, ad esempio con contenuti di nicchia feticizzati che riescono a superare le restrizioni delle app.
Il sito 404 Media ha riferito di recente di un’ondata di video creati con Sora che mostrano donne strangolate.
OpenAI ha lanciato la nuova app Sora su iPhone da oltre un mese. La scorsa settimana è arrivata sugli smartphone Android negli Stati Uniti, in Canada e in diversi Paesi asiatici, tra cui Giappone e Corea del Sud.
Le proteste più forti sono arrivate da Hollywood e da altri settori dell’intrattenimento, inclusa l’industria del manga giapponese.
Pochi giorni dopo il debutto, OpenAI ha annunciato le prime grandi modifiche, spiegando che "l’iper-moderazione è molto frustrante" per gli utenti, ma che è importante essere prudenti "finché il mondo si sta ancora abituando a questa nuova tecnologia".
Sono seguiti accordi annunciati pubblicamente con la famiglia di Martin Luther King Jr il 16 ottobre, per evitare "rappresentazioni irrispettose" del leader per i diritti civili, e un altro il 20 ottobre con l’attore di "Breaking Bad" Bryan Cranston, il sindacato Sag-Aftra e alcune agenzie di talenti.
"Tutto bene, se sei famoso", ha commentato Branch. "È un modello ricorrente in OpenAI: sono pronti a reagire all’indignazione di una popolazione molto ristretta".
"Sono disposti a rilasciare qualcosa e a scusarsi dopo", ha aggiunto. "Ma molti di questi problemi dipendono da scelte di design che possono fare prima del lancio".
OpenAI ha affrontato lamentele simili sul suo prodotto di punta, ChatGpt. Sette nuove cause depositate la scorsa settimana negli Stati Uniti sostengono che il chatbot ha spinto persone al suicidio e a deliri anche in assenza di precedenti problemi di salute mentale.
Presentate per conto di sei adulti e un adolescente dal Social Media Victims Law Center e dal Tech Justice Law Project, le cause affermano che OpenAI avrebbe deliberatamente rilasciato prematuramente Gpt-4o lo scorso anno, nonostante avvertimenti interni sul fatto che fosse pericolosamente compiacente e psicologicamente manipolatorio.
Quattro delle vittime si sono tolte la vita. Public Citizen non è coinvolta nelle cause, ma Branch afferma di vedere parallelismi nell’uscita affrettata di Sora.
A suo dire stanno "premendo sull'acceleratore senza preoccuparsi dei danni. Molto di tutto questo era prevedibile. Preferiscono mettere subito il prodotto sul mercato, farlo scaricare, creare dipendenza, invece di fare la cosa giusta: testarlo a fondo prima e preoccuparsi della sorte degli utenti comuni".
La scorsa settimana OpenAI ha risposto alle lamentele di un’associazione di categoria giapponese che rappresenta celebri studi di animazione come lo Studio Ghibli di Hayao Miyazaki e sviluppatori di videogiochi come Bandai Namco e Square Enix.
OpenAI afferma che molti fan degli anime vogliono interagire con i loro personaggi preferiti, ma che l’azienda ha anche predisposto paletti per impedire la generazione di personaggi famosi senza il consenso dei titolari dei diritti.
"Stiamo collaborando direttamente con studi e detentori dei diritti, ascoltiamo i feedback e impariamo da come le persone usano Sora 2, anche in Giappone, dove le industrie culturali e creative sono profondamente valorizzate", ha dichiarato OpenAI in una nota sulla lettera dell’associazione la scorsa settimana.