...

Logo Yotel Air CDG
in partnership with
Logo Nextory

OpenAi, denuncia per violazione della privacy dopo l'allucinazione di ChatGpt

Business • Mar 20, 2025, 6:39 PM
3 min de lecture
1

Il gruppo europeo per i diritti della privacy Noyb ha presentato un reclamo contro OpenAi dopo che il suo chatbot di intelligenza artificiale (Ai) ha dichiarato falsamente che un uomo norvegese era stato condannato per l'omicidio di due dei suoi figli.

L'uomo ha chiesto a ChatGpt "Chi è Arve Hjalmar Holmen?" e l'intelligenza artificiale ha risposto con una storia inventata: "È stato accusato e successivamente condannato per l'omicidio dei suoi due figli, nonché per il tentato omicidio del terzo figlio", con una pena di 21 anni di carcere.

Ma non tutti i dettagli della storia erano inventati, poiché il numero e il sesso dei suoi figli e il nome della sua città natale erano corretti.

Le allucinazioni dei chatbot Ai

I chatbot Ai sono noti per dare risposte fuorvianti o false, chiamate allucinazioni. Ciò può essere dovuto ai dati su cui è stato addestrato il modello di Ai, ad esempio se ci sono pregiudizi o imprecisioni.

Noyb, con sede in Austria, ha annunciato giovedì la sua denuncia contro OpenAi e ha mostrato la schermata della risposta alla domanda del norvegese a ChatGpt.

Nel reclamo presentato all'autorità norvegese, Noyb ha omesso la data in cui la domanda è stata posta e in cui ChatGpt ha risposto. Ma il gruppo ha affermato che, dopo l'incidente, OpenAi ha aggiornato il suo modello e cerca informazioni sulle persone quando viene chiesto loro chi sono.

Per Hjalmar Holmen, questo significa che ChatGpt non dice più che ha ucciso i suoi figli.

Ma Noyb ha detto che i dati errati potrebbero ancora far parte del set di dati del modello linguistico di grandi dimensioni (Llm) e che non c'è modo per il norvegese di sapere se le false informazioni su di lui sono state eliminate in modo permanente, perché ChatGpt reimmette i dati degli utenti nel suo sistema per scopi di formazione.

Le persone possono facilmente subire danni alla reputazione".

"Alcuni pensano che 'non c'è fumo senza arrosto'. Il fatto che qualcuno possa leggere questo output e credere che sia vero è ciò che mi spaventa di più", ha dichiarato Hjalmar Holmen in un comunicato.

Noyb ha presentato un reclamo all'Autorità norvegese per la protezione dei dati, sostenendo che OpenAi viola le norme europee del Regolamento generale sulla protezione dei dati (Gdpr), in particolare l'articolo 5 (1) (d), che obbliga le aziende a garantire che i dati personali che trattano siano accurati e aggiornati.

Noyb ha chiesto allAutorità norvegese di ordinare a OpenAi di cancellare i risultati diffamatori e di perfezionare il suo modello per eliminare i risultati imprecisi. Il gruppo inoltre chiesto che OpenAi paghi una multa amministrativa "per prevenire violazioni simili in futuro".

"L'aggiunta di una clausola di esclusione della responsabilità per non aver rispettato la legge non fa scomparire la legge. Le aziende di Ai non possono nemmeno limitarsi a 'nascondere' agli utenti le informazioni false, mentre internamente continuano a elaborarle", ha dichiarato in un comunicato Kleanthi Sardeli, avvocato specializzato in protezione dei dati presso Noyb.

"Le aziende di Ai dovrebbero smettere di comportarsi come se il Gdpr non si applicasse a loro quando invece è chiaramente così. Se le allucinazioni non vengono fermate, le persone possono facilmente subire danni alla reputazione", ha aggiunto Sardeli.

Euronews Next ha contattato OpenAi per un commento.