OpenAI valuta l’ipotesi di adeguare le salvaguardie di sicurezza: nuova strategia o segnale d’allarme?

OpenAI ha lasciato aperta la possibilità di modificare i propri standard di sicurezza in ambito di intelligenza artificiale, nel caso in cui altre aziende rilasciassero modelli altamente rischiosi senza protezioni adeguate. La rivelazione arriva direttamente dal nuovo Preparedness Framework,** un documento strategico pubblicato martedì sul blog ufficiale dell’azienda, che descrive il modo in cui OpenAI identifica, valuta e mitiga i rischi catastrofici legati allo sviluppo dei suoi modelli avanzati.
Nel report, OpenAI dichiara: “Se un altro sviluppatore di AI di frontiera rilascia un sistema ad alto rischio senza garanzie comparabili, potremmo adeguare i nostri requisiti”, aggiungendo che ogni eventuale modifica sarà subordinata a una valutazione rigorosa del cambiamento nel panorama dei rischi, e sarà comunicata pubblicamente.
Rischi valutati e classificazione interna: il processo di OpenAI
Prima di procedere con il rilascio pubblico di un nuovo modello, OpenAI conduce un’analisi approfondita dei potenziali danni, focalizzandosi su rischi plausibili, gravi e non mitigabili. I rischi vengono classificati in quattro categorie: basso, medio, alto o critico.
Tra le aree monitorate rientrano la biologia sintetica, la chimica, la cybersecurity e persino le capacità di auto-miglioramento dei modelli. L’azienda ha inoltre dichiarato che sta valutando scenari ancora più avanzati e potenzialmente pericolosi, come l’autonomia prolungata senza intervento umano, l’auto-replicazione e le possibili implicazioni in settori sensibili come quello nucleare o radiologico.
Per quanto riguarda i cosiddetti “rischi di persuasione” – come l’uso di ChatGPT in campagne politiche o attività di lobbying – OpenAI chiarisce che non saranno gestiti tramite il Preparedness Framework, ma attraverso il Model Spec, il documento interno che regola il comportamento dei modelli in uso, compreso ChatGPT.
Il dibattito interno e le critiche: una ritirata silenziosa?
Non sono mancate le reazioni critiche alla pubblicazione del nuovo report. Steven Adler, ex ricercatore di OpenAI, ha espresso preoccupazione su X (ex Twitter), sostenendo che l’azienda sta “riducendo silenziosamente i suoi impegni in materia di sicurezza”.
Adler ha sottolineato come, nel dicembre 2023, OpenAI si fosse impegnata a testare anche le versioni perfezionate dei modelli, ma ora sembra che i test saranno riservati solo a quelli i cui parametri addestrati – o pesi – siano destinati a diventare pubblici. “Le persone possono essere in disaccordo sull’opportunità di testare ogni versione, ma è importante essere trasparenti quando si fa marcia indietro”, ha dichiarato.
GPT-4.1 senza trasparenza? Dubbi sull’ultimo rilascio
Il dibattito è reso ancora più acceso dal recente rilascio di GPT-4.1, la nuova famiglia di modelli annunciata da OpenAI. Secondo quanto riportato da Euronews Next, la versione sarebbe stata lanciata senza una scheda di sistema né un rapporto dettagliato sulla sicurezza, sollevando interrogativi sulla coerenza tra le dichiarazioni ufficiali e le azioni effettive dell’azienda.
Interpellata sul punto, OpenAI non ha fornito risposta al momento della pubblicazione dell’articolo, alimentando ulteriori speculazioni sul grado di trasparenza dell’organizzazione, soprattutto ora che il suo modello di business si è evoluto da non profit a società a scopo di lucro.
Ex dipendenti in causa con Elon Musk: “La sicurezza è stata sacrificata per il profitto”
La questione si inserisce in un contesto più ampio di tensione interna ed esterna. La settimana scorsa, 12 ex dipendenti di OpenAI hanno presentato una dichiarazione nella causa intentata da Elon Musk contro l’azienda, sostenendo che la transizione verso un modello commerciale ha portato a un allentamento degli standard di sicurezza. Secondo loro, l’integrità del progetto originario – quello di sviluppare un’intelligenza artificiale sicura e benefica – starebbe progressivamente svanendo sotto la pressione competitiva.
Hier