La regolamentazione renderà l'UE la potenza più affidabile nel campo dell'IA?

Per contribuire all'attuazione di questa normativa a partire dal prossimo anno, l'UE ha creato un codice di condotta volontario, ma alcune aziende sostengono che aderire a questo codice ostacolerebbe l'innovazione.
L'UE sta invitando le aziende che creano chatbot generativi come ChatGPT, Mistral, Gemini e Claude a firmare un codice di condotta volontario sull'IA di uso generale.
Firmando il codice e rispettandone le norme, le aziende vengono considerate conformi alla legge sull’IA, una legge dell'UE entrata in vigore nel 2024 che definisce quattro livelli di rischio per l'uso dell'IA, da minimo a inaccettabile.
Le aziende che rifiutano di firmare il codice potrebbero essere soggette a ispezioni più severe e a oneri amministrativi. I grandi protagonisti come OpenAI e Anthropic sostengono il codice, mentre altri, come Meta, si rifiutano di firmarlo.
"Fin dall'inizio del processo di stesura, lo scorso settembre, Meta ha criticato duramente il codice, affermando che soffoca l'innovazione", ha dichiarato Cynthia Kroet, giornalista senior di Euronews specializzata in norme tecnologiche.
"Hanno lanciato alcuni strumenti che non possono utilizzare appieno in Europa, anche a causa delle norme sulla protezione dei dati. Alla fine non ha molta importanza se firmano o meno, perché la legge sull'IA prevarrà comunque", ha aggiunto.
La legge sull'IA sarà attuata progressivamente fino al 2027. Questo mese entreranno in vigore le norme relative ai modelli di IA di uso generale, come i chatbot generativi sopra menzionati, e le aziende avranno due anni di tempo per adeguarsi.
Tuttavia, i futuri modelli che entreranno sul mercato dovranno conformarsi immediatamente alla legge e, in caso di violazione, la Commissione potrà imporre una multa fino a 15 milioni di euro.
Normativa e investimenti non sono in contrasto?
Il codice di condotta contiene suggerimenti su come rispettare il diritto d'autore, norme per evitare rischi sistemici derivanti dai modelli avanzati di IA e indicazioni sulla compilazione di un modulo che incoraggia la trasparenza sul rispetto della legge sull'IA.
Alcuni analisti sostengono che l'UE stia utilizzando la normativa per posizionarsi strategicamente come il fornitore di IA più affidabile a livello mondiale. Gli Stati Uniti e la Cina hanno approcci normativi meno completi e si concentrano principalmente sull'attrazione di grandi investimenti nel settore.
Tuttavia, Laura Lázaro Cabrera, consulente del Centro per la Democrazia e la Tecnologia, sostiene che le due cose devono andare di pari passo.
"L'UE ha fatto grandi passi avanti nel rafforzamento del sostegno finanziario allo sviluppo dell'IA in Europa. Solo quest'anno sono stati annunciati oltre 200 miliardi di euro di investimenti nell'IA", ha dichiarato Laura Lázaro Cabrera.
"I finanziamenti sono una parte importante dell'equazione ed è certamente importante che l'UE mantenga un ruolo di leadership nello sviluppo dell'IA, ma riteniamo che tale leadership debba essere legata a una severa legislazione sulla sicurezza che promuova i diritti fondamentali e i sistemi di IA incentrati sulle persone", ha aggiunto la consulente.
Deepfake, furto di dati riservati, suicidi legati all'uso dei chatbot sono alcuni esempi dei rischi dell'IA generativa.
Laura Lázaro Cabrera ha auspicato che gli obblighi relativi all'alfabetizzazione sull'IA per le aziende portino anche a campagne e programmi di formazione a livello europeo per i cittadini, che così comprenderanno i vantaggi e i rischi di questa tecnologia rivoluzionaria.
Guardate il video qui!
Giornalista: Isabel Marques da Silva
Produzione di contenuti: Pilar Montero López
Produzione video: Zacharia Vigneron
Grafica: Loredana Dumitru
Coordinamento editoriale: Ana Lázaro Bosch e Jeremy Fleming-Jones
Today