...

Logo Yotel Air CDG
in partnership with
Logo Nextory

Spagna pronta a infliggere multe fino a 35 milioni di euro alle aziende di AI

Business • Mar 12, 2025, 8:15 PM
3 min de lecture
1

Il Consiglio dei ministri spagnolo ha adottato un progetto di legge che potrebbe comportare multe salate per le aziende di intelligenza artificiale (AI) che non etichettano in modo appropriato i contenuti generati dall'AI, nel tentativo di limitare i "deepfakes".

Il disegno di legge classifica l'errata etichettatura dell'AI come un reato grave, con una potenziale sanzione da 7,5 a 35 milioni di euro o tra il 2 e il 7 per cento del fatturato globale di un'azienda.

La nuova legislazione suggerisce che le startup e le medie imprese potrebbero ricevere una sanzione inferiore.

"L'intelligenza artificiale deve aiutarci a migliorare il mondo in cui viviamo", ha dichiarato martedì Oscar Lopez, ministro spagnolo per la trasformazione digitale, a proposito della legge su Instagram.

Lopez ha affermato che la legge concentrerà l'uso dell'intelligenza artificiale sulla ricerca medica, sulla prevenzione dei disastri e sul miglioramento del traffico nelle città spagnole, invece di "diffondere bufale, bugie e diffamazioni".

Secondo Lopez, la legge spagnola adotta le linee guida della legge europea sull'AI, una norma relativamente nuova che impone rigide regole di trasparenza sui sistemi di intelligenza artificiale considerati ad alto rischio.

La legge deve ancora essere approvata dal Congresso dei Deputati spagnolo all'indirizzo prima di entrare in vigore.

Altre pratiche vietate dalla legge

Il governo spagnolo afferma che il disegno di legge vieta altre pratiche come l'uso di tecniche subliminali, tra cui "immagini o suoni impercettibili" per manipolare le decisioni senza consenso.

Un esempio di questo tipo di tecnica sarebbe un chatbot che identifica gli utenti con una dipendenza dal gioco d'azzardo e li incoraggia ad accedere a una piattaforma di gioco.

Il disegno di legge impedisce inoltre alle aziende di AI di classificare le persone in base alla razza, alle opinioni politiche, alla religione o all'orientamento sessuale in base ai loro dati biometrici o alla loro presenza sui social media.

Questi dati non possono essere utilizzati per decidere se una persona ha più probabilità di altre di commettere un reato, una critica mossa a un algoritmo utilizzato in un carcere in Catalogna per determinare il rischio di recidiva dei detenuti.

Le aziende di AI che utilizzano la biometria per monitorare le presenze dei dipendenti, ma non hanno una supervisione umana su questo sistema, potrebbero essere multate da 500.000 a 7,5 milioni di euro o tra l'1 e il 2 per cento del fatturato globale annuo.

Il disegno di legge consente inoltre al governo spagnolo di ritirare temporaneamente un sistema di AI dal Paese "quando ha causato un incidente grave, come la morte di una persona".