Espanha poderá multar empresas de IA até 35 milhões de euros por rotulagem incorreta de conteúdos

O Conselho de Ministros espanhol adotou um projeto de lei que poderá implicar a aplicação de coimas pesadas às empresas de inteligência artificial (IA) que não rotularem adequadamente os conteúdos gerados por IA, num esforço para limitar os "deepfakes".
O projeto de lei classifica a rotulagem incorreta da IA como uma infração grave, com uma potencial sanção de 7,5 milhões a 35 milhões de euros, ou entre 2% e 7% do volume de negócios global de uma empresa.
A nova legislação sugere que as startups e as empresas de média dimensão poderão receber uma sanção mais baixa.
"A inteligência artificial deve ajudar-nos a melhorar o mundo em que vivemos", disse Oscar Lopez, ministro da Transformação Digital de Espanha, sobre a lei, no Instagram, na terça-feira.
O ministro afirmou ainda que a lei vai centrar a utilização da IA na investigação médica, na prevenção de desastres e na melhoria do tráfego nas cidades espanholas, em vez de ser usada para "espalhar boatos, mentiras e difamação".
A lei espanhola adota as orientações da Lei da UE sobre IA, legislação relativamente recente do bloco que impõe regras de transparência rigorosas aos sistemas de IA considerados de alto risco, de acordo com Lopez.
O projeto de lei ainda precisa de ser aprovado pelo Congresso dos Deputados de Espanha antes de entrar em vigor.
Outras práticas proibidas pela lei
O Governo espanhol afirma que o projeto de lei proíbe outras práticas, como a utilização de técnicas subliminares, incluindo "imagens ou sons impercetíveis" para manipular decisões sem consentimento.
Um exemplo deste tipo de técnica seria um "chatbot" capaz de identificar utilizadores com o vício do jogo e de os encorajar a iniciar sessão numa plataforma de jogo.
O projeto de lei também impede que as empresas de IA classifiquem os indivíduos com base na raça, opiniões políticas, religião ou orientação sexual, com recurso aos seus dados biométricos ou presença nas redes sociais.
Estes dados não podem ser utilizados para decidir se uma pessoa tem maiores probabilidades de cometer um crime do que outras, uma crítica feita a um algoritmo utilizado numa prisão da Catalunha para determinar o risco de reincidência dos reclusos.
As empresas que utilizam a biometria para controlar a assiduidade dos trabalhadores, mas não têm supervisão humana sobre este sistema, podem também ser multadas entre 500 mil e 7,5 milhões de euros, ou entre 1% e 2% do seu volume de negócios anual.
O projeto de lei permite ainda que o Governo espanhol suspenda um sistema de IA no país “quando este tiver causado um acidente grave, como a morte de uma pessoa”.
Today