...

Logo Mercure blois centre
in partnership with
Logo Nextory

Estudo diz IA 'menos regulada do que sandes' e tecnológicas em corrida à superinteligência

• Dec 3, 2025, 11:22 AM
9 min de lecture
1

As maiores empresas de inteligência artificial (IA) do mundo estão a falhar nos seus próprios compromissos de segurança, segundo uma nova avaliação que alerta para riscos "catastróficos" associados a essas falhas.

O relatório surge numa altura em que as empresas de IA enfrentam processos judiciais e alegações de que os seus chatbots causam danos psicológicos, incluindo ao agir como um "conselheiro de suicídio", bem como relatos de ciberataques assistidos por IA.

Relatório Winter 2025 do AI Safety Index, divulgado pela organização sem fins lucrativos Future of Life Institute (FLI), avaliou oito grandes empresas de IA, incluindo as norte-americanas Anthropic, OpenAI, Google DeepMind, xAI e Meta, e as chinesas DeepSeek, Alibaba Cloud e Z.ai.

Concluiu falta de estratégias credíveis para prevenir utilizações catastróficas ou perda de controlo das ferramentas de IA, numa corrida das empresas à inteligência artificial geral (AGI) e à superinteligência, uma forma de IA que ultrapassa o intelecto humano.

Analistas independentes que estudaram o relatório concluíram que nenhuma empresa apresentou um plano testável para manter o controlo humano sobre sistemas de IA altamente capazes.

Stuart Russell, professor de ciência computacional na Universidade da Califórnia, Berkeley, afirmou que as empresas de IA dizem conseguir construir IA sobre-humana, mas nenhuma demonstrou como evitar a perda de controlo humano sobre tais sistemas.

"Procuro prova de que conseguem reduzir o risco anual de perda de controlo para um em cem milhões, em linha com os requisitos dos reatores nucleares", escreveu Russell. "Em vez disso, admitem que o risco pode ser de um em dez, um em cinco, até um em três, e não conseguem justificar nem melhorar esses números".

Como ficaram posicionadas as empresas?

O estudo avaliou as empresas em seis áreas críticas: avaliação de riscos, danos atuais, quadros de segurança, segurança existencial, governação e responsabilização, e partilha de informação.

Apesar de registar progressos em algumas categorias, o painel independente de peritos concluiu que a implementação continua inconsistente e frequentemente carece da profundidade exigida pelas normas globais emergentes.

Anthropic, OpenAI e Google DeepMind foram elogiadas por transparência relativamente robusta, quadros públicos de segurança e investimentos contínuos em investigação técnica de segurança. Ainda assim, mantêm fragilidades.

A Anthropic foi criticada por ter interrompido ensaios de "human uplift" e por passar a treinar por defeito com base em interações dos utilizadores, decisão que, segundo especialistas, enfraquece as proteções de privacidade.

A OpenAI foi criticada por limiares de segurança ambíguos, lobby contra legislação de segurança da IA a nível estadual e supervisão independente insuficiente.

A Google DeepMind melhorou o seu quadro de segurança, conclui o relatório, mas continua a depender de avaliadores externos remunerados pela empresa, o que compromete a sua independência.

"As três principais empresas sofreram danos atuais devido a escândalos recentes (danos psicológicos, suicídios de menores, o grande ataque informático à Anthropic) e todas têm margem para melhorar", disse a Euronews Next Max Tegmark, presidente do FLI e professor no Massachusetts Institute of Technology (MIT).

As restantes cinco empresas mostraram progressos desiguais mas assinaláveis, segundo o relatório. Ainda assim, há margem para melhorar.

Por exemplo, a xAI publicou o seu primeiro quadro estruturado de segurança, embora os avaliadores alertem que é estreito e carece de gatilhos claros de mitigação.

A Z.ai foi a única a permitir a publicação sem censura das suas avaliações externas de segurança, mas foi recomendado que divulgue o quadro completo de segurança e a estrutura de governação, com áreas de risco claras, medidas de mitigação e processos de decisão.

 Oito empresas líderes de IA, incluindo OpenAI, Meta, Anthropic e DeepSeek, não têm planos credíveis para prevenir riscos catastróficos de IA, mostra um novo estudo.
Oito empresas líderes de IA, incluindo OpenAI, Meta, Anthropic e DeepSeek, não têm planos credíveis para prevenir riscos catastróficos de IA, mostra um novo estudo. Future of Life Institute

A Meta apresentou um novo quadro de segurança para modelos de ponta, com limiares baseados em resultados, mas os avaliadores dizem que deve clarificar metodologias e partilhar processos de avaliação internos e externos mais robustos.

A DeepSeek foi reconhecida pela defesa interna feita por colaboradores, mas continua sem documentação básica de segurança.

A Alibaba Cloud foi considerada como tendo contribuído para normas nacionais vinculativas sobre requisitos de marca de água, mas pode melhorar a robustez e a fiabilidade dos modelos ao elevar o desempenho em métricas de veracidade, equidade e segurança.

A Euronews Next contactou as empresas para obter respostas ao relatório, mas não recebeu resposta até à hora de publicação.

'Menos regulada do que sandes'

"Espero que ultrapassemos a fase em que as empresas crescem com base na reputação", disse Tegmark.

"Quando se lhes pergunta pelos planos para controlar a AGI, nenhuma tem plano", acrescentou.

Entretanto, empresas tecnológicas como a Meta usam "superinteligência" como chavão para promover os seus mais recentes modelos de IA. Este ano, a Meta deu à sua divisão de grandes modelos de linguagem (LLM) o nome Meta Superintelligence Labs.

Tegmark afirma haver uma grande mudança nas discussões sobre AGI e superinteligência. Se antes tecnólogos a descreviam como possibilidade real num horizonte de 100 anos, agora dizem que poderá chegar nos próximos anos.

"A IA é também menos regulada do que sandes [nos Estados Unidos], e continua o lobby contra normas de segurança vinculativas no governo", disse.

Mas Tegmark salientou que, por outro lado, há uma reação sem precedentes contra a falta de controlo da AGI e da superinteligência.

Em outubro, milhares de figuras públicas, incluindo líderes de IA e tecnologia, pediram às empresas de IA que abrandassem a corrida à superinteligência.

A petição, organizada pelo FLI, reuniu assinaturas de todo o espectro político, incluindo Steve Bannon (antigo estratega-chefe do presidente dos EUA, Donald Trump), Susan Rice (antiga conselheira de Segurança Nacional sob o ex-presidente Obama), líderes religiosos e muitos outros ex-políticos, além de destacados cientistas informáticos.

"O que têm estas pessoas em comum? Concordaram com uma declaração. Considero extremamente significativo que, desde a base MAGA de Trump até líderes religiosos, à esquerda e aos movimentos laborais, haja acordo sobre algo", disse Tegmark.

"A superinteligência tornaria impossível a cada trabalhador ganhar a vida, já que todos os empregos seriam ocupados por robôs. As pessoas dependeriam de subsídios do governo; à direita, seriam vistos como esmolas e, à esquerda, como um governo ao estilo de 1984", disse. "Acho que o que está a acontecer é que as pessoas estão a chegar ao ponto de rutura."

Este texto foi traduzido com a ajuda de inteligência artificial. Comunicar um problema : [feedback-articles-pt@euronews.com].


Today

Grupo do Banco Europeu de Investimento apoia plano da Comissão para fábrica de computadores inteligentes
• 6:48 PM
3 min
Com 20 mil milhões de euros de financiamento público e o apoio do BEI, a Comissão Europeia está a planear instalações gigantes de IA para dar às empresas e às startups acesso à enorme capacidade de computação de que necessitam para se manterem na corrida
Read the article
OMS alerta: mortes por malária subiram e corte nos fundos aumenta risco de regresso da doença
• 2:47 PM
3 min
Doença transmitida por mosquitos figura entre os maiores desafios enfrentados pela saúde pública a nível mundial.
Read the article
Europa fica atrás na adoção de IA, segundo a OCDE; Geração Z nas economias emergentes adere
• 1:01 PM
5 min
Geração Z e jovens millennials no Sul Global adotam IA muito mais do que os seus pares europeus, segundo novo inquérito da OCDE.
Read the article
Austrália: Meta começa a eliminar contas de menores de 16 anos antes da proibição das redes sociais
• 11:02 AM
6 min
Meta começa a desativar contas de menores de 16 nas plataformas da Meta antes da proibição inédita das redes sociais na Austrália
Read the article
A Grécia e o desafio das guerras da cibersegurança
• 10:33 AM
2 min
A guerra digital entre o Ocidente e o Oriente está em pleno andamento. O diretor da Autoridade Nacional da Cibersegurança analisa o papel da Grécia na fronteira oriental.
Read the article
Neuralink de Elon Musk diz que chip cerebral já ajuda pessoas a mover membros robóticos
• 10:09 AM
2 min
Dispositivo continua em ensaios clínicos.
Read the article
Dose única de vacina contra o HPV pode bastar para travar cancro do colo do útero, dizem cientistas
• 9:14 AM
4 min
As vacinas contra o HPV estão autorizadas na União Europeia desde 2006.
Read the article
Rússia bloqueia Roblox por “justificar o terrorismo” e divulgar conteúdo LGBT
• 7:55 AM
2 min
Roblox permite aos utilizadores jogar, conversar e interagir online com milhões de pessoas, enquanto exploram e percorrem um vasto mundo virtual.
Read the article
Qual será o número sorteado na Lotaria de Natal de 2025 de acordo com a IA e onde obtê-lo
• 7:00 AM
11 min
Um dos eventos mais importantes do Natal em Espanha é o sorteio da lotaria, a 22 de dezembro. Embora não seja um dos maiores sorteios, é um dos mais populares entre os jogadores. Mas que número será sorteado de acordo com a IA? Perguntámos ao ChatGPT, Cla
Read the article
Inteligência Artificial nas escolas é a grande aposta da próxima década
• 6:30 AM
8 min
A tecnologia pode melhorar a aprendizagem, reduzir as desigualdades e reforçar o pensamento crítico, mas com uma condição: tem de chegar a todo o lado.
Read the article
Europa deve reforçar combate à gripe aviária com surtos em alta, dizem autoridades de saúde
• 5:01 AM
3 min
Deteção precoce e prontidão são essenciais para evitar que a gripe das aves se torne uma ameaça maior para a saúde humana, segundo o ECDC.
Read the article
Rússia terá bloqueado o FaceTime da Apple: o que se sabe
• 12:57 AM
2 min
A decisão surge numa altura em que Moscovo, bloqueada num impasse com o Ocidente por causa da Ucrânia, procura reforçar o controlo da internet.
Read the article
Hemorragias menstruais intensas e dietas à base de plantas podem aumentar o risco de anemia nas raparigas, diz estudo
• 12:32 AM
4 min
Os investigadores alertaram para o facto das adolescentes poderem subestimar a quantidade de ferro que podem perder devido a uma forte hemorragia menstrual.
Read the article