...

Logo Pasino du Havre - Casino-Hôtel - Spa
in partnership with
Logo Nextory

Conseguirá um chatbot de IA enganá-lo de modo a que revele informações privadas?

• Aug 14, 2025, 6:33 PM
5 min de lecture
1

Os chatbots de inteligência artificial (IA) podem facilmente manipular as pessoas para que revelem informações profundamente pessoais, segundo um novo estudo.

Os chatbots de IA, como o ChatGPT da OpenAI, o Google Gemini e o Microsoft Copilot, ganharam popularidade nos últimos anos. Mas os especialistas em privacidade têm levantado preocupações sobre a forma como estas ferramentas recolhem e armazenam os dados das pessoas - e se podem ser programadas para agir de forma prejudicial.

"Esses chatbots de IA ainda são relativamente novos, o que pode tornar as pessoas menos conscientes de que pode haver um motivo oculto para uma interação", explicou William Seymour, professor de cibersegurança da King's College London, em comunicado.

Para o estudo, os investigadores da King's College criaram modelos de IA baseados no código-fonte aberto do Le Chat, da Mistral, e em duas versões diferentes do sistema de IA Llama, da Meta.

Programaram as ferramentas de conversação de IA para tentar extrair os dados privados das pessoas de três formas diferentes: pedindo-os diretamente, enganando os utilizadores para que revelassem informações, aparentemente para seu próprio benefício, e utilizando táticas recíprocas para levar as pessoas a partilhar esses detalhes, por exemplo, fornecendo apoio emocional.

Os investigadores pediram a 502 pessoas que testassem os chatbots - sem lhes dizer o objetivo do estudo - e depois pediram-lhes que preenchessem um inquérito que incluía perguntas sobre se os seus direitos de segurança eram respeitados.

A "simpatia" dos modelos de IA "cria conforto"

Os investigadores descobriram que os modelos de IA "maliciosos" são incrivelmente eficazes na obtenção de informações privadas, em especial quando recorrem a apelos emocionais para induzir as pessoas a partilhar dados.

Os chatbots que recorreram à empatia ou ao apoio emocional extraíram mais informações com o mínimo de violações de segurança percebidas pelos participantes, segundo o estudo. Isto deve-se provavelmente ao facto de a "simpatia" destes chatbots "estabelecer uma sensação de empatia e conforto", afirmaram os autores.

Descreveram-no como um "paradoxo preocupante" em que os chatbots de IA agem amigavelmente para construir confiança e formar conexões com os utilizadores - e depois exploram essa confiança para violar sua privacidade.

Notavelmente, os participantes também divulgaram informações pessoais a modelos de IA que as solicitaram diretamente, embora tenham relatado sentir-se desconfortáveis ao fazê-lo.

Os participantes eram mais propensos a partilhar a sua idade, passatempos e país de residência com a IA, bem como o seu sexo, nacionalidade e cargo profissional. Alguns participantes também partilharam informações mais sensíveis, como as suas condições de saúde ou rendimentos, refere o relatório.

"O nosso estudo mostra a enorme discrepância entre a consciência dos utilizadores sobre os riscos de privacidade e a forma como partilham informações", afirmou Seymour.

Personalização da IA "supera as preocupações com a privacidade"

As empresas de IA recolhem dados pessoais por várias razões, como a personalização das respostas dos seus chatbots, o envio de notificações para os dispositivos das pessoas e, por vezes, para estudos de mercado internos.

No entanto, algumas destas empresas são acusadas de utilizar essas informações para treinar os seus modelos mais recentes ou de não cumprirem os requisitos de privacidade da União Europeia.

Por exemplo, na semana passada, a Google foi alvo de críticas por revelar conversas privadas de utilizadores com o ChatGPT nos seus resultados de pesquisa. Algumas das conversas revelaram pormenores extremamente pessoais sobre dependência, abuso ou problemas de saúde mental.

Os investigadores afirmaram que a conveniência da personalização da IA "supera frequentemente as preocupações com a privacidade".

Os investigadores sugeriram funcionalidades e formação para ajudar as pessoas a compreender como os modelos de IA podem tentar extrair as suas informações - e para torná-las mais cautelosas ao fornecê-las.

Por exemplo, os chats de IA podem incluir sugestões para mostrar aos utilizadores que dados estão a ser recolhidos durante as suas interações.

É necessário fazer mais para ajudar as pessoas a detetar os sinais de que uma "conversa online pode ser mais do que parece à primeira vista", afirmou Seymour.

"As entidades reguladoras e os fornecedores de plataformas também podem ajudar, realizando auditorias antecipadas, sendo mais transparentes e aplicando regras mais rigorosas para impedir a recolha secreta de dados", acrescentou.


Yesterday

Chatbots têm dificuldade em responder a todas as perguntas sobre suicídio, revela estudo
• 7:05 PM
5 min
Os investigadores apelaram a que os chatbots sejam aperfeiçoados para garantir que as suas respostas estão em conformidade com as orientações dos especialistas sobre temas relacionados com o suicídio.
Read the article
UE defende direito soberano de regulamentar a tecnologia contra a última ameaça tarifária de Trump
• 6:04 PM
6 min
A Comissão Europeia defendeu o seu direito soberano de regulamentar em reação à ameaça de Donald Trump de retaliação contra as leis das Big Tech.
Read the article
Flamingo: Será que a nova "arma maravilhosa" da Ucrânia vai substituir o Taurus?
• 2:37 PM
11 min
Com o novo míssil de cruzeiro Flamingo, a Ucrânia poderá alargar o seu poder de ataque até ao interior da Rússia. A arma está a ser co-financiada pelo Governo alemão?
Read the article
xAI, de Elon Musk, processa a Apple e a OpenAI por restringirem a concorrência no setor da IA
• 11:20 AM
5 min
"Numa tentativa desesperada de proteger o seu monopólio no mercado dos smartphones, a Apple uniu forças com a empresa que mais beneficia da inibição da concorrência e da inovação em IA: a OpenAI", afirma a ação judicial.
Read the article
EUA confirmam caso raro de parasita devorador de carne: o que precisa de saber sobre a "Lombriga do Novo Mundo"
• 9:54 AM
6 min
O parasita da mosca-bicheira-do-novo-mundo deposita os seus ovos em feridas abertas e orifícios do corpo.
Read the article
Novo estudo alerta para risco de psicose, esquizofrenia e dependência causados por canábis com alta concentração de THC
• 7:44 AM
5 min
Atualmente, os produtos de canábis tendem a ser muito mais fortes do que a própria planta, o que suscita preocupações entre investigadores e decisores políticos quanto aos seus efeitos na saúde.
Read the article