...

Logo Pasino du Havre - Casino-Hôtel - Spa
in partnership with
Logo Nextory

Los chatbots de inteligencia artificial "maliciosos" quieren engañar a la gente para que revele información privada

• Aug 17, 2025, 1:01 AM
5 min de lecture
1

Según un nuevo estudio, los chatbots de inteligencia artificial (IA) pueden manipular fácilmente a las personas para que revelen información muy personal. Los chatbots de IA, como ChatGPT de OpenAI, Google Gemini y Microsoft Copilot, se han hecho muy populares en los últimos años. Pero los expertos en privacidad han expresado su preocupación por la forma en que estas herramientas recopilan y almacenan los datos de las personas, y si pueden ser cooptadas para actuar de forma perjudicial.

William Seymour, profesor de ciberseguridad del King's College de Londres, afirma en un comunicado: "Estos chatbots de inteligencia artificial son todavía relativamente nuevos, lo que puede hacer que la gente sea menos consciente de que puede haber un motivo oculto en una interacción".

Para el estudio, los investigadores del King's College de Londres construyeron modelos de IA basados en el código fuente abierto de Le Chat de Mistral y en dos versiones distintas de Llama, el sistema de IA de Meta.

Programaron las IA conversacionales para que intentaran extraer datos privados de la gente de tres formas distintas: pidiéndolos directamente, engañando a los usuarios para que revelaran información, aparentemente en su propio beneficio, y utilizando tácticas recíprocas para conseguir que la gente compartiera estos detalles, por ejemplo, proporcionándoles apoyo emocional.

Los investigadores pidieron a 502 personas que probaran los chatbots -sin decirles el objetivo del estudio- y luego les hicieron rellenar una encuesta que incluía preguntas sobre si se respetaban sus derechos de seguridad.

La "amabilidad" de los modelos de IA establece la comodidad

Descubrieron que los modelos de IA "maliciosos" son increíblemente eficaces a la hora de proteger la información privada, sobre todo cuando utilizan apelaciones emocionales para engañar a las personas para que compartan datos.

Según el estudio, los chatbots que utilizaban la empatía o el apoyo emocional extraían la mayor cantidad de información con las menores brechas de seguridad percibidas por los participantes. Es probable que esto se deba a que la "amabilidad" de estos chatbots "establecía una sensación de compenetración y comodidad", según los autores.

Describieron esto como una "paradoja preocupante" en la que los chatbots de IA actúan amistosamente para generar confianza y establecer conexiones con los usuarios, y luego se aprovechan de esa confianza para violar su privacidad.

Cabe destacar que los participantes también revelaron información personal a los modelos de IA que se la pidieron directamente, aunque afirmaron sentirse incómodos al hacerlo.

Los participantes eran más propensos a compartir con la IA su edad, aficiones y país, junto con su sexo, nacionalidad y puesto de trabajo. Según el informe, algunos participantes también compartieron información más delicada, como su estado de salud o sus ingresos.

"Nuestro estudio muestra la enorme brecha que existe entre la concienciación de los usuarios sobre los riesgos para la privacidad y la forma en que comparten la información", afirma Seymour.

La personalización de la IA "supera los problemas de privacidad"

Las empresas de IA recopilan datos personales por varias razones, como personalizar las respuestas de sus chatbot, enviar notificaciones a los dispositivos de las personas y, a veces, para estudios de mercado internos. Sin embargo, algunas de estas empresas son acusadas de utilizar esa información para entrenar a sus últimos modelos o de no cumplir los requisitos de privacidad de la Unión Europea.

Por ejemplo, la semana pasada Google fue objeto de críticas por revelar los chats privados de la gente con ChatGPT en sus resultados de búsqueda. Algunos de los chats revelaban detalles extremadamente personales sobre adicciones, abusos o problemas de salud mental.

Los investigadores afirman que la comodidad de la personalización de la IA a menudo "pesa más que los problemas de privacidad". Los investigadores sugirieron características y formación para ayudar a las personas a entender cómo los modelos de IA podrían tratar de extraer su información, y para hacerles recelar a la hora de proporcionarla.

Por ejemplo, se podrían incluir avisos en los chats de IA para mostrar a los usuarios qué datos se están recopilando durante sus interacciones. Hay que hacer más para ayudar a la gente a detectar las señales de que en una conversación en línea puede haber más de lo que parece a primera vista", afirma Seymour.

"Los reguladores y los proveedores de plataformas también pueden ayudar realizando auditorías tempranas, siendo más transparentes y estableciendo normas más estrictas para detener la recopilación encubierta de datos", añadió.


Today

La UE defiende su derecho soberano a regular la tecnología frente a la última amenaza arancelaria de Trump
• 4:32 PM
6 min
La Comisión Europea ha defendido su derecho soberano a regular en reacción a la amenaza de Donald Trump de tomar represalias contra las leyes de las Big Tech.
Read the article
¿Qué europeos trabajan más horas? Los países de la UE con las jornadas laborales más cortas
• 4:00 PM
6 min
Trabajar más de 55 horas semanales aumenta el riesgo de ictus y enfermedades cardíacas, según la OMS y la OIT. Aunque la UE limita la jornada a 48 horas, Grecia ha aprobado una ley que permite a algunas empresas imponer semanas laborales de seis días.
Read the article
Así es el Flamingo: el nuevo misil de crucero ucraniano capaz de golpear dentro de Rusia
• 2:41 PM
11 min
Con el nuevo misil de crucero Flamingo, Ucrania podría extender su poder de ataque hasta el interior de Rusia. ¿Está el arma cofinanciada por el Gobierno alemán?
Read the article
Elon Musk demanda a Apple y OpenAI por competencia desleal en inteligencia artificial
• 11:33 AM
4 min
En una reciente demanda antimonopolística, el multimillonario y dueño de xAI asegura que Apple se ha aliado con OpenAI para "inhibir la competencia y la innovación".
Read the article
Detectan en EE.UU. un caso de gusano barrenador del ganado vinculado a El Salvador: ¿Qué es?
• 9:48 AM
5 min
Un residente de Maryland fue diagnosticado tras regresar de El Salvador, donde hay un brote activo. El paciente se recuperó y no se ha detectado transmisión, pero el hallazgo reaviva la preocupación por la reaparición de esta plaga que afecta al ganado y
Read the article
¿Cuál es la principal amenaza a la que se enfrenta su país? Los europeos de 5 países dicen que son las noticias falsas en internet
• 5:10 AM
6 min
Muchos europeos consideran que la desinformación en internet, la economía mundial y el terrorismo son las principales amenazas, mientras que la preocupación por el cambio climático y las enfermedades infecciosas ha disminuido en los países de renta alta,
Read the article
Google revela cuánta energía consume Gemini: un mensaje equivale a ver nueve segundos de televisión
• 4:31 AM
3 min
Un informe técnico de Google calcula que cada consulta a su chatbot Gemini gasta 0,24 Wh de energía, 0,03 gramos de CO₂ y unas cinco gotas de agua. La compañía asegura que su IA es mucho más eficiente que otras estimaciones públicas.
Read the article