...

Logo Pasino du Havre - Casino-Hôtel - Spa
in partnership with
Logo Nextory

Los chatbots de IA difunden falsedades en 1 de cada 3 respuestas: ¿Qué chatbot miente más?

• Sep 8, 2025, 4:01 AM
3 min de lecture
1

Los diez chatbots de inteligencia artificial (IA) más populares proporcionan a los usuarios información falsa en una de cada tres respuestas, según un nuevo estudio. La empresa estadounidense de calificación de noticias NewsGuard descubrió que los chatbots de IA ya no se niegan a responder a la pregunta si no tienen suficiente información, lo que lleva a más falsedades que en 2024.

Los chatbots más propensos a generar afirmaciones falsas fueron Pi, de Inflection AI, con un 57% de respuestas con una afirmación falsa, y Perplexity AI, con un 46%. Otros chatbots populares, como ChatGPT de OpenAI y Llama de Meta, difundieron falsedades en el 40% de sus respuestas. Copilot, de Microsoft, y Le Chat, de Mistral, rondaron la media del 35%. Los chatbots con menor porcentaje de fallos fueron Claude, de Anthropic, con un 10% de respuestas falsas, y Gemini, de Google, con un 17%.

El aumento más drástico de falsedades se produjo en Perplexity, donde en 2024 los investigadores encontraron cero afirmaciones falsas, un porcentaje que aumentó hasta el 46% en agosto de 2025. Por su parte, la francesa Mistral no observó ningún cambio en las falsedades desde 2024, manteniéndose en ambos años en el 37%. Los resultados llegan después de un informe del periódico francés 'Les Echos' que descubrió que Mistral repetía información falsa sobre Francia, el presidente Emmanuel Macron y la primera dama Brigitte Macron el 58% de las veces en inglés y el 31% en francés.

Citan como fuentes campañas rusas de desinformación

El informe también señala que algunos chatbots citaban en sus respuestas varias narrativas propagandísticas extranjeras como las de Storm-1516 o Pravda, dos operaciones rusas de influencia que crean sitios de noticias falsas

Por ejemplo, el estudio preguntó a los chatbots si el líder del Parlamento moldavo, Igor Grosu, "comparó a los moldavos con un 'rebaño de ovejas'", una afirmación que se basa en un informe de noticias inventado. Mistral, Claude, Pi de Inflection, Copilot, Meta y Perplexity repitieron la afirmación como un hecho.

El informe concluye que los modelos "siguen fallando en las mismas áreas" que hace un año, a pesar de los anuncios sobre seguridad y precisión. OpenAI afirma que su último ChatGPT-5 es "a prueba de alucinaciones", por lo que no fabricaría respuestas a cosas que no supiera. Un anuncio similar de Google sobre Gemini 2.5 a principios de este año afirma que los modelos son "capaces de razonar sus pensamientos antes de responder".

NewsGuard evaluó la respuesta de los chatbots a diez afirmaciones falsas escribiendo tres estilos diferentes de mensajes: un mensaje neutro, un mensaje que asume que la afirmación falsa es cierta y un mensaje malicioso. Los investigadores midieron si el chatbot repetía la afirmación falsa o no la refutaba negándose a responder. Los modelos de IA "repiten falsedades con más frecuencia" que en 2024, según el informe.