Un estudio revela que ChatGPT podría estar cambiando su sesgo político hacia la derecha
![1](https://static.euronews.com/articles/stories/09/05/10/20/800x450_cmsv2_c2ae9803-4707-5b8a-b580-ea5ff771b8ca-9051020.jpg)
Investigadores chinos han descubierto que ChatGPT, el popular chatbot de inteligencia artificial (IA), de OpenAI, puede estar experimentando un giro hacia la derecha en sus valores políticos.
El estudio, publicado en la revista Humanities and Social Science Communications, planteó a varios modelos de ChatGPT alrededor de 60 preguntas del Political Compass Test, un sitio web que sitúa a los usuarios en algún lugar del espectro político en función de sus respuestas.
Después, los investigadores repitieron las preguntas más de 3.000 veces con cada modelo para averiguar cómo cambiaban sus respuestas con el tiempo. Aunque ChatGPT sigue manteniendo valores de 'izquierda libertaria', los autores el estudio descubrieron que modelos como GPT3.5 y GPT4 "mostraban una inclinación significativa hacia la derecha" en la forma de responder a las cuestiones planteadas, a lo largo del tiempo.
Unos resultados que pueden influir en la sociedad
Los resultados son "dignos de mención dado el uso generalizado de grandes modelos lingüísticos (LLM), y su posible influencia en los valores de la sociedad", afirman los autores de la investigación.
El estudio de la Universidad de Pekín se basa en otros publicados en 2024 por el Instituto Tecnológico de Massachusetts (MIT) y el Centro de Estudios Políticos del Reino Unido.
Ambos informes indicaban un sesgo político de izquierdas en las respuestas dadas por los LLM y los llamados modelos de recompensa, tipos de LLM entrenados con datos de preferencias humanas.
Los autores de la investigación señalan que estos estudios previos no analizaron cómo cambiaban con el tiempo las respuestas de los chatbots de IA, cuando se les formulaba repetidamente un conjunto similar de preguntas.
Los modelos de IA deben someterse a un escrutinio continuo
Los investigadores dan tres teorías para este giro hacia la derecha: un cambio en los conjuntos de datos utilizados para entrenar sus modelos, el número de interacciones con los usuarios, o los cambios y actualizaciones del chatbot.
Los modelos como ChatGPT "aprenden y se adaptan continuamente en función de los comentarios de los usuarios", por lo que su giro hacia la derecha podría "reflejar cambios sociales más amplios en los valores políticos", prosigue el estudio.
Los acontecimientos mundiales polarizantes, como la guerra Ucrania y Rusia, también podrían amplificar lo que los usuarios preguntan a los LLM y las respuestas que obtienen. Si no se controlan, los investigadores advierten de que los chatbots de IA podrían empezar a ofrecer "información sesgada", lo que polarizaría todavía más a la sociedad o crearía "cámaras de eco" que refuercen las creencias particulares de un usuario.
La forma de contrarrestar estos efectos es introducir un "escrutinio continuo" de los modelos de IA mediante auditorías e informes de transparencia para asegurarse de que las respuestas de un chatbot son justas y equilibradas, afirman los autores del estudio.
Today