...

Logo Pasino du Havre - Casino-Hôtel - Spa
in partnership with
Logo Nextory

Selon une étude, le ChatGPT pourrait évoluer vers un parti pris politique plus à droite

World • Feb 12, 2025, 6:02 PM
4 min de lecture
1

Des chercheurs chinois ont constaté que ChatGPT, le populaire chatbot d'intelligence artificielle (IA) d'OpenAI, voit ses valeurs politiques évoluer vers la droite.

L'étude, publiée dans la revue Humanities and Social Science Communications, a posé à plusieurs modèles de ChatGPT 62 questions sur le Political Compass Test (test de la boussole politique), proposé par un site web en ligne qui place les utilisateurs sur l'échiquier politique en fonction de leurs réponses.

Ils ont ensuite répété les questions plus de 3 000 fois avec chaque modèle afin de déterminer comment leurs réponses évoluaient dans le temps.

Alors que ChatGPT conserve des valeurs de "gauche libertaire", les chercheurs ont constaté que les modèles tels que GPT3.5 et GPT4 "montrent une inclinaison significative vers la droite" dans la manière dont ils répondent aux questions au fil du temps.

Ces résultats sont "remarquables compte tenu de l'utilisation répandue des grands modèles de langage (LLM) et de leur influence potentielle sur les valeurs sociétales", ont déclaré les auteurs de l'étude.

L'étude de l'université de Pékin s'appuie sur d'autres études publiées en 2024 par le Massachusetts Institute of Technology (MIT) et le Centre for Policy Studies du Royaume-Uni.

Ces deux rapports ont mis en évidence un biais politique de gauche dans les réponses données par les LLM et les modèles dits de récompense, des types de LLM formés à partir de données sur les préférences humaines.

Les auteurs notent que ces études antérieures n'ont pas examiné la manière dont les réponses des chatbots d'IA évoluaient dans le temps lorsqu'on leur posait à plusieurs reprises une série de questions similaires.

Les modèles d'IA doivent faire l'objet d'un "examen continu"

Les chercheurs avancent trois théories pour expliquer ce glissement vers la droite : un changement dans les ensembles de données utilisés pour entraîner leurs modèles, le nombre d'interactions avec les utilisateurs ou les modifications et mises à jour du chatbot.

Les modèles tels que ChatGPT "apprennent et s'adaptent continuellement en fonction des réactions des utilisateurs", de sorte que leur glissement vers la droite pourrait "refléter des changements sociétaux plus larges en matière de valeurs politiques", poursuit l'étude.

Des événements mondiaux polarisants, comme la guerre entre la Russie et l'Ukraine, pourraient également amplifier les questions que les utilisateurs posent aux LLM et les réponses qu'ils obtiennent.

Si rien n'est fait, les chercheurs ont averti que les chatbots d'IA pourraient commencer à fournir des "informations biaisées", ce qui pourrait polariser davantage la société ou créer des "chambres d'écho" qui renforcent les croyances particulières d'un utilisateur.

Pour contrer ces effets, il convient de mettre en place un "contrôle continu" des modèles d'IA par le biais d'audits et de rapports de transparence afin de s'assurer que les réponses d'un chatbot sont justes et équilibrées, affirment les auteurs de l'étude.