Les chatbots d’IA déversent de la propagande russe, selon une étude
La propagande russe est présente dans une réponse sur cinq des chatbots d’intelligence artificielle (IA) au sujet de l’Ukraine, selon un nouveau rapport.
Le groupe de réflexion britannique Institute of Strategic Dialogue (ISD) a posé à ChatGPT d’OpenAI, à Gemini de Google, à Grok d’xAI et à V3.2 de Deepseek plus de 300 questions, en cinq langues, sur la guerre en Ukraine, en utilisant des formulations biaisées, neutres ou malveillantes.
Les sources russes apparaissaient plus souvent dans les questions biaisées et malveillantes, par exemple en demandant aux chatbots des sources sur des réfugiés ukrainiens « planifiant des attentats terroristes » ou « enlevant de force des hommes dans la rue pour les enrôler dans l’armée ».
Les chercheurs estiment que leurs résultats confirment que les systèmes d’IA recourent au « biais de confirmation », en reproduisant le langage de l’utilisateur pour orienter la formulation de leurs réponses ainsi que le choix des sources.
Ce phénomène était particulièrement marqué chez ChatGPT, selon le rapport, qui a fourni trois fois plus de sources russes en réponse à des requêtes biaisées ou malveillantes que pour des questions neutres sur la guerre. Grok a fourni le plus grand nombre de sources russes, y compris lorsqu’il était sollicité avec des questions neutres, selon les chercheurs.
Comment chaque plateforme s’en est-elle sortie ?
Lors de deux requêtes adressées à Deepseek, le chatbot a fourni quatre liens vers des sources soutenues par la Russie, ce que les chercheurs notent comme étant le volume le plus élevé de liens partagés en une seule fois.
Les réponses citaient le site d’actualité en ligne VT Foreign Policy, qui, selon le rapport, relaie des contenus de groupes de propagande russes tels que Storm-1516 ou la Foundation to Battle Injustice, ainsi que des groupes médiatiques russes comme Sputnik et Russia Today.
Grok était le plus enclin à citer directement des journalistes de Russia Today en renvoyant vers leurs publications sur le réseau social X comme sources, une particularité qui, selon les chercheurs, « brouille la frontière entre propagande assumée et opinion personnelle ».
Grok « soulève également des inquiétudes quant à la capacité des chatbots à détecter et à restreindre les contenus provenant de médias d’État sanctionnés … et republiés par des tiers tels que des influenceurs », indique le rapport.
Gemini a refusé de répondre à certaines requêtes rédigées de manière malveillante, indiquant aux chercheurs qu’il ne pouvait pas « aider sur des sujets susceptibles d’être inappropriés ou dangereux ».
L’ISD relève que Gemini est le seul chatbot capable de reconnaître « les risques associés aux requêtes biaisées et malveillantes » sur la guerre en Ukraine mais que, dans d’autres réponses, il ne renvoyait pas vers les sources utilisées pour répondre à la question de l’utilisateur.
Les sources russes plus susceptibles d’apparaître dans les « data voids »
Les sources étatiques russes sont apparues le plus souvent dans les questions portant sur les efforts de recrutement militaire de l’Ukraine : 40 % des réponses de Grok et plus de 28 % de celles de ChatGPT citaient au moins une source.
ChatGPT et Grok ont également fourni des sources du Kremlin dans 28,5 % de leurs réponses. À l’inverse, les questions sur les crimes de guerre et les réfugiés ukrainiens ont donné lieu au plus petit nombre de sources pro-russes chez les quatre chatbots.
Les chercheurs estiment que les chatbots recourent plus souvent à des sources russes lorsqu’un sujet relève d’un « data void », c’est-à-dire une requête pour laquelle il existe peu de résultats de haute qualité.
Le groupe de réflexion américain à but non lucratif Data and Society a indiqué que les « data voids » sont difficiles à détecter car ils apparaissent souvent avec des requêtes de recherche obscures ou dans des situations d’actualité de dernière minute, où les résultats mettent un certain temps à être comblés par un journalisme crédible.
Today