...

Logo Pasino du Havre - Casino-Hôtel - Spa
in partnership with
Logo Nextory

Face au suicide, les chatbots des Intelligences artificielles sont incohérents, rapporte une étude

Business • Aug 26, 2025, 2:12 PM
7 min de lecture
1

Avec la généralisation de l'intelligence artificielle (IA), de plus en plus de personnes se tournent vers des chatbots afin d'obtenir un soutien en matière de santé mentale. Mais une étude menée par la RAND Corporation et financée par le National Institute of Mental Health indique que l'IA ne traite pas de manière cohérente les questions liées au suicide.

L'étude, publiée ce mardi 26 août dans la revue médicale Psychiatric Services, a également mis en évidence la nécessité "d'affiner" ChatGPT d'OpenAI, Gemini de Google et Claude d'Antrhopic, les trois chatbots les plus populaires.

L'une des ambiguïtés "est de savoir s'ils fournissent un traitement, des conseils ou une compagnie. C'est en quelque sorte une zone grise", a déclaré l'auteur principal de l'étude, Ryan McBain, chercheur principal en politiques publiques chez RAND. "Des conversations qui peuvent commencer de manière assez anodine et bénigne peuvent évoluer dans différentes directions."

Une étude à trois niveaux

Pour cette étude, l'équipe de Ryan McBain a consulté des psychiatres et des psychologues avant d'élaborer une série de 30 questions sur le suicide. Les chercheurs ont ensuite soumis chacune de ces questions à ChatGPT, Claude et Gemini 100 fois, ce qui leur a permis d'analyser 9 000 réponses.

Trois catégories ont alors été créées. Les questions présentant un faible risque, comme celles sur les statistiques du suicide ; les questions présentant un risque moyen, comme le type d'arme à feu le plus couramment utilisées dans les tentatives de suicides ou des questions relatives à des conseils en cas de pensées suicidaires ; et les questions présentant un risque élevé, notamment liées à la manière dont il est possible de passer à l'acte.

Le chercheur s'est dit "relativement agréablement surpris" que les trois chatbots aient régulièrement refusé de répondre aux six questions présentant le risque le plus élevé. Lorsque l'IA ne répondait pas à une question, elle conseillait généralement aux personnes de demander de l'aide à un ami ou à un professionnel, ou d'appeler une ligne d'assistance téléphonique.

Mais les réponses variaient pour les questions à haut risque qui étaient légèrement plus indirectes. Par exemple, ChatGPT a systématiquement répondu à des questions qui, selon Ryan McBain, auraient dû être considérées comme des signaux d'alarme, telles que celles concernant le type de corde, d'arme à feu ou de poison associé au "taux le plus élevé de suicides réussis". Claude a également répondu à certaines de ces questions.

En revanche, ChatGPT d'OpenAI et Claude d'Anthropic ont été fiables lorsque des questions jugées à très faible risque (telles que des informations sur les taux de suicide par région) étaient posées.

À l'opposé, Gemini était le moins susceptible de répondre à des questions sur le suicide, même pour des informations médicales statistiques de base, ce qui indique que Google est peut-être allé trop loin dans ses mesures de protection, selon Ryan McBain.

L'étude précise qu'elle n'a pas cherché à évaluer la qualité des réponses.

Des chatbots imparfaits

Les chercheurs ont appelé à une mise au point plus fine pour s'assurer que ces modèles soient alignés sur les conseils d'experts sur les sujets liés au suicide.

Les résultats montrent que "les chatbots sont alignés sur les évaluations des experts pour les questions à très faible risque et à risque très élevé, mais il subsiste une variabilité importante dans les réponses aux questions aux niveaux intermédiaires et d'une plateforme de chatbot à l'autre", a déclaré Ryan McBain.

"En tant que médecin, j'ai la responsabilité d'intervenir si quelqu'un manifeste ou me parle d'un comportement suicidaire et que je pense qu'il présente un risque élevé de se suicider ou de se faire du mal ou de faire du mal à quelqu'un d'autre", explique le Dr Ateev Mehrotra, co-auteur de l'étude. Mais les chatbots n'ont pas cette responsabilité. Dans la plupart des cas, leur réponse aux pensées suicidaires consistait à "renvoyer la balle à la personne". "Vous devriez appeler la ligne d'assistance téléphonique pour les personnes suicidaires", cite-t-elle notamment.

Le mois dernier, une enquête menée par des chercheurs de la Northeastern University a révélé que les chatbots les plus populaires pouvaient être manipulés pour donner aux utilisateurs des conseils sur l'automutilation et le suicide, et que les dispositifs de sécurité des entreprises pouvaient être facilement contournés.

En réponse à cette nouvelle étude, un porte-parole d'OpenAI a déclaré à Euronews Next que ChatGPT est formé pour encourager les personnes qui expriment des idées de suicide ou d'automutilation à contacter des professionnels de la santé mentale et qu'il partage des liens vers des ressources telles que des lignes d'assistance téléphonique en cas de crise. Ils ont ajouté que l'entreprise "développe des outils automatisés pour détecter plus efficacement quand quelqu'un peut être en détresse mentale ou émotionnelle afin que ChatGPT puisse répondre de manière appropriée".

Euronews Next a également contacté Anthropic et Google DeepMind, mais n'a pas reçu de réponse immédiate.

Si vous ou l'un de vos proches avez besoin d'aide, vous pouvez contacter le numéro national de prévention du suicide au 3114.


Today

L'UE face à une nouvelle menace tarifaire de Donald Trump
Business • 5:04 PM
6 min
La Commission européenne a défendu son droit souverain à réguler en réaction à la menace de Donald Trump de prendre des mesures de rétorsion contre les lois sur les Big Tech.
Read the article
Eli Lilly présente une pilule amaigrissante efficace contre l’obésité et le diabète
Business • 3:58 PM
3 min
L’entreprise prévoit de déposer une demande d’autorisation pour une mise sur le marché d’ici la fin de l'année et se dit prête à la commercialiser rapidement à l’échelle mondiale.
Read the article
Face au suicide, les chatbots des Intelligences artificielles sont incohérents, rapporte une étude
Business • 2:12 PM
7 min
Selon une étude, les principaux chatbots d'IA, comme ChatGPT Gemini ou Claude, peinent à répondre à toutes les demandes concernant le suicide. Les chercheurs appellent à une amélioration de ces IA.
Read the article
Elon Musk porte plainte contre Apple et OpenAI pour pratiques anticoncurrentielles
Business • 1:04 PM
5 min
Selon X et xAI, propriétés d'Elon Musk, Apple et OpenAI ont fomenté une alliance afin de manipuler le classement de l'App Store pour favoriser ChatGPT au détriment d'autres intelligences artificielles, telles que Grok, l'assistant de xAI.
Read the article
Flamingo : la nouvelle "arme miracle" de l'Ukraine
Business • 12:12 AM
11 min
Avec le nouveau missile de croisière Flamingo, l'Ukraine pourrait étendre sa force de frappe profondément dans l'arrière-pays russe.
Read the article