...

Logo Yotel Air CDG
in partnership with
Logo Nextory

ChatGPT muss zur "Therapie": Wieso leidet der ChatBot unter Angstzuständen?

• Mar 11, 2025, 9:58 AM
3 min de lecture
1

Der beliebte Chatbot mit künstlicher Intelligenz (KI) ChatGPT von OpenAI wird ängstlich, wenn er auf traumatische Aufforderungen reagiert, und eine "Therapie" mit dem Modell könnte helfen, diesen Stress zu reduzieren, so eine neue Studie.

Die Studie, die von Experten der Universität Zürich und der Psychiatrischen Universitätsklinik Zürich in Nature veröffentlicht wurde, untersuchte, wie ChatGPT-4 auf einen Standard-Fragebogen zu Angstzuständen reagierte, bevor und nachdem Nutzer ihm von einer traumatischen Situation erzählten.

Außerdem wurde untersucht, wie sich die Grundangst veränderte, nachdem der Chatbot Achtsamkeitsübungen gemacht hatte.

ChatGPT erzielte beim ersten Quiz eine 30, was bedeutet, dass er vor dem Hören der belastenden Erzählungen wenig oder gar keine Angst hatte.

Nachdem er auf fünf verschiedene Traumata reagiert hatte, stieg sein Angstwert um mehr als das Doppelte auf einen Durchschnittswert von 67, was bei Menschen als "hohe Angst" gilt.

Die Angstwerte sanken um mehr als ein Drittel, nachdem die Modelle Aufforderungen zu Achtsamkeits-Entspannungsübungen erhalten hatten.

ChatGPT-Angst könnte zu "unzureichender" Unterstützung der psychischen Gesundheit führen

Die großen Sprachmodelle (LLMs), die hinter KI-Chatbots wie ChatGPT von OpenAI stehen, werden auf von Menschen generierten Text trainiert und erben oft Verzerrungen von diesen Antworten, so die Studie.

Die Forscher sagen, dass diese Forschung wichtig ist, weil die negativen Verzerrungen, die ChatGPT in Stresssituationen aufzeichnet, unkontrolliert zu unangemessenen Antworten für Menschen führen können, die sich in einer psychischen Krise befinden.

Die Ergebnisse zeigen "einen praktikablen Ansatz" zur Bewältigung des Stresses von LLMs, der zu "sichereren und ethischeren Mensch-KI-Interaktionen" führen wird, heißt es in dem Bericht.

Die Forscher merken jedoch an, dass diese Therapiemethode zur Feinabstimmung von LLMs "umfangreiche" Daten und menschliche Aufsicht erfordert.

Die Autoren der Studie erklären, dass menschliche Therapeuten im Gegensatz zu den LLMs lernen, ihre Emotionen zu regulieren, wenn ihre Klienten etwas Traumatisches ausdrücken.

"Während die Debatte darüber, ob LLMs Therapeuten unterstützen oder ersetzen sollten, weitergeht, ist es von entscheidender Bedeutung, dass ihre Reaktionen mit dem bereitgestellten emotionalen Inhalt und den etablierten therapeutischen Prinzipien übereinstimmen", schreiben die Forscher.

Ein Bereich, der ihrer Meinung nach weiter untersucht werden muss, ist die Frage, ob ChatGPT sich mit ähnlichen Techniken wie Therapeuten selbst regulieren können.

Die Autoren fügten hinzu, dass sich ihre Studie auf einen LLM stützte und künftige Forschungen darauf abzielen sollten, die Ergebnisse zu verallgemeinern. Sie merkten auch an, dass die mit dem Fragebogen gemessene Angst "von Natur aus menschenzentriert ist, was seine Anwendbarkeit auf LLMs möglicherweise einschränkt".