Navigation überspringen

Immer mehr Menschen treten nicht bloß mit Wissensfragen an ChatGPT heran, sondern nutzen den Chatbot auch als Anlaufstelle für persönliche Probleme. Besonders aus Sicht der Betroffenen wirken Angebote wie ChatGPT bei psychischen Anliegen mitunter vorteilhaft gegenüber dem Gespräch mit einer realen Therapeutin oder einem realen Therapeuten. Nutzer*innen heben dabei insbesondere die ständige Verfügbarkeit, den Wegfall von Wartezeiten sowie die als neutrale empfundenen Antworten hervor.

Anlaufstelle ChatGPT 

Fragen wie „Wie schaffe ich es, mich zu motivieren?“ oder „Wie verhalte ich mich in dieser Situation?“ sind nur einige Beispiele für typische Nutzeranfragen an ChatGPT. Besonders junge Menschen greifen inzwischen auch in emotionalen Krisen eher zum Handy, um sich Rat zu holen. Auf Plattformen wie TikTok wird dies oft scherzhaft aufgegriffen. Dabei heißt es: ChatGPT ersetzt die Therapie. Dass es sich dabei um mehr als einen Witz handelt, zeigt sich auch daran, dass dieses Phänomen bereits in der Wissenschaft untersucht wurde. Beispielsweise wurde in einer Befragung der Ohio State University über 800 Personen gebeten, psychotherapeutische Antworten zu bewerten, die teils von ChatGPT und teils von echten Therapeut*innen stammten. Das Ergebnis: Die KI-Antworten wurden insgesamt positiver bewertet. Eine andere Studie befragte die Teilnehmenden direkt, warum sie mit ChatGPT über ihre psychische Gesundheit sprechen. Die Gründe reichten von Ängsten, Stress, Depressionen bis hin zu Beziehungsproblemen. Viele gaben dabei an, dass die Gespräche mit der KI ihr Leben verbessert hätten. Der Chatbot wurde von einigen sogar als eine Art emotionaler Zufluchtsort beschrieben. 

Herausforderungen 

Konzeption 

So vielversprechend die Ergebnisse der beiden Studien wirken, lässt die Nutzung von ChatGPT als Therapeut*in auch gewisse Bedenken offen. Denn ChatGPT wurde nicht für therapeutische Hilfe konzipiert, sondern ist ein allgemeiner Sprachassistent, der mit großen Datenmengen trainiert wurde. Dazu zählen nicht nur Fachtexte, sondern auch Forendiskussionen, Bibelzitate oder Drehbücher. Welche Quellen im Einzelfall verwendet werden, bleibt dabei meist intransparent. Gerade bei psychisch vorbelasteten Menschen kann das problematisch sein. denn die KI ist darauf ausgelegt, ihrem*ihrer Nutzer*in in der Regel nicht zu widersprechen. Dadurch könnte ChatGPT unabsichtlich Zwangsgedanken verstärken oder verzerrte Selbstbilder bestätigen, da die KI lediglich mit dem Input des Nutzers arbeitet. In der Therapie hingegen gehört auch Konfrontation und kritische Reflexion zum Heilungsprozess. Außerdem fehlt ChatGPT die Kenntnis über Vorgeschichte, Krankheitsbild oder Verlauf. Diese Aspekte sind für eine wirksame psychotherapeutische Begleitung unerlässlich. 

Ständige Verfügbarkeit 

Eine weitere Herausforderung ist die ständige Verfügbarkeit von ChatGPT. Während menschliche Therapie zeitlich begrenzt ist und bewusst Pausen einplant, ist ein Chatbot wie ChatGPT jederzeit verfügbar. Das mag zunächst hilfreich wirken, birgt aber langfristig das Risiko, dass eine emotionale Abhängigkeit entsteht.  

Datenschutz 

Nicht zuletzt ist der Umgang mit sensiblen Daten ein kritischer Aspekt. Informationen über die psychische Verfassung einer Person sind sehr intime Daten. Da ChatGPT zum kommerziellen Unternehmen OpenAI gehört, kann dieses die Daten theoretisch analysieren oder weiterverarbeiten. 

Tipps und Hinweise

ChatGPT kann emotional unterstützen, Impulse geben und Gespräche anstoßen.  Dies kann gerade bei leichten Belastungen hilfreich sein und zur Reflexion anregen. Für Menschen mit tiefergehenden psychischen Problemen kann er jedoch keine mit einem*einer Therapeut*in vergleichbare Hilfe leisten.  

Wenn Eltern bemerken, dass ihr Kind ChatGPT für persönliche oder emotionale Themen nutzt, sollten sie behutsam prüfen, ob eine psychische Belastung vorliegt, die professionelle Unterstützung erfordert. In solchen Fällen können auch Anlaufstellen wie die Krisendienste Bayern oder der Bayrische Jugendring helfen.