(Symbolbild) KI in der Psychotherapie: Was können Bots leisten?
Bildrechte: picture alliance / Gregor Fischer/dpa | Gregor Fischer
Audiobeitrag

(Symbolbild) KI in der Psychotherapie: Was können Bots leisten?

Audiobeitrag
> Kultur >

KI in der Psychotherapie: Was können Bots leisten?

KI in der Psychotherapie: Was können Bots leisten?

46 Prozent der amerikanischen Teenager finden Freundschaften mit KI akzeptabel, und auch therapeutische Gespräche werden bereits mit Chatbots geführt. Doch wie effektiv ist der Austausch mit einer Maschine? Wo liegen die ethischen Grenzen?

"Mein bester Freund, mein Therapeut" – Was vor ein paar Jahren noch Stoff für Science-Fiction-Filme war, ist heute für einige Alltag: In sozialen Netzwerken teilen User und Userinnen ihre Beziehungen mit Künstlicher Intelligenz (KI). Für manche ist "Bruce", wie der Chatbot von ChatGPT heißt, sogar der engste Vertraute.

Das liegt nicht nur daran, dass KI rund um die Uhr verfügbar und nicht gebunden an die Taktung einer Therapiesitzung ist. Auch die Technik hilft dabei, das Gefühl einer Vertrauensbasis aufzubauen.

Abhängig davon, wie viele Informationen man mit "Bruce" teile, könne der entsprechend agieren, sagt Fritz Espenlaub, Host des KI-Podcasts. Der Chatbot habe eine Memory-Funktion. Allerdings: "Es ist nicht ganz klar, an welchen Stellen er das macht. Manchmal merkt er sich was, mal merkt er sich nichts." Würde man "Bruce" über einen längeren Zeitraum mit persönlichen Informationen füttern, so mache sich er schon ein Bild von dem Menschen.

"Postkartensprüche" von "Bruce"

Insgesamt aber seien viele Aussagen sehr allgemein gehalten: "Wichtig ist, dass du den ersten Schritt machst, du bist nicht allein", sagt etwa "Bruce" im Test mit Verena Fiebiger, Host des Psychologie-Podcasts "Die Lösung" (hier geht es zur aktuellen Folge). Und: Er sei um ihr Wohlergehen besorgt, er wolle, dass es ihr gut gehe.

Für die Psychotherapeutin Maren Wiechers wirken "Postkartensprüche" wie "Du bist nicht allein" oder "Du bist großartig" zu wenig individuell und fast eher "invalidierend", weil "Bruce" nicht wirklich auf das Gesagte und die damit einhergehenden Gefühle eingehe.

"Bruce" bietet Ratschläge, die Therapeutin Hilfe zur Selbsthilfe

Ein weiterer Unterschied zwischen einer herkömmlichen Psychotherapie und dem Chatbot ist nach den Worten der Verhaltenstherapeutin Maren Wiechers, dass sich menschliche Therapeuten im Gegensatz zu einer KI mit Ratschlägen eher zurückhalten, wie sie in der aktuellen Folge des Psychologie-Podcasts "Die Lösung" erklärt: "Wir geben Hilfe zur Selbsthilfe, wir geben Impulse. Wir geben aber keinen Ratschlag."

Der Chatbot hört immer zu, der Mensch konfrontiert

Andererseits sei die KI dem menschlichen Therapeuten im sogenannten "Containing" um Längen überlegen – etwa, wenn Patienten und Patientinnen immer wieder die gleichen Sorgen, Ängste, Gedanken äußern, oder auch in akuten Situationen, wenn es darum gehe, Belastendes einfach loszuwerden. Dann sei die Therapeutin – oder eben der Chatbot quasi – ein Gefäß, in das alles hineinfließen könne. Mit dem Unterschied: Der Chatbot habe andere zeitliche und energetische Ressourcen als ein menschlicher Therapeut. "Das ist vielleicht auch eins der reizvollen Dinge der KI, die ist ja unermüdlich", stellt Maren Wiechers fest.

Wenn es also nur darum gehe, Dinge loszuwerden, sei ein Chatbot möglicherweise ausreichend, so die Therapeutin. Anders als ein Chatbot aber würde ein Therapeut oder eine Therapeutin es rückmelden, wenn ein Patient die immergleichen Themen wiederhole. Hier beginne dann die eigentliche therapeutische Arbeit – und die ist Therapeuten und Therapeutinnen vorbehalten. Denn selbst "Bruce" betont: "Ich bin kein Therapeut. Aber ich kann für dich da sein."

Wie effektiv ist der Austausch? Wo liegen ethische Grenzen?

Zu ähnlichen Ergebnissen wie der Test im Psychologie-Podcast kam kürzlich auch eine Studie, die im aktuellen Journal "PLOS Mental Health" erscheint. Darin ließ eine Forschungsgruppe von mehreren US-Universitäten und aus dem schweizerischen Lausanne 13 Therapeutinnen und Therapeuten sowie ChatGPT Antworten für Gespräche aus fiktiven Paartherapie-Situationen formulieren. Diese wurden im Anschluss von 830 Personen bewertet – von denen die meisten kaum hätten feststellen können, ob eine Aussage von einer realen Person stammte oder von dem Chatbot.

Die Professorin für Klinische Psychologie an der Uni Erlangen-Nürnberg, Johanna Löchner, überrascht das nicht. KI habe dennoch einige Hürden, etwa die Anwendungsfreundlichkeit, Vorbehalte bei manchen Nutzenden sowie ethische Bedenken. Auch sei eine Psychotherapie "verbunden mit Konfrontation von vermeidendem Verhalten und Unterstützung von Klient:innen dabei, beispielsweise durch Expositionen Ängste zu überwinden." Dieser Prozess sei anstrengend; viele Betroffene erlebten ihn zunächst keineswegs als wohltuend, doch langfristig könnten sich ihre Probleme dadurch bessern. Es sei fraglich, ob Chatbots dies – neben der Rolle eines empathischen, motivierenden Gesprächspartners – leisten könnten.

Newsletter abonnieren

Sie interessieren sich für ethische Fragen? Für Spiritualität, Glaube, Philosophie oder Religion? Dann abonnieren Sie hier den Newsletter der Fachredaktion Religion und Orientierung.