Focus: KI in der Psychotherapie

Wie Chatbots psychische Gesundheit ­fördern – und gefährden

Uhr
(Source: elenabsl / stock.adobe.com)
(Source: elenabsl / stock.adobe.com)

Ob als Nachschlagewerk, Übersetzer oder mittlerweile auch als psychologische Unterstützung: KI-Chatbots sind längst ein fester Bestandteil unseres Alltags. Sie fungieren als personalisierte Unterstützung auf Abruf. Viele wenden sich inzwischen bei Überforderung oder Fragen zur psychischen Gesundheit direkt an die digitalen Helfer, sodass Google oder andere klassische Informationsquellen oft nicht mehr die erste Anlaufstelle sind. 

In der psychotherapeutischen Praxis werfen KI-Chatbots aber auch Fragen nach Nutzen und Grenzen auf. Sie unterstützen bei Dokumentationen oder Zusammenfassungen und können Fachpersonen bei der Planung und Reflexion unterstützen. Gleichzeitig fehlen ihnen aber zentrale Dimensionen der Therapie – etwa emotionale Resonanz und interpersonale Feinheiten. Manuel Zeberli von der Praxis Indivita erläutert in seinem Fachbeitrag, wo die Grenzen der Systeme liegen.

Je häufiger Menschen die digitalen Seelsorger nutzen, desto deutlicher treten auch ihre Risiken hervor: Fehlfunktionen, Datenschutzlücken, Halluzinationen oder emotionale Beeinflussung sind reale Gefahren von Gesundheits-Chatbots, wie Karin Stephan in ihrem Fachbeitrag schreibt. Dennoch wenden sich Millionen von Menschen mit ihren Problemen an KI-Bots. In ihrem Fachbeitrag zeigt Stephan auf, welche Systeme uns bereits begegnen und wie es um ihre Wirksamkeit steht. Denn neben Risiken rücken auch ihre möglichen Chancen in den Blick. Die virtuellen Begleiter können Wissen über psychische Erkrankungen bereitstellen, bei Verhaltenstherapien begleiten und beim Symptommonitoring unterstützen. 

In der Therapie dürfte KI jedoch nicht zum alleinigen Akteur werden. Die Zusammenarbeit von Psychologen, Therapeuten, KI-Expertinnen und Ethikern ist essenziell. Mental-Health-Bots können als Brücke zwischen Therapiesitzungen dienen und dabei unterstützen, erlernte Techniken zu festigen, wie Kerstin Denecke von der Berner Fachhochschule im Interview ausführt. Den Usern muss aber zu jeder Zeit bewusst sein, dass es sich um vorprogrammierte Systeme handelt und nicht um echte Menschen – denn KI stösst dort an Grenzen, wo Menschlichkeit und empathisches Handeln notwendig sind.

Webcode
YZFLLrot