Focus: KI in der Psychotherapie

KI-Chatbots in der psychischen ­Gesundheit: Chancen und Risiken

Uhr
von Karin A. Stephan, Earkick

KI-gestützte Chatbots sind längst im Alltag angekommen. Sie bieten psychische Unterstützung auf Abruf, personalisiert, anonym, niedrigschwellig und kostengünstig. Wer heute unter Druck ­gerät, googelt nicht nur, sondern spricht mit einem Bot. Aber Bot ist nicht gleich Bot.

Karin A. Stephan, Chief Operating ­Officer, Mitgründerin, Earkick. (Source: zVg)
Karin A. Stephan, Chief Operating ­Officer, Mitgründerin, Earkick. (Source: zVg)

Zu den häufigsten Anwendungsfeldern generativer KI zählen mittlerweile «Therapie» und «Companionship». Erste Studien zeigen, dass spezialisierte Systeme durchaus Wirkung entfalten können, etwa durch verhaltenstherapeutische Techniken und gezielte Stressbewältigung. Der Markt wächst rasant.

Mit der Verbreitung steigen auch die Risiken: Systeme, die primär auf Verweildauer oder Werbeeinnahmen optimiert sind, können in akuten Situationen problematisch werden. Fehlfunktionen, Datenschutzlücken, Halluzinationen oder emotionale Beeinflussung sind real. Allgemeine KI-Modelle wie ChatGPT oder Entertainment-Plattformen wie Character.ai sind daher nicht für die psychische Gesundheit gemacht und sollten auch nicht dafür eingesetzt werden.

Regulierung hinkt dem Fortschritt hinterher

In den USA agieren Mental-Health-Bots meist ausserhalb klassischer Zulassungsverfahren. Auch in Europa fehlen vielerorts klare Standards. Die KI-Verordnung schafft erste Rahmenbedingungen und die Schweiz präzisiert Anforderungen an medizinische Software. Doch das Innovationstempo bleibt viel höher als das der Regulierung.

Gleichzeitig wenden sich Millionen Menschen aus echter Überforderung KI-Bots zu. In den USA stieg die Suizidrate bei Jugendlichen seit 2007 um 62 Prozent. 40 Prozent der Schülerschaft berichten von Hoffnungslosigkeit. Auch in der Schweiz wächst der Bedarf enorm. Die KI-Bots für Mental Health überbrücken also reale Versorgungslücken, etwa nachts, zwischen Therapieterminen oder auf zu langen Wartelisten. Bis 2033 soll ihr Marktvolumen von 1,88 auf 7,57 Milliarden US-Dollar steigen.

Welche Systeme begegnen uns?

  • Regelbasierte Chatbots: klinisch getestet, aber oft starr
  • Generative Allzweck-KIs: flüssig, aber ungesichert
  • Spezialisierte Mental-Health-Modelle: mit psychologischen Leitlinien
  • Companion- und Entertainment-Bots: emotional unterstützend, aber mit Abhängigkeitsrisiko

Ergänzend gibt es hybride Set-ups mit Fachpersonen und Tools, die zur Erstberatung oder Triage eingesetzt werden. Entscheidend bleibt: Zweck, Kontext und Datenfluss müssen klar definiert sein.

Wirksamkeit braucht Akzeptanz und Nutzung

Ein System kann noch so klinisch solide sein: Wenn es niemand nutzt, bleibt es gut gemeint. Umgekehrt können populäre, aber unsichere Systeme ernsten Schaden anrichten. In suizidalen Kontexten sind Fehlreaktionen dokumentiert und erste Klagen laufen. 

Nachhaltig positive Wirkung entsteht erst dann, wenn Tools so spannend sind, dass Menschen sie gern und regelmässig nutzen. Sie müssen sich verstanden fühlen, die Inhalte relevant und die Übungen wirksam finden.

Der ideale KI-Chatbot findet breite Akzeptanz. Heutzutage muss er radikal privat, klinisch tragfähig und so überzeugend im Erlebnis sein, dass er mit den fesselndsten Unterhaltungsmodellen mithalten kann. Er begleitet zuverlässig und interveniert, lange bevor Symptome pathologisch werden. Und er dient als Brücke zur Versorgung, als Ergänzung der Behandlung oder als Rückhalt im stressigen Alltag.

 

Webcode
VSPS5L2m