Revolutioniert KI die Psychotherapie? Eine kritische Betrachtung
Künstliche Intelligenz hält Einzug in die Psychotherapie. Sie hilft bei der Dokumentation, fasst Sitzungen und Literatur zusammen – doch emotionale Resonanz bleibt ihr verschlossen. Ist Orientierung an den Bedürfnissen eines Individuums mit Verwendung statistischer Approximation vereinbar?

Der Einsatz künstlicher Intelligenz (KI) in der Psychotherapie tangiert nicht nur technische Aspekte wie Effizienz oder Automatisierung. Er wirft auch die grundlegenden Fragen auf, was es bedeutet, Mensch zu sein und wie unser Erleben funktioniert. Ein hierfür hilfreicher Ansatz stammt vom Neurowissenschaftler Donald O. Hebb, der erklärt, wie sich Lernen und somit auch Veränderungen in der Psychotherapie im Gehirn abspielen: durch die gleichzeitige Aktivierung bestimmter Gruppen von Nervenzellen, sogenannter «cell assemblies».
Solche Muster entstehen nicht durch neutrale Information, sondern durch emotional bedeutsames Erleben. Oder mit den Worten aus Vorlesungen des Neuropsychologen Lutz Jäncke: «Sie müssen den (Lern-)Stoff lieben oder hassen – Gleichgültigkeit geht nicht.» Anders als René Descartes glaubte, funktioniert unser Verstand nicht nur mittels Vernunft. Emotionale Beteiligung ist die Voraussetzung für die Entstehung neuer neuronaler Muster und Handlungsmöglichkeiten.
KI in der Praxis
Vor diesem Hintergrund wird beim Einsatz von KI respektive grossen Sprachmodellen (LLMs) in Psychotherapie und Coaching deutlich: Aktuelle KI-Modelle strukturieren Berichte, erstellen Zusammenfassungen, machen sich als Sparringspartner für differenzialdiagnostische Überlegungen nützlich und helfen sowohl Klienten als auch Fachpersonen bei der Selbstorganisation. Emotional mitschwingen kann KI allerdings nicht. Sie erkennt zwar Muster in Texten, aber noch sehr begrenzt in interpersonalen Resonanzräumen – das heisst, es fehlt ein Grossteil des gemeinsamen Raumes, in welchem Gefühle, Bedeutungen und Muster sichtbar werden, die für den therapeutischen Prozess so relevant sind.
Prompting muss gezielt erfolgen und der Kontext muss klar definiert sein, um durch den iterativen «Dialog» zwischen Mensch und Maschine nützliche Ergebnisse zu erzielen. Die Gefahr, bei wenig reflektierter Nutzung KI-generierter Dokumentation oder Diagnostik an den Bedürfnissen eines Individuums vorbeizusteuern und einer nicht durchschaubaren statistischen Approximation zu folgen, ist real.
Praktischer Nutzen und Ethik
Wenn Fachleute aus Informatik, Psychotherapie und Neurowissenschaft gemeinsame Standards entwickeln, kann eine neue Qualität entstehen. In Workshops ausgearbeitete Leitlinien sollen den KI-Einsatz so ausrichten, dass er Veränderungsprozesse gezielt abbildet und unterstützt.
Nachhaltige therapeutische Wirkung entsteht, wo neuronale Netzwerke in Beziehung zu sich und anderen aktiviert und verknüpft werden. Vernunft braucht Gefühl – ohne emotionale Anbindung bleibt Denken leer und entscheidungsschwach. Nicht zu vergessen sind Kontextabhängigkeit menschlichen Wohlergehens und lebenslange Beeinflussung durch soziale und kulturelle Dimensionen. Auch die Stimmung im Sprechzimmer und die im KI-generierten Transkript nicht abgebildeten visuellen und emotionalen Signale gehören berücksichtigt.
Die Fachperson hat es in der Hand, während des iterativen Prozesses diese Dimensionen im Sinne der Gesundheit ihrer Klientel einfliessen zu lassen. Nur so gelingt eine dem Individuum gerecht werdende Gewichtung der KI-gestützten Dokumentation. Wenn so für den Kontakt mit dem Menschen mehr Zeit bleibt, entsteht eine sehr nützliche Ressource, die KI schon heute liefern kann.

Cyberkriminelle lauern Anlagebetrugsopfern auf

Austauschformate: Fundament für interoperable Gesundheitsdaten

Proofpoints‑KI‑Agenten überwachen Mitarbeitenden‑Kommunikation in Echtzeit

Die neue Netzwoche und das IT for Health sind da

Wie der AI+X Summit Zürichs KI-Ökosystem in Bewegung bringt

Wenn alle Tiere rund wären

"Medizin wird präziser, kein Zusammenhang bleibt unentdeckt"

Datensicherheit durch Cloud Computing – ein neues Paradigma für den öffentlichen Sektor

KI im Gesundheitswesen – vom Blackbox-Modell zum verlässlichen Partner
