Springe direkt zu Inhalt

Was passiert, wenn Maschinen uns therapieren?

Wie wirksam sind digitale Therapien? Und sind sie ethisch vertretbar? – Aus der Reihe: Was sagt die Wissenschaft?

04.05.2026

Was sagt die Wissenschaft? Algorithmen können Therapeut*innen gut unterstützen. Vorausgesetzt, es gibt klare ethische Regeln und transparente Technik, sagt Christine Knaevelsrud.

Was sagt die Wissenschaft? Algorithmen können Therapeut*innen gut unterstützen. Vorausgesetzt, es gibt klare ethische Regeln und transparente Technik, sagt Christine Knaevelsrud.
Bildquelle: erstellt mit KI

In der Psychotherapie werden zunehmend digitale Technologien eingesetzt. In der Routineversorgung spielen schon heute softwarebasierte Programme eine wichtige ergänzende Rolle, etwa internet- und appgestützte Ansätze. Die Wirksamkeit solcher digitalen Methoden ist sehr gut belegt.

Eine neuere Entwicklung sind KI-gestützte Chatbots, die mithilfe natürlicher Sprachverarbeitung über große Sprachmodelle (LLMs) Gespräche führen können, die an therapeutische Dialoge erinnern. Diese Systeme reagieren flexibel auf das, was Nutzerinnen und Nutzer eingeben und geben personalisierte Rückmeldungen oder Handlungsempfehlungen.

Der Bedarf scheint groß, wie aktuelle Umfragen zeigen. Wie das aussieht?

Bei einer leichten Depression könnten zum Beispiel jeden Tag kurze Dialoge, in denen nach der aktuellen Stimmung gefragt wird, angeboten werden und einfache Übungen: zur Selbstreflexion etwa oder dazu, wie der Alltag aktiv gestaltet werden kann. Die Nutzerinnen und Nutzer notieren ihre Gedanken und erhalten Rückmeldungen von dem KI-gestützten Chatbot.

Die Vorteile: Solche Angebote sind jederzeit verfügbar: rund um die Uhr, weltweit. Es gibt kein Gegenüber, das urteilt, und die Hemmschwelle, sich zu offenbaren, ist geringer.

Prof. Dr. Christine Knaevelsrud

Prof. Dr. Christine Knaevelsrud
Bildquelle: Bernd Wannenmacher

Prof. Dr. Christine Knaevelsrud ist Professorin für Klinisch-Psychologische Intervention. Sie leitet den gleichnamigen Arbeitsbereich am Fachbereich Erziehungswissenschaft und Psychologie der Freien Universität Berlin. 

Aber es gibt auch Nachteile

KI-Algorithmen besitzen kein Bewusstsein, keine Empathie und kein Verständnis für komplexe menschliche Lebensgeschichten. LLMs erzeugen auf der Basis von Trainingsdaten und statistischen Wahrscheinlichkeiten Texte, die sprachlich korrekt klingen, inhaltlich aber falsch sein können, sogenannte Halluzinationen. Und es bedeutet auch: Wie bei allen KI-vermittelten Informationen und Daten können auch die quasi-therapeutischen Chatbot-Antworten verzerrt sein.

Hinzu kommen grundlegende rechtliche und ethische Fragen: Wie werden sensible Gesundheitsdaten geschützt? Wie transparent sind algorithmische Entscheidungen? Wer trägt Verantwortung bei Fehleinschätzungen oder in Krisensituationen?

Aus wissenschaftlicher Sicht gilt daher: Algorithmen dürfen Menschen nicht ersetzen, sie dürfen sie aber unterstützen – unter der Voraussetzung klarer ethischer Regeln und Grenzen, transparenter Technik und mit dem Ziel, die Gesundheitsversorgung zu verbessern.

Weitere Informationen

Was sagt die Wissenschaft? In dieser Reihe antworten Forschende der Freien Universität Berlin auf Fragen unserer Zeit. Alle bisher erschienenen Beiträge finden Sie hier

Dieser Beitrag ist zuerst am 21. Februar 2026 erschienen in: Die ZEIT 9/26, Sonderbeilage zum 80. Geburtstag