Künstliche Intelligenz in der Psychotherapie: ethische Herausforderungen und praktische Konsequenzen
Autor:innen:
Dr. med. Johann-Philipp Horstmann1
Dr. med. Nehal Abdelazim-Horstmann2
1 Psychiatrie St. Gallen1
Sanatorium Kilchberg Zürich2
Psychiatrische Universitätsklinik (PUK) Zürich
Künstliche Intelligenz (KI) verändert die psychotherapeutische Praxis. Sie kann Zugang und Effizienz verbessern, birgt für Fachkreise jedoch die Herausforderung, die eigene Profession grundlegend überdenken zu müssen. Hierbei scheint es notwendig, sich einerseits eigene Interessenkonflikte bewusst zu machen und andererseits festzuhalten, warum KI menschliche Fachpersonen nicht ersetzen können wird. Dieser Beitrag zeigt auf, welche ethischen Rahmenbedingungen für den Einsatz von KI erfüllt sein müssen. Damit formuliert er Prinzipien für einen verantwortungsvollen und transparenten Einsatz von KI in der Psychotherapie.
Keypoints
-
KI zieht zunehmend in die Psychotherapie ein. In ersten Studien zeigen sich positive Ergebnisse. Dabei scheint das Wissen, ob eine KI involviert war, einen Einfluss auf die Bewertung der Proband:innen zu haben.
-
Neben der Sorge vor einer unkritischen Verwendung von KI im Therapiealltag besteht die Sorge vor Verdrängung durch KI. Demgegenüber steht die therapeutische Pflicht, das Wohlbefinden der Patient:innen zu fördern und gesellschaftliche Ressourcen zu schonen.
-
Rechtlich darf keine Maschine die Verantwortung für therapeutische Leistungen übernehmen, sondern es muss immer eine zugelassene Fachperson dahinterstehen.
-
Im Sinne einer Interpretierbarkeit ist es nötig, dass Nutzer:innen nachvollziehen können, wie eine KI zu einem Ergebnis kommt. Je effektiver eine KI ist, desto weniger ist das jedoch der Fall.
-
Vieles spricht dafür, dass KI Psychotherapeut:innen nicht ersetzen, sondern eher ergänzen wird. Dennoch müssen dabei verschiedenste Risiken bedacht werden, sodass es zu keinem Vertrauensverlust in Bezug auf menschliches Fachpersonal kommt oder bestehende Ungleichheiten in der psychischen Gesundheitsversorgung verstärkt werden.
KI drängt in die Psychotherapie
Künstliche Intelligenz (KI) hat im Gesundheitswesen enorme Fortschritte gemacht, und die Psychotherapie ist dabei keine Ausnahme. Obwohl noch in den Anfängen, zeigt KI vielversprechende Ergebnisse in Diagnostik und Therapie. Studien berichten, dass konversationsbasierte KI-Systeme Symptome von Depression und emotionaler Belastung reduzieren können.1–3 In einigen Fällen wurden KI-generierte Dialoge von Betroffenen genauso gut oder sogar besser bewertet als die mit menschlichen Behandelnden; bis die Teilnehmenden erfuhren, dass sie maschinell generiert waren, woraufhin die Bewertung sank.4
Mit zunehmender Leistungsfähigkeit der KI werden Annahmen über die einzigartig menschliche Natur therapeutischer Beziehungen infrage gestellt.5 In diesem Zusammenhang hat der Präsident der Zentralen Ethikkommission der Schweizerischen Akademie der Medizinischen Wissenschaften (SAMW) kürzlich betont, dass KI zwar eine wertvolle Hilfe in der medizinischen Praxis sein kann, aber niemals die therapeutische Beziehung gefährden darf.6 Er warnt davor, Algorithmen ein ungerechtfertigtes Mass an Vertrauen zu schenken, und unterstreicht die unersetzliche Rolle des intersubjektiven Dialogs in der Medizin. Solche Perspektiven machen deutlich, dass ethische Überlegungen zur KI sich nicht auf technische Fehlerfreiheit beschränken dürfen, sondern auch den dialogischen Kern der Therapie berücksichtigen müssen.
Es ist daher nicht verwunderlich, dass sich in Psychotherapiekreisen Widerstand gegen KI bemerkbar macht. Als der Deutsche Ethikrat im Jahr 2023 die Psychotherapie als besonders anfällig für eine Substitution durch KI identifizierte, folgte rasch eine Gegendarstellung der Deutschen Gesellschaft für Psychologie (DGP) mit dem Titel «KI-basierte Systeme als Ersatz für Psychotherapie? Ein klares Nein!».7,8 Dementsprechend zeigte eine kürzlich in Deutschland durchgeführte Umfrage breite Skepsis unter Fachleuten für psychische Gesundheit auf, die die Autor:innen u.a. auf Angst vor Verdrängung und Erosion der therapeutischen Identität zurückführten.9 Diese Tendenz zur Ablehnung von KI verdient ebenso viel Aufmerksamkeit wie die Frage, wie KI verantwortungsvoll in die tägliche Praxis integriert werden kann.
Ein Interessenkonflikt
Die Versuchung, neue Technologien abzulehnen, weil sie Arbeitsplätze bedrohen, ist menschlich verständlich, aber berufsethisch problematisch. Wenn KI Arbeitsbelastung reduzieren, Qualität verbessern und Hindernisse für unterversorgte Gruppen abbauen kann, steht die Ablehnung zum Schutz beruflicher Interessen im Widerspruch zur therapeutischen Pflicht, das Wohlbefinden von Patient:innen zu fördern und gesellschaftliche Ressourcen zu schonen.10,11
Zwar sind Bedenken hinsichtlich Qualität, Sicherheit und menschlicher Würde bei KI-gestützten Therapien berechtigt, doch müssen diese klar von Bedenken hinsichtlich der Erhaltung des Berufsstandes getrennt werden.12 Gleichzeitig bestehen gewichtige Gründe, warum menschliche Fachkräfte auf absehbare Zeit für die psychische Gesundheitsversorgung unverzichtbar bleiben werden.
Wer trägt die Verantwortung?
Der Einsatz von KI in der Therapie wirft die Frage nach der Verantwortlichkeit innerhalb der Behandlung auf. Diese sogenannte «responsibility gap» entsteht, wenn Verantwortlichkeiten nicht klar definiert sind, und birgt die Gefahr, dass Betroffenen im Falle eines medizinischen Fehlers ihr Recht auf Entschädigung verweigert wird.12,13 Um dieses Recht zu schützen, haben die meisten Länder den Grundsatz der persönlichen Verantwortung in ihren Berufsgesetzen und medizinischen Standards verankert.10,11,14–16
So sehen beispielsweise sowohl die schweizerischen als auch die deutschen Gesetze zur Regelung der Psychotherapie vor, dass diagnostische und therapeutische Entscheidungen von einer zugelassenen Fachperson, d.h. einem Menschen, getroffen werden müssen.14,15 Die Übertragung der klinischen Verantwortung auf eine Maschine verstösst gegen diese gesetzliche Anforderung der persönlichen Verantwortlichkeit und macht vollständig autonome Systeme in der Psychotherapie sowohl ethisch als auch rechtlich unzulässig. Entsprechendes wurde bereits von der Schweizerischen FMH in ihrem Positionspapier zur Anwendung von KI im Gesundheitswesen allgemein festgehalten.17 Allein aus diesem Grund der Verantwortungsübernahme werden Psychiatrie und Psychotherapie demnach weiterhin auf menschliches Fachwissen angewiesen sein.
Im Gegensatz zu vollständig autonomen Systemen arbeitet assistive KI mit menschlichen Therapeut:innen zusammen. Anwendungsbeispiele finden sich in der Diagnosefindung, der Erstellung von Behandlungsplänen, der Monitorisierung von Symptomen und der Hilfe bei Übungen zu Hause. Hier verbleibt die Verantwortung ausschliesslich bei der menschlichen Fachperson.7,12
Da diese Art der Zusammenarbeit das Risiko birgt, dass KI-Vorschläge von menschlichen Behandelnden unkritisch übernommen werden, müssen Fachpersonen sich der Gefahren einer allmählichen Verwässerung ihrer Verantwortung bewusst sein. Sie müssen ihre Verantwortung daher nicht nur formal, sondern auch tatsächlich wahrnehmen.18 Beispielsweise müssen Therapeut:innen wachsam bleiben bezüglich der Diskriminierung durch algorithmische Voreingenommenheit oder gegenüber dem Risiko von KI-Fehlern, den sogenannten KI-Konfabulationen oder -Halluzinationen.12,19,20
Dabei erfordert die Übernahme von Verantwortung, dass Kliniker:innen die Beiträge der KI kritisch überprüfen können, bevor sie diese in die Patientenversorgung integrieren.7,12 Damit dies möglich ist, müssen KI-Systeme so konzipiert sein, dass ihre Bewertungen von Menschen nachvollzogen und in Kontext gesetzt werden können, was mit der Notwendigkeit der Interpretierbarkeit von KI gleichzusetzen ist.7,12,21
Interpretierbarkeit
Interpretierbarkeit bedeutet in diesem Zusammenhang, dass KI-Nutzer:innen, wenn auch ohne vollständiges Verständnis über den genauen algorithmischen Prozess, dennoch die Gründe für das Ergebnis nachvollziehen können. Dies ist eine unverzichtbare Eigenschaft, ohne die keine echte Verantwortungsübernahme möglich ist.21 Im Allgemeinen gilt jedoch: Je effektiver eine KI ist, desto weniger interpretierbar ist sie, und umgekehrt.7,22,23 Dieser technische Zielkonflikt spiegelt einen aus der Prinzipienethik bekannten Prinzipienkonflikt wider: Fürsorge (Maximierung des Wohlergehens) versus Autonomie (informierte Entscheidungen treffen).24 Hier muss jede medizinische Ethik, die sich als Garant der Autonomie ihrer Patient:innen versteht, der gesicherten Interpretierbarkeit Vorrang einräumen, auch wenn dies eine geringere Effektivität einer KI mit sich bringt.7,21 Darüber hinaus müssen medizinische KI-Systeme den gleichen Prozess der kontinuierlichen Bewertung durchlaufen, der für andere medizinische Geräte gilt, einschliesslich einer regelmässigen Neubewertung der Sicherheit und Wirksamkeit.25,26
Um jedoch dem oben genannten Risiko der Verantwortungsdiffusion sicher vorzubeugen, reicht die alleinige Forderung nach Interpretierbarkeit einer KI nicht aus. Sie muss mit der Forderung an Therapeut:innen einhergehen, dass diese die Fähigkeit zur Interpretation und Überprüfung der Schlussfolgerungen ihres KI-Assistenten routinemässig anwenden.
Transparenz
Obwohl die Toleranz von Patient:innen gegenüber KI noch weitgehend unerforscht ist, muss erwartet werden, dass sich einige mit dem Einbezug einer KI in ihre Therapie unwohl fühlen werden. Das gilt insbesondere angesichts der Beobachtung, dass Dialoge schlechter bewertet werden, wenn sie als KI-generiert deklariert wurden.4,9,12 Es versteht sich von selbst, dass Patient:innen das Recht haben müssen, den Einsatz von KI in ihrer Behandlung abzulehnen, was jedoch voraussetzt, dass sie über deren Einbezug informiert sind. Da Transparenz für autonome Entscheidungen unerlässlich ist, erscheint auch die Offenlegung des Einsatzes von KI zwingend erforderlich. Mindestens sollten Therapeut:innen sowie Institutionen die Patient:innen vorgängig über den Umfang des Einsatzes orientieren und eine allgemeine Einwilligung dazu einholen, bevor sie eine KI in die Therapie einbeziehen.
Der menschliche Faktor
Parallel zur Frage der Verantwortlichkeit sind sich die meisten Autor:innen einig, dass KI den Menschen in der Psychotherapie nicht ersetzen kann, da Empathie und Vertrauen Merkmale der Therapie sind, die sich einer Automatisierung entziehen.5,12,13,27 Ob diese Einschränkungen dauerhaft sind, ist ungewiss, aber auf absehbare Zeit wird KI die vom Menschen geleitete Therapie wahrscheinlich eher ergänzen als ersetzen.3,12,27 In dieser Hinsicht wäre es eine gefährliche Entwicklung, wenn Entscheidungsträger aus wirtschaftlichen Gründen die menschliche Therapie schrittweise durch KI ersetzen. Eine solche Substitution könnte zu einem zweigeteilten Versorgungssystem führen, in dem benachteiligte Personen eine stark KI-abhängige Versorgung erhalten, während zwischenmenschliche Interaktion innerhalb einer Therapie zum Luxus wird.21 Ein weiteres Risiko entsteht dann, wenn die Tendenz, automatisierten Prozessen mehr Vertrauen zu schenken als menschlichen Fähigkeiten (der sog. Automatisierungsbias), zu einem Vertrauensverlust in von menschlichen Fachkräften durchgeführten Behandlungen führt.13 Frühe Analysen warnen daher davor, dass die unkritische Ersetzung etablierter Dienstleistungen durch KI bestehende Ungleichheiten in der psychischen Gesundheitsversorgung verschärfen und das Vertrauen in die etablierte menschliche Versorgung untergraben könnte.13,21,28 Die Skepsis, mit der KI in Fachkreisen betrachtet wird, scheint somit nicht völlig unangebracht zu sein.
Fazit
Es darf nicht übersehen werden, in welchem Masse die Fortschritte der KI die psychotherapeutische Fachwelt einem Interessenkonflikt aussetzen. Wenn eine neue Technologie einen Beruf überflüssig zu machen droht, ist es verständlich, wenn auch problematisch, dass sie aus Gründen abgelehnt wird, die nichts mit dem Wohl der Patient:innen zu tun haben. Daher ist es unerlässlich, dass der Verbreitung der KI in der Psychotherapie mit der Bereitschaft begegnet wird, sich die erforderlichen Fähigkeiten anzueignen, um diese leistungsstarken neuen Instrumente sicher und verantwortungsvoll einzusetzen. Es bedarf auch bei limitiertem Einsatz von KI des expliziten Einverständnisses der Patient:innen. Ein unvoreingenommener Diskurs zwischen Therapeut:innen und Betroffenen sowie politischen Entscheidungstragenden über die Chancen und Risiken von KI und die Rolle menschlicher Fachpersonen in KI-assistierter Therapie erscheint dringend notwendig.
Literatur:
1 Kuhail MA et al.: Human-human vs human-AI therapy: an empirical study. International Journal of Human–Computer Interaction 2024; 41(11), 6841-52 2 Heinz MV et al.: Evaluating therabot: a randomized control trial investigating the feasibility and effectiveness of a generative AI therapy chatbot for depression, anxiety, and eating disorder symptom treatment. PsyArXiv 2024 (Preprint), https://doi.org/10.31234/osf.io/pjqmr 2024 3 Li H et al.: Systematic review and meta-analysis of AI-based conversational agents for promoting mental health and well-being. NPJ Digit Med 2023; 6(1): 236 4 Cavalier JS et al.: Ethics in patient preferences for artificial intelligence–drafted responses to electronic messages. JAMA Netw Open 2025; 8(3): e250449 5 Sedlakova J, Trachsel M: Conversational artificial intelligence in psychotherapy: a new therapeutic tool or agent? Am J Bioeth 2023; 23(5): 4-13 6 Hoff P: Ethik in der Medizin: Fortschritt und medizinethische Herausforderung. Schweizerische Ärztezeitung (säz) 2025; 27 online verfügbar unter: https://www.fmh.ch/politik-medien/schweizerische-aerztezeitung/ausgabe-27/ausgabe-27-ethik-in-der-med.cfm#i206196 7 Deutscher Ethikrat: Mensch und Maschine - Herausforderungen durch Künstliche Intelligenz. Stellungnahme vom 20.3.2023; Berlin, 1-403 8 Deutsche Gesellschaft für Psychologie e.V.: Stellungnahme der Deutschen Gesellschaft für Psychologie auf die Schrift des Deutschen Ethikrates zu «Mensch und Maschine - Herausforderungen durch Künstliche Intelligenz». KI-basierte Systeme als Ersatz für Psychotherapie? Ein eindeutiges Nein! 2023; Berlin, 1-4. online abrufbar unter: https://www.dgps.de/fileadmin/user_upload/PDF/Stellungnahmen/DGPs-Stellungnahme-Ethikrat_202327 03.pdf 9 Wagner J, Schwind AS: Investigating psychotherapists’ attitudes towards artificial intelligence in psychotherapy. BMC Psychol 2025; 13(1): 719 10 Bundesärztekammer: (Muster-)Berufsordnung für die in Deutschland tätigen Ärztinnen und Ärzte. MBÖ-Ä 1997 -*) in der Fassung des Beschlusses des 128. Deutschen Ärztetages vom 9. Mai 2024 in Mainz. Deutsches Ärzteblatt 2024; A1-9; 10.3238/arztebl.2024.mbo_daet2024 11 Foederatio Medicorum Helveticorum (FMH). Standesordnung der FMH. 1996, Revision vom 8.6.2023 12 Rahsepar Meadi M et al.: Exploring the ethical challenges of conversational AI in mental health care: scoping review. JMIR Ment Health 2025; 12: e60432 13 Herbener AB et al.: A critical discussion of strategies and ramifications of implementing conversational agents in mental healthcare. Computers in human behavior: Artificial Humans 2025; 5: 100182 14 Deutscher Bundestag: Gesetz über den Beruf der Psychotherapeutin und des Psychotherapeuten (PsychThG). 2020 15 Die Bundesversammlung der Schweizerischen Eidgenossenschaft. Bundesgesetz über die Psychologieberufe (PsyG). 2011 16 Die Bundesversammlung der Schweizerischen Eidgenossenschaft. Bundesgesetz über die universitären Medizinalberufe (MedBG). 2006 17 Foederatio Medicorum Helveticorum (FMH): Künstliche Intelligenz im ärztlichen Alltag. Einsatzgebiete in der Medizin: Nutzen, Herausforderungen und Forderungen der FMH. Bern, 2022; 1-44 18 Naik N et al.: Legal and ethical consideration in artificial intelligence in healthcare: who takes responsibility? Front. Surg 2022; 9: 862322 19 Zhou J et al.: Integrating AI into clinical education: evaluating general practice trainees’ proficiency in distinguishing AI-generated hallucinations and impacting factors. BMC Med Educ 2025; 25(1): 406 20 Aljamaan F et al.: Reference hallucination score for medical artificial intelligence chatbots: development and usability study. JMIR Med Inform 2024; 12: e54345 21 Fiske A et al.: Your robot therapist will see you now: ethical implications of embodied artificial intelligence in psychiatry, psychology, and psychotherapy. J Med Internet Res 2019; 21(5): e13216 22 Markus AF et al.: The role of explainability in creating trustworthy artificial intelligence for health care: a comprehensive survey of the terminology, design choices, and evaluation strategies. J Biomed Inform 2021; 113: 103655 23 Ghassemi M et al.: The false hope of current approaches to explainable artificial intelligence in health care. Lancet Digit Health 2021; 3(11): e745-50 24 Beauchamp TL, Childress JF: Principles of biomedical ethics. 9th Edition. New York: Oxford University Press, 2019; 1-512 25 The European Parliament and the Council of the European Union: Verordnung 2017/ 745 über Medizinprodukte. 2017 26 Der Schweizerische Bundesrat: Medizinprodukteverordnung (MepV). 2020 27 Rebelo AD et al.: The impact of artificial intelligence on the tasks of mental healthcare workers: A scoping review. Computers in Human Behavior: Artificial Humans 2023; 1: 100008 28 European Commission, Directorate General for Health and Food Safety: Study on the deployment of AI in healthcare. Final Report. Luxemburg: Publications Office of the European Union, 2025; 1-241
Das könnte Sie auch interessieren:
State of the Art: Diagnose und Behandlung bipolarer Störungen
Derzeit wird die S3-Leitlinie zur Behandlung bipolarer Störungen überarbeitet, sie soll 2026 in Form einer neuen Living-Guideline erscheinen. Beim Kongress der Deutschen Gesellschaft für ...
Im Gespräch mit Primar Prof. Dr. Alex Hofer über die Zukunft der Schizophreniebehandlung
Univ.-Prof. Dr. Alex Hofer arbeitet bereits seit 30 Jahren mit Schizo-phreniepatient:innen. Ihn fasziniert, welche positive Einstellung zum Leben viele Patient:innen – trotz Stigma und ...
Entwicklung der Suizidraten bei Kindern, Jugendlichen und jungen Erwachsenenin der Schweiz
Die Suizidraten bei männlichen Jugendlichen und jungen Erwachsenen sanken in den 1980er- und 1990er-Jahren und stagnieren seither bei den Jugendlichen von 10–17 Jahren, während sie bei ...