bvvp - Blog
Welche Fragen treiben Psychotherapeut*innen gerade um? Was müssen sie wissen, wenn sie in den Beruf starten – oder in Zeiten des beruflichen Umbruchs? Unsere bvvp-Blogautor*innen schreiben über alle brisanten Themen – und sind dabei mit Ihnen im Dialog. Einfach im Mitgliederbereich anmelden und mitdiskutieren!
Namentlich gekennzeichnete Blogartikel geben nicht unbedingt die Meinung des bvvp-Bundesvorstands oder der Homepageredaktion wieder.
Den Behandlungsplan schreibt die KI? Ein Gedankenanstoß
- 31. März 2023
- Digitalisierung
- Gesellschaft
- Zukunft
Wir schreiben das Jahr 2023 und ein Szenario, das wir bisher nur aus Filmen kannten, hat sich in unserem Leben etabliert: Künstliche Intelligenz kann uns alle in alltäglichen Dingen unterstützen.
Mit dem Aufkommen von ChatGPT und anderen KI-gestützten Anwendungen eröffnet sich ein neuer Raum von Möglichkeiten, an die man vorher nicht gedacht hätte. Die KI für alle kann nämlich einiges: Fragen beantworten, Geschichten schreiben, kreative Aufgaben übernehmen usw.
Was sie auch kann: psychotherapeutische Berichte und Behandlungspläne schreiben. Ob einen VT-oder einen psychodynamischen Behandlungsplan, ob mit Winnicottschem Vokabular oder mit dem von Bion. Ob die KI das gut kann? Nun ja, je mehr Informationen man ihr gibt, desto bessere Ergebnisse kann sie liefern. Ob eine Gutachterin vielleicht sogar einen KI- geschriebenen Antrag genehmigen würde? Vielleicht ist dies ja bereits passiert. Vielleicht passiert es in diesem Moment. Vielleicht als ganzer Bericht, vielleicht nur als KI-Vorlage zur weiteren Bearbeitung durch einen Menschen.
Doch auch, wenn eine KI solche Aufgaben übernehmen kann und diese Aufgaben möglicherweise „gut“ – im Sinne von inhaltlich richtig – erfüllt: Wäre es denn ethisch vertretbar eine KI solche Aufgaben übernehmen zu lassen? Darf eine KI einen psychotherapeutischen Bericht schreiben?
Es ist wichtig, bei der Nutzung von KI-basierten Tools für psychotherapeutische Zwecke den Datenschutz und ethische Bedenken sorgfältig zu betrachten. Die Verarbeitung von sensiblen Patientendaten durch digitale Anwendungen erfordert besondere Sorgfalt und Vorsicht. Es muss sichergestellt werden, dass diese Daten nicht missbraucht oder in falsche Hände geraten können. Desweiteren sind diese KIs natürlich nicht für die Verarbeitung von sensiblem Datenmaterial ausgelegt, vielmehr vielleicht sogar eher für das Gegenteil, in dem sie nämlich Daten in großem Stil sammeln um Algorithmen zu füttern und vieles mehr.
Darüber hinaus gibt es ethische Bedenken hinsichtlich der Verwendung von KI in der Psychotherapie. Eine grundlegende Voraussetzung der Psychotherapie ist die Vertraulichkeit zwischen Therapeut*in und Patient*in, die durch die Verwendung von KI-basierten Tools gefährdet werden könnte. Es muss also sorgfältig abgewogen werden, welche Art von Informationen von diesen Tools erfasst werden und wer darauf Zugriff hat.
Die Diskussion um den Einsatz von KI in der Psychotherapie ist nicht nur eine Frage der Technologie, sondern auch eine ethisch-philosophische. Sie berührt grundlegende Fragen nach der menschlichen Natur, der Autonomie des Individuums und der Verantwortung der Therapeut*in. Einer der Hauptkritikpunkte an der Verwendung von KI in der Psychotherapie ist die Frage nach der Autonomie der Patient*in. Nicht umsonst ist das Erstellen eines Behandlungsplans ein gemeinsamer Prozess zwischen Patient*in und Therapeut*in, also fragt es sich: wie viel Macht darf man hier einer KI geben? Kann die KI vielleicht auf Daten zugreifen, die einen bestimmten Behandlungsplan sogar ethisch notwendig machen würden? Hat die KI einen Wissensvorsprung und wenn ja, kommt es auf diesen an?
Autonomie ist ein zentraler Begriff der Ethik und bezieht sich auf die Fähigkeit und die Möglichkeiten eines Individuums, seine Handlungen und Entscheidungen frei zu bestimmen. Wenn jedoch eine Maschine die Entscheidungen anhand eines Datensatzes trifft, die normalerweise von einer Patient*in und Therapeut*in getroffen werden, wird dann nicht die Autonomie des Behandlungsbündnisses untergraben? Oder ist es ethisch vertretbar, sich eine Vorlage für einen Bericht schreiben zu lassen um diesen dann nochmal zu überarbeiten? Wären Therapeut*innen durch diese „Vorbeurteilung“ beeinflusst? Würde eventuell ein schlechteres oder besseres Ergebnis erzeugt? Würde der Bericht menschliche Autor*innen in eine ganz andere Richtung lenken, als sie normalerweise eingeschlagen hätten?
Eine weitere philosophische Frage, die sich aus der Verwendung von KI in der Psychotherapie ergibt, betrifft die Verantwortung der Therapeut*innen. Wenn Maschinen die Entscheidungen treffen, die normalerweise von Therapeut*innen getroffen werden, oder zumindest eine Vorlage dafür geben, wer ist dann für die Konsequenzen verantwortlich? Die Behandelnden, die den Plan verwendet haben, oder die Hersteller*innen der KI? Haben Therapeut*innen denn, indem sie sich der KI für Behandlungspläne bedienen, selbst noch einen freien Willen in der Therapieplanung und Durchführung? Oder werden sie zu stark in eine Richtung gelenkt?
Die Verantwortung der Therapeut*innen ist ein zentrales Thema der Ethik der Psychotherapie. Sie besteht darin, sicherzustellen, dass die Behandlung ethisch und professionell durchgeführt wird und dass Patient*innen angemessen behandelt werden. Wenn jedoch eine Maschine für Therapeut*innen Entscheidungen treffen, indem sie etwa eine Art der Behandlung vorgeben – wird dann nicht die Verantwortung von Therapeut*innen untergraben? Oder kommt es immer darauf an, was Therapeut*innen aus den Ideen und Vorschlägen der KIs machen? Dementsprechend: Wenn Sie gerade ein Buch aus einer bestimmten Fachrichtung gelesen haben, sind Sie vielleicht auch von der Lektüre stark beeinflusst, aber Sie haben doch immer noch die freie Wahl, welchen Aspekt Sie tatsächlich in Ihre Arbeit einfließen lassen … Oder doch nicht? Es ist die Frage nach der menschlichen Natur selbst, die sich aus der Verwendung von KI in der Psychotherapie ergibt. Wenn eine Maschine Entscheidungen trifft, die normalerweise von menschlichen Therapeut*innen getroffen werden, wird dann nicht die einzigartige menschliche Erfahrung und Perspektive untergraben?
Die menschliche Natur ist ein zentraler Begriff der Philosophie und bezieht sich auf die grundlegenden Merkmale, die den Menschen als Individuum ausmachen, wie seine Fähigkeit zur Empathie und zur körperlichen Interaktion mit seinem sozialen Umfeld. Wenn eine Maschine diese Fähigkeiten nicht besitzt, kann sie dann wirklich einen erfolgreichen und individuellen Behandlungsplan verfassen?
Auf der anderen Seite könnte man argumentieren, dass KI in der Psychotherapie die menschliche Natur und Kreativität nicht unbedingt untergräbt, sondern sie unterstützen und ergänzen kann. Eine Maschine kann für Therapeut*innen eine Hilfe sein, indem sie auf spezifische Fragestellungen antwortet und andere Sichtweisen aufzeigt. Auch in der Psychotherapieforschung hat die KI bereits Fuß gefasst und wird in Studien eingesetzt. KIs können Voraussagen darüber treffen, welche Patient*innen von welcher Behandlung wahrscheinlich am meisten profitieren, indem sie große Datenmengen auswerten und daraus Empfehlungen ableiten. KIs sind inzwischen sogar in der Lage, Psychotherapie-Kontrollgruppen zu simulieren, was zukünftig für das Forschungsdesign in der Psychologie und Psychotherapie alles ändern würde.
Insgesamt zeigt die Diskussion um die Verwendung von KI in der Psychotherapie, dass es viele komplexe Fragen gibt, die berücksichtigt werden müssen. Während KI in der Psychotherapie Vorteile bietet wie Zeitersparnis oder neue Sichtweisen, gibt es auch viele Bedenken, die diskutiert werden müssen, insbesondere hinsichtlich der Autonomie der Patient*innen, der Verantwortung von Therapeut*innen und der Einzigartigkeit der menschlichen Natur und Kreativität. Auch Humor ist eine Farbe im menschlichen Miteinander, die bislang nur schwer künstlich erzeugt werden kann. Es wird entscheidend sein, dass KI in der Psychotherapie sorgfältig geprüft und reguliert wird, um sicherzustellen, dass sie ethisch und professionell verwendet wird.
Falls Sie sich fragen, wie ein KI-generierter Behandlungsplan aussehen könnte, hier ein Beispiel eines Behandlungsplans im Rahmen einer Verhaltenstherapie, in dem hypothetischen Fall eines 40-jährigen Patienten mit mittelgradiger depressiver Episode und generalisierter Angststörung:
Zuletzt muss ich Ihnen noch ein Geständnis machen:
Das Bild zu diesem Artikel wurde von einer KI generiert und Teile dieses Artikels sind mithilfe einer KI entstanden. Welche diese Teile jedoch sind überlasse ich Ihrer Fantasie. Wir müssen uns aber fragen: Werden wir zukünftig generell noch viele Texte lesen oder Bilder sehen an denen keine KI mitgewirkt hat?
Keine Kommentare