KI-Zwilling in der Therapie: Was passiert, wenn man seinen KI-Zwilling zur Therapiesitzung schickt, statt sich selbst?
Durch ChatGPT wurden neue Türen aufgestoßen und in allen denkbaren Bereichen sind neue Möglichkeiten entstanden; auch im Bereich der Psychotherapie und des Coachings.
Mental Health Startups, die KI im Coaching oder Therapie einsetzen, sprießen nur so aus dem Boden. Alle haben eins gemeinsam: Sie versuchen den Therapeuten oder die Therapeutin durch eine KI zu ersetzen.
Dies ist ein spannender und auf den ersten Blick logischer Ansatz. Wir glauben aber, dass genau der umgekehrte Weg der sinnvollere ist: Nicht der Therapeut oder die Therapeutin sollte durch eine KI ersetzt werden, sondern die Klient:in!
Warum eine KI wie ChatGPT als Therapeut:in nicht funktioniert
Jeder, der schon einmal mit ChatGPT über seine psychischen Probleme gesprochen hat, merkt im Laufe des Gesprächs ein gewisses Unbehagen. Genau zu bestimmen, woher dieses Unbehagen kommt, ist gar nicht so einfach.
Wir glauben, es liegt vor allem an drei Gründen, die wir die 3 AINTs (AINT = “AI is Not a Therapist”) genannt haben.
AINT #1: Therapie besteht aus Fragen; ChatGPT aus Antworten
Das Unternehmen OpenAI selbst beschreibt als eine Begrenzung seines GPT-3.5 Modells:
“Ideally, the model would ask clarifying questions when the user provided an ambiguous query. Instead, our current models usually guess what the user intended.”
ChatGPT neigt also dazu, Annahmen über die Intention der User:innen zu treffen und dann dazu passende Antworten zu geben. Genau dieses Verhalten widerspricht aber den meisten Therapieansätzen, in denen es ja genau darum geht, durch klärende Fragen die Ursachen der Probleme zu ergründen. Therapie (und auch Coaching) ist ein ständiger Fluss von Hypothesen, die immer wieder neu durch Therapeut:in und Klient:in erstellt und verworfen werden.
Zwar besteht bei GPT-4.0 die Möglichkeit, dieses Thema durch geschicktes Prompting zum Teil zu umgehen, aber den meisten Usern ist nicht bewusst, dass dieses Problem besteht und wie es umgangen werden kann.
AINT #2: Echo-Kammer der eigenen Gefühle & Gedanken
ChatGPT ist - bei aller Kreativität der KI - immer noch ein Input-Output Modell. Wenn ich also das Modell nach den Gründen meiner Traurigkeit frage, wird es nicht in Frage stellen, ob es wirklich Trauer ist, was ich fühle. Es nimmt meine Gedanken und Gefühle als Wahrheiten an und führt mich immer weiter in meine eigene Echo-Kammer.
Therapie und Coaching leben von der Möglichkeit, Impulse von außen zu bekommen, neue Blickwinkel zu erhalten und neue Muster zu erlernen. Derzeitige KI-Modelle neigen aber tendenziell eher dazu, Muster zu verstärken.
Ein Beispiel: Zwar kann mir eine KI erklären, wie ich meinen Sohn vor möglichem Stress in der Schule bewahren kann, wird aber niemals mein aufrechterhaltendes Verhalten dahinter hinterfragen. Dem Modell fehlt einfach der kritische Blick auf meine Person, denn als KI-Modell ist es durch die Art seiner Programmierung darauf intensiviert, mir zu gefallen und nicht mich zu hinterfragen.
AINT #3: Fehlende Verbundenheit & Menschlichkeit
In unseren Coachings machen wir immer wieder die Erfahrung, dass unsere Klient:innen Sorge davor haben, mit einer KI zu sprechen (was bei uns nicht der Fall ist, denn bei uns sprechen unsere Klient:innen immer mit echten Menschen).
Es gibt in uns Menschen einfach das tiefe Bedürfnis, unsere Probleme und Sorgen mit Menschen zu teilen, nicht mit Maschinen. Bei KI-Modellen und/ oder Maschinen fehlt uns die Verbundenheit, die für einen Therapie- oder Coachingerfolg so wichtig ist. Wir wollen uns verstanden fühlen und am besten verstanden fühlen wir uns von Menschen, die ähnliches erlebt haben und unsere Situation nachempfinden können.
Und noch ein wichtiger Punkt kommt hinzu: Einem Chatbot oder KI gegenüber fühlen wir uns nicht verpflichtet. Wenn aber ein echter Mensch auf der anderen Seite sitzt, fühlen wir uns ihm gegenüber schnell verantwortlich: Wir halten uns an Absprachen und die vorgegebene Struktur, die für eine erfolgreiche Therapie oft unerlässlich ist.
Das AllyWell-Experiment: ChatGPT als Klient:in
Die typische erste Reaktion, wenn wir von unserer Idee erzählen, die Klient:in durch eine KI zu ersetzen (und nicht die Therapeut:in), ist Kopfschütteln. Dabei gibt es offensichtliche Vorteile, wenn nicht die Therapeut:in durch eine KI ersetzt wird, sondern die Klient:in.
Wie funktioniert es? Das Experiment im Detail
Ein Disclaimer vorweg: Die Erfahrungen, die wir mit diesem Ansatz gesammelt haben, sind noch sehr begrenzt. Die Coachings, in denen unsere Psycholog:innen mit dem KI-Abbild einer Klient:in gesprochen haben, haben nur mit ausgewählten beta-User:innen stattgefunden. Es handelt sich hierbei um ein Experiment “außer der Reihe” und nicht um unsere Coachings, die wir unseren Kunden sonst anbieten.
Für ein erfolgreiches Coaching mit einem KI-Zwilling ist eines unabdingbar: Viele Informationen über die Klient:in. Bevor wir also die Klient:in als KI “nachbauen”, müssen die Klient:in vorab ausführlich sich selbst und ihre Probleme schildern. Diese Schilderung findet bei unseren ausgewählten Testpersonen per Sprachnachricht statt, da wir festgestellt haben, dass Menschen tiefer und ausführlicher über ihre Probleme berichten, wenn sie dabei laut reden: Sie sprechen dabei oft (unbewusst) Dinge aus, die sie nicht (bewusst) als Text geschrieben hätten.
Diese Sprachnachrichten lassen wir lokal transkribieren und geben sie (nach expliziter Zustimmung der Testpersonen) als Inhalt in ein OpenAI GPT Modell, dem wir per Prompt erklären, dass es ein KI-Zwilling von einer zu coachenden Person ist.
Mit diesem “KI-Alias” startet dann eine unserer Psychologin das eigentliche Coaching. Wie in einem klassischen Coaching stellt die Psychologin Fragen und versucht den Problemen des KI-Alias auf den Grund zu gehen. Der Austausch findet über das ChatGPT Interface statt. Erkenntnisse, die die Psychologin dabei sammelt, werden später per Videonachricht an die “reale” Klient:in übergeben, damit diese:r diese validieren kann. Es entsteht eine Feedbackschleife, die das KI-Double mit mehr Informationen versorgt und so den Coachingprozess inhaltlich voranbringt.
Beispiel: KI-Alias mit Unzufriedenheit im Job
In diesem Coaching-Experiment hat eine Klientin ihre Unzufriedenheit im Berufsleben geäußert. Da sie in ihrem Leben keine Zeit für ein Coaching findet, sie aber Angst vor einem Burn-Out hat, hat sie an unserem Test teilgenommen.
Zu Beginn wurde die Testperson durch einen KI-Bot zu ihrer Person und ihren Problemen befragt. Der Bot war angewiesen, keine Ratschläge zu erteilen, sondern nur als Fragesteller zu fungieren. Mit diesen Informationen wurde ein KI-Zwilling der Testperson erstellt. Im Test wurde dieses KI-Double durch eine AllyWell-Coach gecoached.
Im Austausch zwischen Psychologin und KI-Double konnte der Coach schnell die Problemstellung der Klientin erfassen.
Im weiteren Gespräch entschied sich der Coach zur Verwendung der ACT-Matrix, um der Klientin ein Erklärungsmodell und eine Struktur zu liefern. Der Coach trug die wichtigsten Inhalte aus dem Coaching in die Matrix ein und erklärte der (realen) Klientin die ACT-Matrix mit Hilfe einer Videonachricht.
Für die Klientin war die Aufbereitung ihrer Problemsituation in der ACT-Matrix enorm hilfreich. Sie erkannte für sich sofort neue Ansätze diese sofort begann umzusetzen.
Welche Vorteile bringt ein Coaching mit eine, KI-Zwilling eines Klienten?
Ob der Begriff “Coaching” wirklich noch der passende Begriff ist, muss sich noch herausstellen, da der Prozess sich doch deutlich von einem Coaching unterscheidet. Allerdings wird schon jetzt deutlich, dass dieses neuartige Vorgehen enorme Vorteile mit sich bringen kann, wie sich in unserem Versuch mit ausgewählten Testpersonen gezeigt hat.
Tiefgehende Fragen, neue Impulse und Menschlichkeit
Die drei oben erwähnten AINTs treten in Coachings mit KI-Zwillingen nicht auf. Die Coaches können tiefgehende Fragen stellen und Räume für neue Impulse schaffen. Diese gehen zwar im ersten Schritt direkt an den KI-Alias, aber durch die anschließende Reflexion zwischen Coach und den realen Klient:innen erreichen sie auch die “echten” Klient:innen.
Durch die Rückmeldung der Coaches an die realen Klient:innen (im obigen Beispiel per Videonachricht) wird dem Coaching zudem die weitaus wichtigste Komponente nicht weggenommen: Menschlichkeit. In unseren Tests blieben die Klient:innen mit ihrem Coach im direkten Gespräch und waren für deren Ideen empfänglich.
Schneller, zielgerichteter Austausch
In unseren Tests waren die Coachings, trotz zum Teil langer Sprachnachrichten der Klient:innen, schneller und zielgerichteter als herkömmliche Coachings. Der Grund hierfür ist, dass die Psychologinnne dem KI-Alias direkt Fragen stellen konnten und sich nicht erst alle Sprachnachrichten bzw. Informationen der Klient:in anhörten.
Coaches (oder Therapeuten) können also bei dieser Art des Coachings direkt zum Kern des Problems vorstoßen, während die Klient:innen durch die Aufnahme und den Versand ihrer Sprachnachrichten weiterhin psychische Entlastung spüren können.
Frei von Stigma & lebensnah
Für die Klient:innen, die am Versuch teilnahmen, war der Prozess weitestgehend frei von Stigmata, da sie nicht selbst in die Coachingsitzung gehen mussten, sondern - aus ihrer Perspektive - ihr KI-Alias schicken konnten. Für die Klient:innen gab es keinen direktes Gespräch mit dem Coach, sondern sie konnten einfach Sprachnachrichten senden, die dann zum Aufbau des KI-Doubles genutzt wurden. Das Ergebnis aus dem “Gespräch” zwischen Coach und KI-Double wurde später den Testpersonen per Video- oder Sprachnachricht vom Coach zugesandt.
Da der Versand der Sprachnachrichten asynchron erfolgen konnte, konnten die Klienten das “Coaching” in ihren Alltag einbinden und lebens- und zeitnah von Herausforderungen berichten. Dies erleichterte für die Testpersonen den Zugang zum Coaching.
Wo sind die Grenzen eines solchen “Coachings”?
Ein Coaching oder eine Therapie unter Nutzung eines KI-Alias eröffnet neue Möglichkeiten und kann eventuell Menschen den Zugang zur Therapie ermöglichen, die ihn bis jetzt nicht hatten.
Aber bei all unserer Euphorie für diesen neuen Ansatz haben wir auch seine Grenzen und Herausforderungen gespürt.
Kein direktes Nachfragen möglich
In unserem Versuch basierte das Coaching zwischen KI-Alias und Coach immer nur auf statischen, historischen Daten. Es gibt also nicht die Möglichkeit für den Coach bestimmte Themen ad hoc bei den Klient:innen tiefergehend zu erfragen. Das Ergebnis eines Gesprächs zwischen KI-Alias und Coach ist also immer nur ein Teilausschnitt oder ein erster Schritt, ersetzt aber niemals ein tatsächliches Gespräch.
Dennoch ist ein KI-Alias Gespräch immer noch besser als gar kein Gespräch. Für unsere Testpersonen erhielten diese Gespräche Erkenntnisse, Einblicke und Zugang zu Methoden, die sie selbst so bisher nicht hatten. Die Testpersonen haben hierzu entweder selbst den Chat gelesen oder eine Zusammenfassung vom Coach bekommen.
Fehlende Emotionen
Emotionen sind für jede Therapeut:in oder Coach ein wichtiges Werkzeug. In dem KI-Alias Coaching kommen diese zu kurz, da der Coach in unserem Experiment den realen Klienten weder gehört noch gesehen hat. Die Coaches lesen lediglich die Beschreibungen, die ihnen ChatGPT zur Verfügung stellt. Für hochbelastete Fälle eignet sich diese Art des Coachings bzw. solch ein Werkzeug also nicht.
Halluzinierende KI
Eine große Herausforderung ist die Neigung der KI, sich Dinge auszudenken. Dies ist kein Fehler der KI, sondern, im Gegenteil, ein wichtiger Bestandteil. Würde man der KI diese “Kreativität” nehmen, würde sie auf schwierigere Fragen keine Antwort mehr finden. Sie wäre dann wie die heimische Alexa, die nur vordefinierte Antworten kennt und damit nicht mehr jede Frage beantworten kann.
Dies bedeutet aber auch, dass das KI-Double sich Dinge ausdenken kann, die die echte Klient:in nie gesagt hat. Für die Coaches ist es daher wichtig, auch immer einen Zugriff auf die Originaldaten zu haben, um im Zweifel Dinge überprüfen zu können.
Auf der anderen Seite sollte man bei dieser Art Coaching (falls der Begriff hier noch der richtige ist) den “echten” Klient:innen transparent darlegen, dass es sich bei den Gespräch zwischen KI-Zwilling und Coach nur um eine Annäherung handelt.
Fazit
Das Coaching-Experiment mit einem KI-Alias ist faszinierend - sowohl für die Klient:in als auch für den Coach. Es könnte für viele Menschen einen sehr niedrigschwelligen Zugang zu ihrer eigenen mentalen Gesundheit bieten und könnte ein wertvolles Instrument in der Früherkennung von psychischen Erkrankungen sein.
Dadurch, dass man nicht selbst als Person vor einer Therapeut:in erscheinen muss, sondern den KI-Alias “vorschicken” kann, können Stigmata abgebaut werden. Gleichzeitig wird aber, durch die “menschliche Komponente” des echten Coaches, ein Vertrauensverhältnis zwischen Therapeut:in und Klient:in aufgebaut, das den therapeutischen Prozess vorantreibt.
Hinzu kommen immense Zeitersparnisse auf Seiten der Therapeut:innen und auch der Klient:innen. Therapien könnten (zumindest für ausgewählte Fälle) deutlich günstiger durchgeführt werden - und das bei mehr Komfort für die Klient:innen. Theoretisch ermöglicht ein Pre-Screening der KI-Aliases sogar eine Bündelung von Fällen, so dass zielgerichteter geholfen werden kann.
Wie auch immer der Einsatz von KI im therapeutischen Umfeld aussehen mag, unser Experiment zeigt, dass noch längst nicht alle Modelle durchdacht und ausprobiert wurden. Und oft ist nicht der offensichtlichste Ansatz der beste, sondern der den Menschen in den Mittelpunkt stellt.