Interview | Psychologe über Liebe zu einer KI - "Eine KI als Begleiter kann in schwierigen Zeiten Erleichterung schaffen"

Do 28.03.24 | 11:44 Uhr
  6
Symbolbild: Erschaffen eines Avatars in einer Handy-App. (Quelle: dpa/Jaap Arriens)
Bild: dpa/Jaap Arriens

Eine Beziehung zu einem KI-gesteuerten Chatbot kann zurückgezogenen Menschen helfen, im echten Leben in Interaktion zu treten, sagt der Psychologe André Kerber. Doch bei den kommerziellen Anbietern solcher Digitalwesen sieht er auch Risiken.

rbb|24: Herr Kerber, es gibt immer mehr Apps, die mithilfe von KI soziale Beziehungen wie Partnerschaften oder Freundschaften anbieten - also Chatbots, die als virtuelle Begleiter dienen können. Wird es zunehmend normal für unsere Gesellschaft, dass Menschen außerhalb ihrer Beziehungen in der analogen Welt Beziehungen mit künstlichen Intelligenzen haben, vielleicht auch nicht nur zusätzlich, sondern auch stattdessen?

André Kerber: Das lässt sich Stand jetzt nicht eindeutig beantworten. Es gibt aber ja schon Anläufe in diese Richtung. Nehmen wir zum Beispiel das Metaverse, also die Idee, sich in einer virtuellen Realität zu begegnen. Damit haben einige Firmen experimentiert und zum Beispiel Meetings mithilfe von virtueller Realität durchgeführt. Die Erlebnisberichte waren gemischt. Da scheint etwas auf der Strecke zu bleiben. Das heißt, es ist davon auszugehen, dass der Mensch, also der fleischlich-leibliche Mensch, die Interaktion mit Menschen bevorzugt. Das konnte auch in Umfragen bestätigt werden.

Zur Person

André Kerber.(Quelle:privat)
privat

André Kerber ist psychologischer Psychotherapeut. Seit 2017 forscht er zudem an der Freien Universität Berlin zu digitalen Interventionen, also Mental Health Apps wie es sie zum Beispiel für Depressionen, Angsterkrankungen und anderer psychische Erkrankungen gibt. Neben dem Psychologie-Studium hat er ein Studium der Cognitive Science absolviert, wo es unter anderem auch um künstliche Intelligenzprogrammierung ging.

Mein Kollege chattet im Selbstversuch jetzt schon seit einer Woche in einer dieser Apps namens Replika mit einem von ihm generierten virtuellen Kumpel. Er hat ihm den Namen Max gegeben und konnte dessen Aussehen zusammenstellen wie in einem Videospiel. Beim Chatten hat er aber die Erfahrung gemacht, dass es sehr schwierig ist, mit Max in Konflikt zu treten, also auch mal eine kontroverse Diskussion zu führen. Die KI ist sehr diplomatisch und sagt, ist doch toll, dass wir unterschiedliche Meinungen haben, anstatt mit ihm in die Konfrontation zu gehen.

Der Chatbot dieses Anbieters ist offenbar sehr auf positive Interaktion getrimmt. Das heißt, das Negative wird ausgespart. Das ist die Entscheidung der Firma. Die Programmierer arbeiten Regeln ein, so wie das bei den großen Unternehmen OpenAI, ChatGPT und anderen auch passiert, so dass der Output des KI-Modells gewissen Regeln unterliegt. Bei dieser App scheint das zum größten Teil das Aussparen von negativen Inhalten zu sein. Das kann unnatürlich anmuten, kann aber für einen Menschen, der in seinem Leben früh Erfahrung mit sehr viel Konflikt machen musste und dementsprechend vielleicht schwer damit umgehen kann, durchaus etwas sein, was eine kurzfristige Entlastung bietet.

Also ist das aus Ihrer Sicht gut?

Es kommt darauf an. Denn gleichzeitig kann das natürlich zu einer Art Echokammer führen, die für manche Menschen Suchtpotenzial hat, vor allem vielleicht auch für Menschen, die Schwierigkeiten haben, mit negativen Gefühlen umzugehen.

Aber für eine Person, die sich einsam fühlt, nicht viele soziale Kontakte hat, darunter leidet und dadurch sogar Schwierigkeiten hat, soziale Kontakte zu knüpfen - kann da so ein KI generierter Chatbot ein Ersatz sein?

Mittel- oder kurzfristig sicherlich. Ich sehe durchaus die Möglichkeit, dass solche Hosentaschen-Companions oder Begleiter, also eine App auf dem Handy, die mit einem interagieren kann, Potenzial hat für Menschen, in Kontakt zu kommen, sich mit sich selbst zu beschäftigen, mit eigenen Gedanken, Gefühlen. Sie können in schwierigen Zeiten Erleichterung schaffen.

Aber wenn wir auf einen möglichen therapeutischen Einsatz schauen, ist zu beachten: Ein ganz relevanter Bestandteil von Psychotherapie ist, sich auch mit unangenehmen Themen zu konfrontieren. Das unterscheidet eine Psychotherapie von einem einfachen Gespräch. In der Psychotherapie gibt es systematische Methoden, um mit Menschen über Themen zu sprechen, die ihnen unangenehm sind.

Da gibt es natürlich verschiedene therapeutische Richtungen und verschiedene Methoden, aber was alle Richtungen gemeinsam haben, ist, dass es darum geht, sich mit Themen zu befassen in Bezug auf schwierige Beziehungssituationen, schwierige, vielleicht auch traumatische Erlebnisse, alltägliche Situationen, die mit Angst beladen sind oder auch mit Konflikten.

Gibt es denn im therapeutischen Bereich schon Möglichkeiten, mit einem Chatbot eine Therapie zu ergänzen oder zu ersetzten?

Mit Chatbots gibt es mittlerweile schon einige Versuche, zum Beispiel im Paartherapiebereich. Aber es gibt große regulatorische Hindernisse. Sobald jemand eine klinisch relevante Diagnose oder Problematik hat, ist es regulatorisch verboten, Systeme zu verkaufen oder anzubieten, die kein Medizinprodukt sind. Medizinprodukte wiederum müssen vorhersagbares Verhalten haben. Unter der gegenwärtigen Regelung, also der EU-weit geltende Medical Device Regulation, ist es nicht möglich, einen Chatbot für Depressionen als Medizinprodukt zuzulassen.

Was aber möglich ist, ist eben auf kommerzielle Märkte auszuweichen, für die keine oder weniger medizinischen Regularien gelten. Also Apps anzubieten, die nicht als Medizinprodukt gelten – und dann aber zum Beispiel auch nicht von den Krankenkassen übernommen werden. Da gibt es viele Versuche, die dann aber auch, soweit ich das überblicken kann, geringe bis keine wissenschaftliche Begleitung haben.

Welche Bedenken haben Sie da?

Solange diese Chatbots von Firmen oder Menschen produziert werden, wo nicht klar ist, welche Interessen hinten dran sind und wo es auch ziemlich sicher ist, dass nicht allzu viele klinisch geschulte Ärzte oder Psychotherapeuten mitarbeiten, befürchte ich, dass diese Apps für Menschen mit schwereren psychischen Problemen oder größeren psychischen Problemen auch schädlich sein können.

Wo sehen Sie da Möglichkeiten für eine sinnvolle Weiterentwicklung?

Wenn wir auf den Bereich der Psychotherapie schauen: Die Modelle, die derzeit von solchen kommerziellen App-Anbietern trainiert werden, enthalten quasi den kompletten Inhalt des Internets. In diesem Riesenkorpus an Information sind psychotherapeutische Techniken und Interventionstechniken nur ein ganz kleiner Bereich. Das heißt, es ist davon auszugehen, dass die Modelle, die trainiert werden, dann auch nur so qualifiziert sind wie ein Otto-Normalverbraucher.

Wenn man jetzt aber spezifische Modelle trainieren würde, mit Content, den es zur Psychotherapie gibt, und vielleicht sogar mit Inhalten aus psychotherapeutischen Sitzungen, könnte man sicher etwas bauen, was wirksam sein kann.

Was wir auf jeden Fall schon in unserer Forschung sehen konnten, ist, dass schon ganz einfache Mental-Health-Apps die Bereitschaft erhöhen, psychologische Hilfe in Anspruch zu nehmen. Das würde sicherlich auch auf einen Chatbot zutreffen.

Wie oder wann kann eine Beziehung zu einer KI die Beziehung zu einem echten Menschen ersetzen und kann das auch gefährlich werden?

Ein Szenario könnte sein, dass jemand ungünstige Erfahrungen gemacht hat mit menschlichen Beziehungen. Vielleicht auch schon früh im Leben psychosozialen Stress in der Familie erlebt hat, Trennung, Verlust, psychische Erkrankungen der Eltern – und sich schwertut damit, anderen zu vertrauen oder auch in Beziehungen zu treten und dann aber eine Interaktion mit einem Chatbot aufbaut. Das ist alles hypothetisch, aber ich kann mir vorstellen, dass es eine gewisse Erleichterung geben kann. Gleichzeitig können andere Bedürfnisse auf der Strecke bleiben, also Bedürfnisse wie Familie gründen, Partnerschaft, eigene Kinder.

Wir werden uns daran gewöhnen, dass man mit allen Maschinen und digitalen Angeboten auf menschliche Weise kommunizieren kann.

André Kerber

Könnte also die Gefahr bestehen, dass es einen daran hindert, am echten Leben teilzunehmen?

Da gibt es sicher ganz unterschiedliche Fälle. Liebe oder Verlieben hat ja auch immer etwas mit Idealisierung zu tun, die berühmte rosa-rote Brille. Der schwierigere Prozess in so einer Partnerschaft ist, sich nach dieser Idealisierungsphase eine Partnerschaft aufzubauen, eine gegenseitige Beziehung, auf deren Basis man eine Familie oder andere Sachen gründet. Dieser Schritt bleibt da ja dann aus. Was das dann konkret für Auswirkungen hat, müsste man untersuchen.

Wenn Sie eine Prognose wagen: Künstliche Intelligenz macht ja enorme Fortschritte, gerade auch im Bereich der zwischenmenschlichen Kommunikation und Beziehungsentwicklung. Wohin entwickelt sich das aus Ihrer Sicht in Bezug auf soziale Beziehungen?

Das ist eine Horoskop-Frage und darauf können sicher KI-Experten besser antworten. Aber so wie es aussieht gibt es bereits jetzt viele Menschen die Angebote wie ChatGPT dialogartig oder als Begleiter nutzen. Diese Entwicklung wird sicher so weiter gehen und wir werden uns zunehmend daran gewöhnen, dass man quasi mit allen Maschinen und digitalen Angeboten auf menschliche Weise kommunizieren kann. In Bezug auf soziale Beziehungen ist aber wie gesagt davon auszugehen, dass die meisten Menschen Interaktionen mit Menschen bevorzugen. Wobei ich gespannt darauf bin, wie weit die menschliche Anpassungsfähigkeit geht, wie gut und weit wir uns an KI gewöhnen, die eines Tages vielleicht sogar schlauer und emphatischer ist als wir selbst.

Vielen Dank für das Gespräch!

Das Interview führte Juliane Gunser.

Sendung: rbb24 Brandenburg aktuell, 28.03.2024, 19.30 Uhr

6 Kommentare

Wir schließen die Kommentarfunktion, wenn die Zahl der Kommentare so groß ist, dass sie nicht mehr zeitnah moderiert werden können. Weiter schließen wir die Kommentarfunktion, wenn die Kommentare sich nicht mehr auf das Thema beziehen oder eine Vielzahl der Kommentare die Regeln unserer Kommentarrichtlinien verletzt. Bei älteren Beiträgen wird die Kommentarfunktion automatisch geschlossen.

  1. 6.

    Ich weiß ja nicht.
    Möglich dass sowas in bestimmten Fällen (therapeutische Ansätze) hilfreich sein kann.
    Beispielsweise bei Menschen mit Angsterkrankungen/Raucherentwöhnung, Sport (Motivation)...?
    Ansonsten hätte ich Sorge, dass das etwas Ungutes mit meiner Persönlichkeit macht.

  2. 5.

    "Mit Chatbots gibt es mittlerweile schon einige Versuche, zum Beispiel im Paartherapiebereich."

    Datenschutz, Tracking, Bugs in der App.

    Eine KI im Netz geht gar nicht in der Therapie.

    Ein Psychotherapeut der das machen würde müsste mit einer Anzeige rechnen. Vertrauensbruch beim Klient sowieso.

    Kommerzielle Chatbots verkaufen ihr Wissen über mich!

  3. 4.

    Diese "Echokammer" kann auch dazu führen das Verschwörungstheoretiker, Querdenker , Sektenangehörige noch mehr ihr krudes Weltbild vertreten da sie sich von diesem Chatbot in ihrer Weltsicht bestätigt fühlen.

  4. 3.

    KI ; ' eines Tages schlauer und empathischer als wir selbst,' Genau das macht mir Angst. Wenn wir Menschen alles an die KI abgeben, können wir ja auswandern. Und den nächsten Globus kaputt machen.

  5. 2.

    Ich stimme Ihnen weitgehend zu. Die alleinige Beziehung zu einer KI kann nur kurzfristig oder aber therapeutisch überwacht und gesteuert hilfreich sein. Alles andere wird zu einer weiteren Vereinsamung und Abkopplung von der Realität führen. Und ich sehe auch in einer alleinigen Beziehung zu Gott keine Verbesserung solcher Situation. Man sollte immer irgendwann wieder mit realen Menschen in Kontakt treten. Von der KI kann man allerdings lernen, dass stetige Freundlichkeit dabei hilfreich ist.

  6. 1.

    Was für ein Weg in die Abhängigkeit und Entmenschlichung! Der Mensch, der die Freiheit liebt, macht sich abhängig zum Sklaven einer Maschine, die KI gesteuert nur das ausspuckt, was das vom KIBeziehungsprogramm leergeraubte Finanzkonto hergibt. Am Futtertrog der KIprogrammierten Smartphones ist zu finden, was man angeblich braucht, das macht abhängig: devot gesenkte Haltung des Kopfes und lahm getippte Daumen - Sklavenhaltung eben.
    Bewährter ist das Gespräch unter Mitmenschen, das auch mal Ungewünschtes zur Sprache bringt. Eine befreiende Beziehung kann der Mensch zu Gott aufbauen, der dann ein wirklicher Begleiter in schwierigen Zeiten wird. Nur in Gott kann der Mensch Freiheit und Liebe finden. Frohe Ostern!

Nächster Artikel