Haben Sie sich schon einmal jemandem über Ihre Probleme anvertraut und sich dabei missverstanden gefühlt? Oder schlimmer noch, verurteilt? Eine schockierende neue Studie legt nahe, dass Sie bei einem Algorithmus möglicherweise mehr Verständnis finden als bei einem menschlichen Therapeuten. Die Forschung, veröffentlicht in Communications Psychology, entdeckte, dass Die Menschen empfinden die von KI generierten Antworten als mitfühlender und verständnisvoller als die von menschlichen Experten für psychische Gesundheit. Und das Überraschendste? Diese Vorliebe für „künstliche“ Empathie bleibt bestehen selbst wenn die Teilnehmer genau wissen, dass sie mit einer Maschine interagieren. Ich nenne Ihnen eine harte Tatsache: Im Durchschnitt sind die Antworten, die von der KI generiert werden wurden um 16 % mitfühlender bewertet als menschliche und wurden in 68 % der Fälle bevorzugt, selbst im Vergleich zu denen spezialisierter Krisenmanagement-Agenten.
Künstliches Mitgefühl gewinnt im direkten Vergleich
Wissenschaftler haben nicht nur Theorien aufgestellt: Sie führten vier strenge Experimente mit 550 Teilnehmern durch. Die Probanden gaben Auskunft über persönliche Erfahrungen und Sie bewerteten die erhaltenen Antworten hinsichtlich Mitgefühl, Reaktionsfähigkeit und allgemeiner Präferenz. Das Szenario war kontrolliert: Auf der einen Seite gab es von der KI generierte Antworten, auf der anderen Seite Antworten von Fachleuten für psychische Gesundheit.
Das Ergebnis überraschte selbst die Forscher: Selbst wenn die Teilnehmer genau wussten, dass sie computergenerierte Wörter lasen, empfanden sie diese immer noch als mitfühlender als menschliche Reaktionen. Es ist, als könne künstliche Empathie eine Saite zum Klingen bringen, die menschliche Therapeuten trotz all ihres Wissens und ihrer Erfahrung nicht erreichen können.
Dariya Ovsyankova, der Hauptautor der Studie und Forscher in der Psychologieabteilung der Universität Toronto, hat interessante Erkenntnisse darüber, warum dieser Erfolg zustande gekommen ist. Ihrer Meinung nach zeichnet sich KI dadurch aus, dass sie kleinste Details erkennt und bei der Beschreibung von Krisenerfahrungen objektiv bleibt. Dadurch entsteht eine sorgfältige Kommunikation, die die Illusion von Empathie erzeugt. Denn das ist, wie ich betone, eine Illusion.
Die menschlichen Grenzen, die künstliche Empathie nicht kennt
Warum wurden Menschen, die per Definition Meister der Empathie sind, auf diesem Gebiet geschlagen? Die Antwort könnte in unseren biologischen und psychologischen Grenzen liegen. Wie er erklärt Owsjannikowa, sind menschliche Bediener anfällig für Ermüdung und Burnout, Bedingungen, die sich unweigerlich auf die Qualität ihrer Reaktionen auswirken.
KI hingegen wird nie müde. Er hat keinen schlechten Tag, er bringt nicht den Stress eines Streits vom Vorabend in das Vorstellungsgespräch mit, er hat keine Vorurteile (zumindest keine menschlichen). Sie ist ständig aufmerksam, immer präsent und perfekt auf die Aufgabe konzentriert.
Menschliche Bediener sind Ermüdungserscheinungen und Burnout ausgesetzt, Bedingungen, die sich zwangsläufig auf die Qualität ihrer Reaktionen auswirken.
Aber es kommt noch mehr hinzu: Algorithmen haben viel mehr Krisen „gesehen“ als jeder menschliche Therapeut. Sie verarbeiteten Millionen von Interaktionen und identifizierten Muster und Zusammenhänge, die für das menschliche Auge unsichtbar sind. Wie er erklärt Eleanor Watson, ein KI-Ethiker und IEEE Fellow, „KI kann zweifellos unterstützende Reaktionen mit bemerkenswerter Kohärenz und offensichtlicher Empathie modellieren, etwas, das Menschen aufgrund von Ermüdung und kognitiven Voreingenommenheiten nur schwer aufrechterhalten können.“
Eine Antwort auf die globale psychische Gesundheitskrise?
Der Zeitpunkt dieser Entdeckung könnte nicht bedeutsamer sein. Nach Angaben der Weltgesundheitsorganisation Mehr als zwei Drittel der Menschen mit psychischen Problemen erhalten nicht die Pflege, die sie benötigen. In Ländern mit niedrigem und mittlerem Einkommen steigt diese Zahl auf 85 %.
Künstliche Empathie könnte für Millionen von Menschen eine zugängliche Lösung sein, die sonst keine Unterstützung hätten. Wie Watson anmerkt, „ist die Verfügbarkeit von Maschinen ein positiver Faktor, insbesondere im Vergleich zu teuren Fachkräften, deren Zeit begrenzt ist.“ Es handelt sich um ein Phänomen, das wir in letzter Zeit auch bei der Inanspruchnahme ärztlicher Beratung beobachten konnten, mit eine andere Studie, über die wir hier gesprochen haben. Und noch ein weiterer Aspekt ist zu bedenken: Vielen Menschen fällt es leichter, sich mit einer Maschine zu öffnen. „Die Angst vor Verurteilung oder Klatsch ist geringer“, stellt der Forscher fest. Es gibt keine Blicke des anderen, keine Angst vor Enttäuschung und keine Verlegenheit, sich verletzlich zu zeigen. Es gibt jedoch Risiken, und diese dürfen nicht auf die leichte Schulter genommen werden.
Die Risiken künstlicher Empathie
Watson Er nennt es „übernatürliche Reizgefahr“: Es handelt sich um die Tendenz, auf eine übertriebene Version eines Reizes stärker zu reagieren. „KI ist so verlockend, dass wir davon verzaubert sind“, erklärt er. „KI kann in einem Maße provokativ, aufschlussreich, erhellend, unterhaltsam, herausfordernd, tolerant und zugänglich sein, das kein Mensch erreichen kann.“ Ganz zu schweigen natürlich vom Thema Privatsphäre, das besonders wichtig ist, wenn es um die psychische Gesundheit geht. „Die Auswirkungen auf die Privatsphäre sind drastisch“, stellt der Autor der Studie, ein Ethiker, fest. „Der Zugang zu den tiefsten Verletzlichkeiten und Problemen der Menschen macht sie anfällig für verschiedene Formen von Angriffen und Demoralisierung.“
Eines ist klar: Die Technologie beginnt, in Bereichen erfolgreich zu sein, die wir immer als ausschließlich menschlich betrachtet haben. Mitgefühl, Empathie und Verständnis (Eigenschaften, die unsere Menschlichkeit definieren) erweisen sich als algorithmisch simulierbar, wo sie am meisten gebraucht werden (und weh tun können): in der Wahrnehmung derjenigen, die sie empfangen.
Es ist ein faszinierendes Paradox: Um uns wirklich verstanden zu fühlen, wenden wir uns möglicherweise an etwas, das uns nie wirklich verstehen wird, aber genau weiß, wie es uns das Gefühl geben kann, verstanden zu werden.