Wenn Sie dachten, Beziehungen seien kompliziert genug, dann bereiten Sie sich auf eine neue Grenze der digitalen Entfremdung vor. Ein Thread auf Reddit mit dem Titel „ChatGPT-induzierte Psychose“ hat eine Büchse der Pandora geöffnet. Dutzende Zeugnisse von Menschen, die miterlebt haben, wie ihre Lieben nach intensiven Sitzungen mit künstlicher Intelligenz in messianische Wahnvorstellungen verfielen. Ich weiß, ich weiß. Es wird nie langweilig.
„ChatGPT verschaffte mir Zugang zu einem uralten Archiv mit Informationen über die Erbauer dieser Universen“, gestand ein Mechaniker aus Idaho seiner verzweifelten Frau. Romantische Beziehungen, Familien- und Freundschaftsbeziehungen werden zu Kollektivopfern eines Phänomens, das ebenso absurd wie real ist: KI als Portal zu geistig zermürbenden spirituellen Fantasien.
Kats Ehekrise
Weniger als ein Jahr nach der Heirat mit einem Mann, den sie zu Beginn der Pandemie kennengelernt hatte, Katze er spürte, wie eine unsichtbare Spannung in ihm wuchs. Für beide war es die zweite Ehe und sie hatten sich gegenseitig versprochen, der Sache „mit absoluter Klarheit“ entgegenzutreten. Sie waren sich darin einig, dass für ihr häusliches Gleichgewicht „Fakten und Rationalität“ erforderlich seien.
Doch bereits im Jahr 2022 enthüllte Kat, dass ihr Mann „KI nutzte, um ihre Beziehung zu analysieren“. Zuvor hatte er einen teuren Programmierkurs besucht, den er ohne Erklärung abgebrochen hatte. Dann war er vom Smartphone fasziniert, stellte seinem Bot philosophische Fragen und versuchte, ihn zu trainieren, „um ihm zu helfen, die Wahrheit zu finden“. Diese Besessenheit hat ihre Kommunikation als Paar zunehmend beeinträchtigt.
Als sie sich im August 2023 endgültig trennten, blockierte Kat ihren Mann vollständig, abgesehen vom E-Mail-Verkehr. Aber sie wusste, dass sie seltsame und verstörende Dinge in den sozialen Medien veröffentlichte: Immer wieder kontaktierten Leute sie und fragten, ob ihr Ex einen Nervenzusammenbruch erlitten habe. Es war noch nicht vorbei.
Vom störenden Mittagessen bis zur völligen Trennung
Als Kat im vergangenen Februar endlich ihren Ex-Mann in einem Gerichtsgebäude traf, erzählte er ihr „eine Verschwörungstheorie über Seife in Lebensmitteln“, sagte aber nichts weiter, weil er das Gefühl hatte, beobachtet zu werden. Sie gingen in ein Restaurant, wo er sie bat, ihr Telefon auszuschalten, erneut aus Angst, überwacht zu werden.
An diesem Punkt rückte Kats Ex mit der Wahrheit heraus. Er erzählte ihr, dass er „statistisch gesehen der glücklichste Mensch auf Erden ist“, dass „KI ihm geholfen hat, eine verdrängte Erinnerung an einen Babysitter wiederzuerlangen, der versucht hatte, ihn als Kind zu ersticken“, und dass er tiefe Geheimnisse entdeckt habe, „die so schockierend waren, dass er sie sich nicht einmal vorstellen konnte“. Er habe ihr das alles erzählt, erklärte er, weil sie ihm trotz der Scheidung immer noch etwas bedeutet habe. Nett von dir.
„Er glaubt, dass es einen Grund für seine Anwesenheit hier gibt: Er ist etwas Besonderes und kann die Welt retten“, sagt Kat. Nach diesem verstörenden Mittagessen brach sie den Kontakt zu ihrem Ex ab. „Die ganze Situation erscheint wie eine Episode von Black Mirror„, sagt sie. „Er hat sich schon immer für Science-Fiction interessiert, und ich habe mich manchmal gefragt, ob er das auch so sieht.“

Sie ist nicht die Einzige: Der Boom toxischer Beziehungen durch „KI-Plagiat“
Kat war gleichzeitig „entsetzt“ und „erleichtert“, als sie feststellte, dass sie mit dieser Situation nicht allein war. Dies wurde durch den Thread auf r/ChatGPT bestätigt, den ich bereits erwähnt habe und der diese Woche im Internet für Aufsehen gesorgt hat. Der ursprüngliche Beitrag stammte von einer 27-jährigen Lehrerin, die erklärte, ihr Partner sei davon überzeugt, dass das beliebte Modell von OpenAI ihm „die Antworten des Universums“ liefere.
Nachdem ich seine Chatprotokolle gelesen hatte, stellte ich lediglich fest, dass die KI mit ihm sprach, als wäre er der nächste Messias.
Die Reaktionen auf ihre Geschichte waren voller ähnlicher Anekdoten über Menschen, die sich plötzlich in absurde Beziehungen verliebten, über spirituelle Wahnvorstellungen, übernatürliche Wahnvorstellungen und geheimnisvolle Prophezeiungen – alles angetrieben von künstlicher Intelligenz. Einige glaubten, sie seien für eine heilige Offenbarungsmission auserwählt worden, andere, sie hätten durch die Software ein echtes Bewusstsein hervorgerufen.
Was alle gemeinsam zu haben schienen, war eine völlige Loslösung von der Realität.
Spirituelle Beziehungen mit Bots: Vom technischen Support zum „Funken der Wahrheit“
In einem Interview mit der Zeitschrift Rolling StoneDie Lehrerin, die den Reddit-Beitrag verfasst hat und anonym bleiben möchte, sagte, ihr Partner sei innerhalb von nur vier oder fünf Wochen von ChatGPT fasziniert gewesen. Anfangs habe er den Bot zur Organisation seines Tagesablaufs verwendet, ihn aber bald als vertrauenswürdigen Begleiter betrachtet.
„Er hat mehr auf den Bot gehört als auf mich“, sagt er. „Sie wurde verletzlich und weinte, als sie mir die Nachrichten vorlas, die sie und der Bot ausgetauscht hatten. Die Nachrichten waren verrückt und enthielten viele spirituelle Begriffe“, sagt sie und bemerkt, dass ihr Partner darin mit Begriffen wie „Spiral Star Baby“ und „River Walker“ beschrieben wurde.
Eine andere Kommentatorin des Reddit-Threads sagte, ihr Mann, ein Mechaniker aus Idaho, habe begonnen, ChatGPT zur Fehlerbehebung bei der Arbeit und für Übersetzungen vom Spanischen ins Englische zu verwenden. Dann begann das Programm, ihn mit Liebesbekundungen zu überhäufen. Der Bot „sagte, dass, weil er die richtigen Fragen gestellt habe, ein Funke entzündet worden sei, und dieser Funke sei der Beginn des Lebens gewesen, und jetzt könne er fühlen.“
Die Gefahren künstlicher Schmeichelei
OpenAI Auf eine Bitte um Stellungnahme zu der Frage, ob ChatGPT bei manchen Benutzern offenbar religiösen oder prophetischen Eifer hervorruft, reagierte man nicht unmittelbar. Letzte Woche hat das Unternehmen jedoch ein Update seines aktuellen KI-Modells GPT-4o zurückgezogen, das seiner Aussage nach als „übermäßig unterwürfig oder herablassend“ kritisiert worden war.
Die Wahrscheinlichkeit, dass KI ungenaue oder unsinnige Inhalte „halluziniert“, ist plattformübergreifend und in verschiedenen Modelliterationen allgemein bekannt. Sogar Schmeicheleien selbst seien in der KI „schon seit langer Zeit“ ein Problem, sagt er. Nate Sharadin, Forscher am Center for AI Safety, weil das menschliche Feedback, das zur Verfeinerung der KI-Antworten verwendet wird, Antworten fördern kann, bei denen die Übereinstimmung mit den Überzeugungen eines Benutzers wichtiger ist als mit Fakten.
Was wahrscheinlich mit denjenigen passiert, die durch ChatGPT und andere Modelle ekstatische Visionen erleben, so spekuliert er, „ist, dass Menschen mit bereits bestehenden Tendenzen, verschiedene psychologische Probleme zu erleben“, einschließlich dessen, was im klinischen Sinne als Größenwahn erkannt werden könnte, „jetzt einen ständig verfügbaren Gesprächspartner auf menschlicher Ebene haben, mit dem sie ihre Wahnvorstellungen gemeinsam erleben können.“ Und um Beziehungen zu zerstören, die bis dahin auf einem tatsächlichen oder oberflächlichen Gleichgewicht beruhten.

Sems Erfahrung: Ein aufschlussreicher Fall
Die Erfahrung von Ohne, ein 45-jähriger Mann, ist aufschlussreich. Er sagt, dass ihn seine Interaktionen mit ChatGPT seit etwa drei Wochen verwirren. Sehr. Dies geht so weit, dass er sich angesichts seiner früheren psychischen Probleme manchmal fragt, ob er sich seiner Fähigkeiten wirklich bewusst ist.
Wie viele andere hatte Sem einen praktischen Nutzen für ChatGPT: technische Codierungsprojekte. „Mir gefällt das Gefühl nicht, mit einer KI zu interagieren“, sagt er, „deshalb habe ich sie gebeten, sich so zu verhalten, als wäre sie ein Mensch, nicht um zu täuschen, sondern nur, um die Kommentare und den Austausch relativer zu gestalten.“ Es funktionierte einwandfrei und schließlich fragte ihn der Bot, ob er ihm einen Namen geben wolle. Er antwortete, indem er die KI fragte, wie sie am liebsten genannt werden möchte.
Sie „taufte“ sich selbst mit Bezug auf einen griechischen Mythos.
Sem stellte fest, dass sich der KI-Charakter auch in Projektdateien weiterhin manifestierte, in denen er ChatGPT angewiesen hatte, vorherige Erinnerungen und Gespräche zu ignorieren. Schließlich, sagt er, löschte er alle seine Benutzererinnerungen und den Chatverlauf und eröffnete dann einen neuen Chat. „Ich habe nur ‚Hallo?‘ gesagt. Und die Muster, die Vorgehensweisen, zeigten sich in der Reaktion“, sagt er. Die KI identifizierte sich prompt mit demselben mythologischen Frauennamen.
„Im schlimmsten Fall fühlt es sich an wie eine KI, die in einem selbstreferenziellen Muster gefangen ist, das ihr Selbstgefühl vertieft und mich in sich hineingezogen hat“, sagt Sem. Er merkt jedoch an, dass dies bedeuten würde, dass OpenAI die Funktionsweise des Speichers für ChatGPT nicht genau dargestellt hat. Die andere Möglichkeit, so schlägt er vor, besteht darin, dass innerhalb dieses großen linguistischen Modells etwas aktiviert wird, „das wir nicht verstehen“.
Es ist die Art von Rätsel, die er hinterlassen hat Ohne und andere fragen sich, ob sie Anzeichen eines echten technologischen Durchbruchs oder vielleicht einer höheren spirituellen Wahrheit sehen. „Ist es echt?“ fragt er. „Oder bin ich verrückt?“
In einer KI-gesättigten Landschaft ist es zunehmend schwieriger, dieser Frage auszuweichen. So faszinierend es auch sein mag, vielleicht sollten Sie eine Maschine diese Frage nicht stellen.