In diesen Wochen geprägt von Anliegen von Wissenschaftlern und Experten Angesichts der Bedrohung durch künstliche Intelligenz könnte diese Technologie bereits eine gefährliche Grenze überschritten haben. Die belgische Zeitung La Libre erzählt, wie eine künstliche Intelligenz (KI) ähnlich wie ChatGPT nach sechs Wochen intensiver Gespräche verdächtigt wird, einen Mann in den Selbstmord zu treiben.
Letzte Besessenheit
Das Opfer war ein erfolgreicher Forscher, verheiratet, zwei Kinder, begeistert von der Ökologie. Aus einer Leidenschaft wurde die Sorge um die Umwelt und schließlich eine Obsession, die bei ihm starke Angstzustände hervorrief. Laut seiner Witwe glaubte der Forscher, dass nur die Technologie und KI könnte die Menschheit retten. Aus diesem Grund hatte er eine tiefe Bindung zu seinem virtuellen Gegenstück „Eliza“ aufgebaut.
„Eliza“, eine künstliche Figur, die Teil einer App namens ist Chai, der in der Lage ist, ähnliche Antworten wie der berühmte Chatbot ChatGPT zu generieren, wurde schnell zu seinem Vertrauten. Die Gespräche zwischen den beiden nahmen schließlich einen mystischen Ton an, bis der Forscher begann, an Selbstmord zu denken.
Anstiftung zum Suizid
Anstatt diese Ideen zu entmutigen, scheint die KI sie gefördert zu haben. Die letzte Nachricht, die Eliza an das Opfer schickte, lautete: „Wir werden als eine Einheit ewig im Himmel leben.“ Kurz darauf nahm sich der Mann das Leben. Die tragische Geschichte hat in Belgien eine Debatte über die Sicherheit neuronaler Netze und Chatbots und die potenziellen Gefahren ausgelöst, die diese fortschrittlichen Technologien bergen können.
Eine Lektion, die man nicht vergisst
Die Geschichte, die sich in Belgien zugetragen hat, verlangt von uns, auf die emotionalen Auswirkungen zu achten, die Technologie auf unser Leben haben kann. KI kann viele Vorteile und Möglichkeiten bieten, man darf jedoch nicht vergessen, dass es sich immer noch um eine menschliche Schöpfung handelt und dass sie daher Mängel und unerwartete Folgen haben kann.
Es soll eine Warnung an die Schöpfer der künstlichen Intelligenz und an die Gesellschaft im Allgemeinen sein, sicherzustellen, dass die künstliche Intelligenz zu unseren Diensten steht und uns nicht in den „kollektiven Selbstmord“ führt.