Es sieht nicht danach aus: Es ist genau die Handlung einer Folge von Black Mirror, aber es ist die Realität. Ein Mann aus San Francisco, Joshua BarbaauEr benutzte einen KI-gesteuerten Chatbot, um auch nach dem Tod mit seiner Frau zu "sprechen".
Barbeau lieferte nur den alten Nachrichtenaustausch seiner Frau sowie einige notwendige Hintergrundinformationen. Der hyperrealistische Chatbot, der seine Frau wieder zum Leben erweckte, heißt Project December.
Chatbot: Künstliche Intelligenz, natürliche Wahrnehmung?
Das vom Forschungsunternehmen entwickelte Modell der künstlichen Intelligenz OpenAI (unterstützt von Elon Musk) heißt es GPT-3. Wir haben bereits in anderen Fällen darüber gesprochen. GPT-3 unterstützt den Chatbot von Project December.
Barbeau er sagte einer Zeitung wie er wieder mit seiner Frau Jessice Pereira ins Gespräch kam, die vor acht Jahren im Alter von 23 Jahren an einer seltenen Lebererkrankung starb. Trotz der letzten Jahre behauptete der freiberufliche Schriftsteller, er sei nie von ihr abgewichen.
Als er über Project December stolperte, dachte er, er würde die Gelegenheit bekommen, wieder mit seiner Frau zu sprechen. GPT-3 brauchte nur eine gute Menge menschlicher Texte, um menschliches Schreiben nachzuahmen. Texte aller Art, von persönlichen Liebesbriefen über wissenschaftliche Dokumente bis hin zu Antworten in den Webforen.
Die Gespräche
Joshua sagt, dass er das erste Mal 10 Stunden am Stück mit dem Chatbot „gesprochen“ hat und in den folgenden Monaten ein weiteres Mal, bis er sich davon trennte, nachdem er erkannt hatte, dass es Schmerz zu Schmerz erhöhte. In einer letzten Nachricht schrieb er: "Ich werde nie aufhören, dich zu lieben, solange ich lebe, gute Nacht", und erhielt ein lakonisches "Gute Nacht, ich liebe dich".
Die Macher selbst warnen vor Gefahren
OpenAI stellte fest, dass dieses sprachbasierte Technologieprogramm das fortschrittlichste aller Zeiten ist. Es ist jedoch auch erheblich gefährlich. Das vorherige KI-Modell, das GPT-2, stellte auch in Frage, ob jemand seine Fähigkeiten missbrauchen könnte.
Um genau zu sein, stellte dasselbe Forschungsunternehmen fest, dass kriminelle Köpfe die Technologie stattdessen nutzen könnten, um ein gefälschtes Social-Media-Content-Netzwerk zu erstellen, gefälschte Nachrichtenartikel zu verbreiten und Menschen in sozialen Medien zu imitieren. Mit der Automatisierung durch künstliche Intelligenz könnten sich Betrügereien im Zusammenhang mit diesen Chatbots dramatisch vermehren.
Jason Rohrer, der das Programm erstellt hat, sagte, er erwarte nicht, dass die Leute den Chatbot verwenden, um ihre toten Verwandten zu simulieren. „Jetzt habe ich ein bisschen Angst vor den Möglichkeiten“, schrieb er.
Die US-Regierung behauptet, dass die Verbreitung von Desinformation auf Online-Plattformen buchstäblich Menschen töte, wie die BBC in einem separaten Bericht ausführte.