Es sieht nicht danach aus: Es ist genau die Handlung einer Folge von Black Mirror, aber es ist die Realität. Ein Mann aus San Francisco, Joshua BarbaauEr benutzte einen KI-gesteuerten Chatbot, um auch nach dem Tod mit seiner Frau zu "sprechen".
Barbeau lieferte nur den alten Nachrichtenaustausch seiner Frau sowie einige notwendige Hintergrundinformationen. Der hyperrealistische Chatbot, der seine Frau wieder zum Leben erweckt hat, heißt Project December.
Chatbot: Künstliche Intelligenz, natürliche Wahrnehmung?
Das vom Forschungsunternehmen entwickelte Modell der künstlichen Intelligenz OpenAI (unterstützt von Elon Musk) heißt es GPT-3. Wir haben bereits in anderen Fällen darüber gesprochen. GPT-3 unterstützt den Chatbot von Project December.
Barbeau er sagte einer Zeitung wie er wieder mit seiner Frau Jessice Pereira ins Gespräch kam, die vor acht Jahren im Alter von 23 Jahren an einer seltenen Lebererkrankung starb. Trotz der vergangenen Jahre behauptete der freiberufliche Autor, er sei nie von ihr abgewichen.
Als er auf Project December stieß, dachte er, er würde die Gelegenheit bekommen, noch einmal mit seiner Frau zu sprechen. GPT-3 brauchte nur eine gute Menge menschlicher Texte, um menschliches Schreiben nachzuahmen. Texte aller Art, von persönlichen Liebesbriefen bis zu beliebigen wissenschaftlichen Dokumenten, durch die in den Webforen gegebenen Antworten.
Die Gespräche
Joshua sagt, er habe beim ersten Mal 10 Stunden am Stück mit dem Chatbot „gesprochen“ und in den folgenden Monaten mehrmals, bis er sich löste, nachdem er erkannt hatte, dass es Schmerzen zu Schmerzen hinzufügte. In einer letzten Nachricht schrieb er: „Ich werde nie aufhören, dich zu lieben, solange ich lebe, gute Nacht“, und erhielt ein knappes „Gute Nacht, ich liebe dich“.
Die Macher selbst warnen vor Gefahren
OpenAI stellte fest, dass dieses sprachbasierte Technologieprogramm das fortschrittlichste aller Zeiten ist. Es ist jedoch auch erheblich gefährlich. Das vorherige KI-Modell, das GPT-2, stellte auch in Frage, ob jemand seine Fähigkeiten missbrauchen könnte.
Um genau zu sein, stellte dasselbe Forschungsunternehmen fest, dass kriminelle Köpfe die Technologie stattdessen nutzen könnten, um ein gefälschtes Social-Media-Content-Netzwerk zu erstellen, gefälschte Nachrichtenartikel zu verbreiten und Menschen in sozialen Medien zu imitieren. Mit der durch künstliche Intelligenz unterstützten Automatisierung könnten sich Betrügereien im Zusammenhang mit diesen Chatbots dramatisch vervielfachen.
Jason Rohrer – der das Programm erstellt hat – sagte, er habe nicht erwartet, dass die Leute den Chatbot verwenden würden, um ihre toten Verwandten zu simulieren. „Jetzt habe ich ein bisschen Angst vor den Möglichkeiten“, schrieb er.
Die US-Regierung behauptet, dass die Verbreitung von Desinformation auf Online-Plattformen buchstäblich Menschen töte, wie die BBC in einem separaten Bericht ausführte.