Die Medienagentur Reuters ist ein KI-Startup namens Synthesia Heute haben sie ein neues Projekt vorgestellt, an dem sie zusammengearbeitet haben: Es verwendet Deepfakes-Technologie, um automatisierte Nachrichten in Echtzeit zu generieren.
Das als Proof-of-Concept konzipierte System erfasst die Spieldaten der Fußballspiele in Echtzeit und generiert gefälschte Nachrichtenberichte mit Fotos und Videos.
Synthesia und Reuters verwenden ein neuronales Netzwerk, das Nachrichten aus dem Netzwerk und zuvor aufgezeichnete Elemente mischt, um einen hyperrealistischen Moderator zu entwickeln, der Aktualisierungen zu Ergebnissen und Nachrichten bereitstellt.
Jedem seine eigene TG
Die gute Idee dabei ist, dass Sie beispielsweise 20 verschiedene "Live" -Streaming-Videos haben können, in denen dieselbe "Person" Echtzeit-Ergebnisaktualisierungen für jedes der Fußballliga-Teams ankündigt.
Reuters wies darauf hin, dass der Deepfake-News-Prototyp nur ein Prototyp ist und nicht unbedingt eine Funktion, die implementiert werden soll.
Der globale Manager der wichtigsten Informationsprodukte und -dienstleistungen des Unternehmens, Nick Cohen, sagte in einer Notiz: „Reuters ist seit langem führend bei der Erforschung des Potenzials neuer Technologien zur Bereitstellung von Nachrichten und Informationen. Diese Art des Prototypings hilft uns zu verstehen, wie KI und synthetische Medien mit unseren Echtzeit-Foto- und Berichts-Feeds kombiniert werden können, um neue Arten von Produkten und Dienstleistungen zu schaffen.“
Deepfake News: die Auswirkungen
Die Anwendungen dieser Technologie (Angenommen, wir entwickeln einen Newsletter, der von einer "Person" durchgeführt wird, die nicht von denen in Fleisch und Blut zu unterscheiden ist), könnten viele sein.
Abgesehen von der Berichterstattung in den Medien ist es leicht vorstellbar, dass Flughäfen voller Monitore das gleiche Gesicht mit Updates für Flüge von verschiedenen Fluggesellschaften oder Updates auf Anfrage für eine Vielzahl von Themen zeigen.
Was ist wahr, was ist falsch?
Auf der anderen Seite könnten wir uns einer Dystopie nähern, bei der der massive Einsatz künstlicher Intelligenz und ein Gesicht, dem die Menschen vertrauen können, der entscheidende Faktor für die Entscheidung sind, ob die Öffentlichkeit etwas für falsch hält oder nicht. Was einmal "es ist wahr, ich habe es in der Zeitung gelesen" und weiter "es ist wahr, ich habe es im Fernsehen gehört" war, könnte "es ist wahr, sagte der KI-Journalist" sein. Seien Sie entsetzt über die Aussicht, in einer Zukunft zu leben, in der Menschlichkeit und KI nicht zu unterscheiden sind.
Trotzdem könnte Reuters ein positiver Anwendungsfall für die Verwendung der Deepfake-Technologie sein. In Kombination mit den richtigen Übersetzungsdiensten könnte dieses Tool verwendet werden, um Notfallberichte an Orten zu erstellen, an denen Sprachbarrieren sowohl in der mündlichen als auch in der schriftlichen Kommunikation die rasche Verbreitung von Informationen erschweren könnten.