Ein Taylor-Swift-Video, das es nie gab, ein TED-Talk, den es nie gab, eine Einstein-Vorlesung, die es nie gab. Dies sind keine filmischen Spezialeffekte, sondern die unglaublichen Kreationen von OmniHuman-1, das neue künstliche Intelligenzsystem für Deepfake-Videos, entwickelt von ByteDance (der „Eigentümer“ von TikTok), der die Grenzen zwischen Realität und digitaler Fiktion neu definiert.
Eine beispiellose Technologie
Deepfake-Videos Sie sind nichts Neues in der digitalen Landschaft. Es gibt bereits zahlreiche Anwendungen, mit denen man eine Person in ein Foto einfügen oder sie Dinge sagen lassen kann, die sie nie gesagt hat. Doch die meisten dieser manipulierten Inhalte weisen deutliche Anzeichen von Künstlichkeit auf. OmniHuman-1 scheint diese Einschränkung überwunden zu haben und liefert überraschend realistische Ergebnisse.
Das System benötigt nur zwei Elemente, um ein Deepfake-Video zu generieren: ein Referenzbild und eine Audiodatei, bei der es sich um eine Rede oder eine Sprachspur handeln kann. Mit diesen minimalen Eingaben kann der OmniHuman-1 Clips beliebiger Länge mit anpassbaren Seitenverhältnissen und vollständiger Kontrolle über die Motivdarstellung produzieren. Das System wurde anhand von 19.000 Stunden Videoinhalten (aus unbekannten Quellen) trainiert.
Erweiterte Manipulationsmöglichkeiten
Die Fähigkeiten von OmniHuman-1 gehen über die einfache Videoerstellung hinaus. Das System kann außerdem vorhandenes Filmmaterial verändern und sogar die Bewegungen der Gliedmaßen von Personen ändern. Die Ergebnisse, wie sie das Team von ByteDancesind unglaublich überzeugend, allerdings nicht ohne Einschränkungen: Wenn es mit Referenzbildern niedriger Qualität „gefüttert“ wird, sind die Ergebnisse schlechter und einige Posen sind immer noch problematisch. Der von OmniHuman-1 erreichte Grad der Verfeinerung gibt jedoch Anlass zu ernsthaften Bedenken, in einem bereits ziemlich glühenden Bild.
in 2024haben politische Deepfakes bereits erhebliche Probleme verursacht: In Taiwan veröffentlichte eine der Kommunistischen Partei Chinas nahestehende Gruppe manipulierte Audioaufnahmen eines Politikers. In Moldawien zeigten Deepfake-Videos den gefälschten Rücktritt des Präsidenten Maja Sandu; in Südafrika eine Fälschung Eminem er unterstützte eine Oppositionspartei.
zweite DeloitteAllein in den Vereinigten Staaten haben KI-generierte Inhalte dazu beigetragen, Die durch Betrug verursachten Verluste werden 12 2023 Milliarden US-Dollar übersteigen, Prognosen gehen davon aus, dass sie bis 40 2027 Milliarden US-Dollar erreichen könnten.. Verbraucher werden durch Deepfakes von Prominenten betrogen, die für betrügerische Investitionen werben, während Unternehmen von digitalen Betrügern um Millionen betrogen werden. Die Wissenschaftsgemeinschaft fordert strenge Regulierungen und mehrere Organisationen erwägen Gesetzesentwürfe, die es Richtern erlauben würden, die Entfernung von Deepfake-Videos anzuordnen, wobei den Verstößen möglicherweise Geldstrafen drohen würden.
Deepfake-Videos: Der schwierige Kampf um die Erkennung
Das Erkennen von Deepfake-Videos bleibt weiterhin eine große Herausforderung. Trotz der Bemühungen sozialer Netzwerke und Suchmaschinen, ihre Verbreitung einzuschränken, wächst die Menge manipulierter Online-Inhalte weiterhin mit besorgniserregender Geschwindigkeit. Eine Umfrage unter Jumio von 2024 zeigt, dass 60 % der Menschen sind im vergangenen Jahr auf einen Deepfake gestoßen und 72 % haben täglich Angst, darauf hereinzufallen.
ByteDance hat OmniHuman-1 noch nicht öffentlich veröffentlicht, aber die Erfahrung zeigt, dass es nicht lange dauert, bis die KI-Community ähnliche Systeme repliziert. Dies wirft entscheidende Fragen über die Zukunft der digitalen Wahrheit auf und zeigt, dass wirksame Instrumente entwickelt werden müssen, um die Gesellschaft vor dieser immer mächtigeren und gefährlicheren Technologie zu schützen.