Eines Tages, in nicht allzu ferner Zukunft, könnten einige Ihrer Kollegen Avatare der künstlichen Intelligenz sein. Sie selbst können einen elektronischen Imitator in Ihrem Namen an Meetings teilnehmen lassen. Entzückend, nicht wahr? Ja: aber auch schrecklich.
Vor einiger Zeit habe ich dir davon erzählt Stunde eins, das Unternehmen, das erstmals realistische Avatare zeigte. Es ist weniger als ein Jahr her: Es ist überraschend zu sehen, wie schnell sich diese Branche entwickelt. Heute hat Synthesia KI-Avatare für Geschäftsleute erstellt. Unternehmen schätzen die Möglichkeit, diese Cyber-Lookalikes zu verwalten, weil sie äußerst realistisch sind. Wie realistisch? So was:
Aber werden normale Leute sie wollen?
Einige Leute denken, dass künstliche Intelligenz gut für den Menschen sein wird. Andere Leute denken, dass es uns schlechte Dinge tun wird. KI wird immer besser, aber einige Leute sind sich nicht sicher, was sie in Zukunft tun wird.
Seit Jahrzehnten wird künstliche Intelligenz in den Medien der menschlichen Intelligenz ebenbürtig oder überlegen dargestellt, doch die Realität sieht ganz anders aus. Im Moment ist die meiste KI darauf ausgelegt, langweilige Aufgaben zu ersetzen. Auch dafür schlägt schließlich niemand WIRKLICH Alarm.
Aber wenn die KI-Technologie in Bereiche vordringt, die für uns „gefährlicher“ sind, wie Kreativität, Emotionen, Moral und analytische Fähigkeiten, dann werden sich die Menschen bedroht fühlen. Mehr noch: Sie werden bedroht. Würden Sie durch einen KI-Imitator ersetzt oder würden Sie sich von ihm ersetzt fühlen? Subtiler, aber wesentlicher Unterschied in der Wahrnehmung.
Ein virtuelles Doppel
Manchen Leuten fällt es schon schwer, zwischen einer realen Person und einem der virtuellen Avatare von zu unterscheiden Synthesia. Das Unternehmen kann generische und kundenspezifische menschliche KI-Lookalikes erstellen, die so programmiert werden können, dass sie ein Skript „abspielen“, das in über 50 Sprachen getippt, übersetzt und gesprochen wird. KI-Avatare sollen in Schulungsmaterialien, Unternehmenskommunikation und sogar personalisierten Videos verwendet werden. Um Ihren eigenen KI-Avatar zu erstellen, laden Sie einfach ein 10-minütiges Video hoch, in dem er spricht – eines dieser Videos, die mit einem Greenscreen erstellt wurden, um es zu verstehen. Die Technologie analysiert das Video, katalogisiert die Stimme und Mimik der Person. Und hier ist das "perfekte" virtuelle Double.

Es kann die Dinge noch schwieriger machen als jetzt
Synthesia legt großen Wert darauf, die Aufmerksamkeit des Unternehmens für die Privatsphäre und Sicherheit seiner Kunden hervorzuheben. Hacker ist das egal: Mit weit weniger Daten, als Synthesia benötigt, haben sie Betrügereien erstellt. Es gibt bereits viele Fälle, in denen Betrüger mit Deepfake Stimmen oder Gesichter von Personen klonen (und Geld auf ihre Konten überweisen lassen). Auch das Risiko „kultureller“ Manipulationen ist groß: Mit einem KI-Double eines Politikers oder Influencers könnte ein Hacker mehrdeutige oder irreführende Botschaften an die Öffentlichkeit übermitteln.
Über den möglichen Schaden hinaus haben Synthesia-KI-Avatare jedenfalls für viel Hype gesorgt und werden heute bereits von vielen Kunden super gewählt. Über 4500 Unternehmen (darunter Giganten wie Nike, Google und BBC) haben bereits in irgendeiner Weise einen virtuellen Avatar verwendet. Wenn jemand damit zufrieden ist, dann ist das der Weltmarkt.
Und wir? Zufrieden mit dem KI-Double?
Ob es Ihnen gefällt oder nicht, die Ära der Doubles mit künstlicher Intelligenz wird anhalten. KI-Avatare sind eine sichere Sache der nahen Zukunft. Sie werden uns Zeit sparen, sie werden Unternehmen viel Geld einbringen und sie werden uns wahrscheinlich an allem zweifeln lassen, was vor unseren Augen passiert.
Eines Tages werden einige Älteste des nächsten Jahrzehnts an der Liebes-Videobotschaft eines Sohnes zweifeln, der um Geld bittet. Und es wird gut tun.