Stellen Sie sich die Szene vor: Der Richter ruft den Zeugen auf, die Bildschirme leuchten auf, und das Gesicht eines Mannes, der vor vier Jahren starb, erscheint. Er setzt seine graue Baseballkappe auf, stutzt seinen roten Bart und beginnt mit der Stimme zu sprechen, an die sich die Familie perfekt erinnert. „Hallo, ich bin eine KI-erstellte Version von Chris“, verkündet er dem fassungslosen Gerichtssaal. Es ist die erste Gerichtsaussage eines Verstorbenen, die durch Deepfake-Technologie möglich wurde. Und es löst ein ethisches Erdbeben aus.
Der Fall, der die Rechtsgeschichte veränderte
Christopher Pelkey Er war ein 37-jähriger Veteran der US-Armee und hatte drei Einsätze im Irak und in Afghanistan hinter sich. Sein Leben endete am 21. November 2021 in Arizona bei einem vermeintlich harmlosen Verkehrsunfall. Gabriel HorcasitasDer 54-jährige erschoss ihn nach einem Streit an einer Ampel. Christopher war ausgestiegen, um die Situation zu klären; er stieg nie wieder ein.
Letzten Monat geschah während der Anhörung zur Urteilsverkündung von Horcasitas etwas Seltsames. mai visto prima in der Geschichte der Gerichte. Stacey Wales, Christophers Schwester, zusammen mit ihrem Mann Tim Wales und zu seinem Freund Scott Yentzer, präsentierte ein Video, das den Raum sprachlos machte.
Dabei handelte es sich nicht um einen einfachen Erinnerungsfilm, sondern um einen mithilfe künstlicher Intelligenz erstellten Avatar, der das Aussehen und die Stimme des vermissten Bruders perfekt wiedergab.
Die Technologie hinter dem Avatar
Christophers Avatar wurde erstellt mit Stable Diffusion , eine der fortschrittlichsten Plattformen für künstliche Intelligenz zur Bildgenerierung. Die Familie hat fütterte das System mit Hunderten von Fotos, Videos und Audioaufnahmen, darunter ein Interview, das Christopher Monate vor seinem Tod gegeben hatte. Das Ergebnis war ein Deepfake in Kinoqualität: Jeder Gesichtsausdruck, jede Stimmmodulation gab die Gesichtszüge des Veteranen originalgetreu wieder.
„Wir haben Aussagen von allen eingeholt, die ihn kannten“, sagt Stacey Wales. „Von seinem Grundschullehrer bis zu seinen Kameraden in Afghanistan. Wir wollten sicherstellen, dass Christophers Aussagen seinen Charakter wirklich widerspiegeln.“
Das „Drehbuch“ wurde von seiner Schwester geschrieben, aber jedes Wort sollte die Persönlichkeit eines Mannes widerspiegeln, der als „der Typ, der sein Hemd auszieht und es dir gibt, wenn du es brauchst“ beschrieben wird.
Die Worte, die das Gericht bewegten
Christophers Avatar wandte sich direkt an seinen Mörder mit Worten, die den gesamten Gerichtssaal erschütterten: „In einem anderen Leben hätten wir vielleicht Freunde sein können. Ich glaube an Vergebung. An einen Gott, der vergibt.“ Die Botschaft endete mit einem Gruß, der alle im Raum berührte: „Ich gehe jetzt angeln. Ich liebe euch alle. Wir sehen uns auf der anderen Seite.“
Der Richter Todd Lang er verbarg seine Emotionen nicht: „Ich habe diese KI geliebt“, sagte er bei der Urteilsverkündung. „Obwohl die Familie zu Recht wütend war und die Höchststrafe forderte, ließ er Chris aus tiefstem Herzen sprechen, so wie sie ihn sahen. Ich habe ihn nicht die Höchststrafe fordern hören.“
Lang verurteilte Horcasitas später zu zehneinhalb Jahren Gefängnis, der Höchststrafe für Totschlag. Vielleicht hat dieses Video den Gerechtigkeitsdrang der Familie letztlich nicht gestillt. Aber Sie werden sich vorstellen, dass es hier nicht darum geht..
Die ethische Debatte, die Experten spaltet
Die Zeugenaussagen vor Gericht haben eine Kontroverse ausgelöst, die weit über den konkreten Fall hinausgeht. Derek Leben, Professor für Wirtschaftsethik an der Carnegie Mellon University und Autor von „Ethics for Robots“, äußerte starke Ratlosigkeit zu dieser Angelegenheit:
„Ich stelle die Absichten dieser Familie nicht in Frage, aber ich befürchte, dass nicht jeder KI richtig einsetzen wird. Wenn andere Familien Avatare erstellen, werden sie dann immer den Wünschen des Opfers treu bleiben?“
Das Thema berührt einen der wundesten Punkte des digitalen Zeitalters: die posthume Zustimmung. Wie können wir sicher sein, dass die Worte des Avatars wirklich das widerspiegeln, was Christopher gesagt hätte? Und vor allem: Wer hat die Autorität zu entscheiden, was ein Toter sagen darf und was nicht?
Ein Präzedenzfall, der zum Nachdenken anregt
wie Ich habe dir hier geschriebenDer Einsatz künstlicher Intelligenz zur Rekonstruktion von Verstorbenen ist keine absolute Neuheit. „Thanabots“ (Chatbots der Toten) gibt es schon länger, meist zu Freizeitzwecken. Ich habe Ihnen zum Beispiel kürzlich von den Schreibkursen erzählt, die sozusagen „direkt“ von der großen Schriftstellerin Agatha Christie gehalten wurden. durch künstliche Intelligenz „wiederbelebt“. Doch der Fall Pelkey markiert einen qualitativen Sprung: Zum ersten Mal hat ein digitaler Avatar eine richterliche Entscheidung vor Gericht direkt beeinflusst.
Und jetzt ist es ein Sturm. Die Justizkonferenz der Vereinigten Staaten hat bereits angekündigt, eine öffentliche Konsultation zur Regelung der Verwendung von durch künstliche Intelligenz generierten Beweismitteln in Gerichtsverfahren einzuleiten. Gary Marchant, Professor für Recht an der Arizona State University, warnt:
Staatsanwälte und Anwälte befürchten, dass Deepfakes immer häufiger zum Einsatz kommen. Sie sind leicht zu erstellen, und jeder kann das mit einem Smartphone tun.
„KI-Zeugen“ vor Gericht: Die Zukunft der digitalen Justiz
Der Fall Christopher Pelkey ist kein Einzelfall. Er steht für den Beginn einer neuen Ära, in der die Technologie die Grenzen zwischen Leben und Tod, Erinnerung und Manipulation neu definiert. Wie mehrere Studien belegenExperten betrachten Deepfakes als eine der größten Bedrohungen durch künstliche Intelligenz, gerade weil sie das Vertrauen in audiovisuelle Beweise untergraben können.
Während die Familie Wales glaubt, Christopher die Möglichkeit gegeben zu haben, seine letzte Botschaft zu übermitteln, fragen sich Wissenschaft und Rechtsprechung nach den Risiken einer Technologie, die Gerichte eher in Theater der Emotionen als in Orte der Gerechtigkeit verwandeln könnte. Christophers Stimme, ob echt oder rekonstruiert, hat zweifellos Spuren hinterlassen. Sie wirft aber auch Fragen auf, denen sich die Gesellschaft schon bald stellen muss: Inwieweit sind wir bereit, künstliche Intelligenz für uns sprechen zu lassen? auch nach dem Tod?
Die Antwort wird nicht nur die Zukunft der Gerichte bestimmen, sondern auch die Art und Weise, wie wir im digitalen Zeitalter über die menschliche Identität denken.