Künstliche Intelligenz (was auch immer sie sagen) hat die Menschheit noch nicht erfasst und ist ihr auch nicht bewusst geworden. Aber es übernimmt allmählich das Ruder unserer Tage und unserer Regeln.
Virtuelle Assistenten belauschen uns in unseren eigenen vier Wänden. Die Algorithmen entscheiden über unseren Informationshorizont, das einzustellende Personal und mit der Zeit auch über den zu verurteilenden Verbrecher. Die ethischen Grenzen ihres Einsatzes? Immer subtiler und verwirrter. Gefährlich verwirrt.

Der Projekt-Dezember-Fall
Es sieht aus wie eine Episode von Black Mirror, Charlie Brookers Meisterwerksserie, die die „Fehler“ der Technologie und die dystopischen Szenarien untersucht, die sie erzeugen könnten. Nicht irgendeine Folge, sondern eine ganz besondere, 2013 ausgestrahlt. Für Fans der Serie hieß sie „Torna da me“, „Bleib gleich zurück“. Doch es ist keine Fiktion, es ist Realität.
Vor ein paar Monaten (Ich habe dir hier davon erzählt) ein 33-jähriger Mann namens Joshua Barbaau nutzte einen Dienst namens Project December, um einen Gesprächsroboter (einen Chatbot) zu erstellen, der Gespräche mit seiner verstorbenen Freundin Jessica simulieren konnte.
Über diesen Chatbot tauschte Barbeau liebevolle Textnachrichten mit einer künstlichen „Jessica“ aus. Zum Zeitpunkt des Artikels, vielleicht unter Mitwirkung der Augusthitze, habe ich mich auf ethischer Ebene nicht ausreichend in Frage gestellt.
Heute frage ich mich, da es noch keine Norm gibt, die diese Fälle regelt: Ist es ethisch zulässig oder verwerflich, einen „Deadbot“, den Gesprächsroboter eines Verstorbenen, zu entwickeln?
Deadbot: Richtig oder falsch
Gehen wir zunächst einen Schritt zurück. Projekt Dezember wurde erstellt von Jason Rohrer, ein Videospielentwickler, mit GPT-3, ein von OpenAI entwickeltes Sprachmodell zur Textgenerierung. Und gegen die Open AI-Richtlinien verstoßen, die die Verwendung von GPT-3 für sexuelle, Liebes-, Selbstverletzungs- oder Mobbingzwecke ausdrücklich verbieten.
Für Rohrer hingegen ist OpenAI moralisierend und Menschen wie Barbeau „erwachsen und einverstanden“: Projekt Dezember arbeitet weiterhin, aber ohne GPT-3 zu verwenden, in voller Kontroverse mit dem Unternehmen.
Kommen wir zurück zum Dilemma: richtig oder falsch? Verhalten sich Barbeau und andere, die diesen Service möglicherweise genutzt haben, ethisch korrekt?
(Vielleicht) reicht der Wille der Zurückgebliebenen nicht ...

Jessica war eine echte Person: Reicht der Wille ihres Freundes aus, um einen Roboter zu erschaffen, der sie nachahmt? Auch wenn sie sterben, sind Menschen nicht nur Dinge, mit denen andere machen können, was sie wollen.
Es gibt bestimmte Verbrechen, wie die Verunglimpfung einer Leiche, die uns verständlich machen, wie sehr die Gesellschaft es für falsch hält, das Andenken an die Toten zu entweihen oder nicht zu respektieren. Wir haben ihnen gegenüber moralische Verpflichtungen, denn wenn jemand stirbt, hören nicht alle von ihnen auf zu existieren. Gefühle, Erinnerungen, Beispiele bleiben, und es ist richtig, sie zu schützen.
Nochmals: Die Entwicklung eines Deadbots, der die Persönlichkeit einer Person repliziert, erfordert große Mengen an persönlichen Informationen. Einschließlich Daten aus sozialen Netzwerken, die nachweislich hochsensible Merkmale aufdecken.
Wenn es unethisch ist, Daten von Lebenden ohne deren Zustimmung zu verwenden, warum sollte es dann ethisch vertretbar sein, dies bei Toten zu tun? Dazu wäre auch die Zustimmung der „nachgeahmten“ Person, also von Jessica, nötig gewesen. Aber würde das reichen?
... noch der Wille der Verstorbenen

Die Grenzen der Einwilligung sind immer wieder umstritten. Um ein Beispiel zu nennen: Vor einiger Zeit geriet der Fall des "Kannibalen von Rotenburg" sozusagen in die Schlagzeilen der Nachrichten. Ein Typ, der zu lebenslanger Haft verurteilt wurde, Sie können sich vorstellen, warum, obwohl sein Opfer zugestimmt hat, gegessen zu werden.
Die Verurteilung wurde durch die Tatsache motiviert, dass es unethisch ist, sich auf Dinge einzulassen, die uns körperlich (Verkauf lebenswichtiger Organe) oder abstrakt (Veräußerung von Rechten) schaden können.
Während die Toten nicht auf die gleiche Weise verletzt oder beleidigt werden können wie die Lebenden, bedeutet dies nicht, dass sie für böse Taten unverwundbar sind oder dass diese Taten ethisch sind.
Die Toten können Schaden an ihrer Ehre, ihrem Ruf oder ihrer Würde erleiden (z. B. posthume Schmutzkampagnen) und die Respektlosigkeit gegenüber den Toten schadet auch ihren Familienangehörigen.
Zusammenfassend kann nicht einmal die Zustimmung einer Person ausreichen, in Form eines Gesprächsroboters „gefressen“ (metaphorisch) und „ausgespuckt“ zu werden.
Wie wird es also gehen?
Wir haben verstanden, dass weder der Wille derer, die mit einem „rekonstruierten“ Verstorbenen sprechen wollen, noch der derer, die nach dem Tod „nachgeahmt“ werden wollen, nicht ausreichen darf. Gibt es ethische Möglichkeiten, so etwas zu tun? Wenn ja, wer wäre für die Ergebnisse eines Deadbots verantwortlich, insbesondere im Fall von schädlichen Effekten?
Stellen Sie sich vor, Jessicas Deadbot „lernt“ selbstständig, sich auf eine Weise zu verhalten, die die Erinnerung an den Verstorbenen in den Schatten stellt oder die geistige Gesundheit ihres Freundes schädigt.

Deadbot: Wer ist schuld?
Für KI-Experten liegt die Verantwortung bei denjenigen, die an der Konzeption und Entwicklung des Systems beteiligt sind, und zweitens zwischen allen Agenten, die mit ihnen interagieren. In diesem Fall wären die beteiligten Themen OpenAI, Jason Rohrer und Joshua Barbeau. Die erste, OpenAI, hat ausdrücklich verboten, ihr System für diese Zwecke zu verwenden: Ich sehe wenige Fehler. Der zweite, Jason Rohrer, entwarf den Deadbot, verstieß damit gegen die OpenAI-Richtlinien und profitierte davon. Der Großteil der Verantwortung würde bei Ihnen liegen. Der Dritte, Joshua Barbeau, ist als Mitverantwortlicher für etwaige Drifts des Deadbots anzusehen. Auf jeden Fall wäre es nicht einfach, dies von Zeit zu Zeit festzustellen.
Zusammenfassend: Wäre der Deadbot ethisch vertretbar? Nur unter bestimmten Bedingungen
Wenn alle beteiligten Subjekte (vom Deadbot „nachgeahmte“ Person, Person, die den Deadbot entwickelt und Person, die mit dem Deadbot interagiert) ausdrücklich zugestimmt haben, die zulässigen Verwendungen so weit wie möglich detailliert (und eingeschränkt) haben und die Verantwortung dafür übernehmen negative Ergebnisse, es kann getan werden.
Dies sind drei strenge Bedingungen, die den Prozess der Erstellung dieser Systeme starr machen, aber ernsthafte Garantien bieten
Und sie bestätigen, wie wichtig Ethik im Bereich des maschinellen Lernens ist: Wir müssen jetzt Regeln entwickeln, denn diese Technologie wird sich verdammt schnell durchsetzen und riskieren, unsere Werte und unsere Gesellschaft zu erschüttern.