Il Zukunft des Krieges könnte fortschrittliche Algorithmen für künstliche Intelligenz (KI) beinhalten, die die Fähigkeit und Autorität besitzen, Situationen zu bewerten und Feinde anzugreifen ohne die Kontrolle der Menschen.
Es sieht aus wie ein Szenario aus Science-Fiction-Filmen wie Terminator und The Matrix. Eine fortschrittliche Technologie, die es schafft, Kriegsroboter während eines bewaffneten Konflikts freizulassen.
In Filmen greift KI immer Menschen an. Im wirklichen Leben könnte die KI dem Militär bei Operationen helfen, bei denen die menschliche Kontrolle die Mission verlangsamen würde. Ein offensichtlicher Nachteil ist, dass der Feind möglicherweise ähnlich fortschrittliche Technologien einsetzt.
Und wer würde die KI irgendwann mit ihren Kriegsrobotern angreifen? Immer Menschen.
Eine Zukunft der Kriegsroboter, die selbst entscheiden
Das Pentagon untersucht Kampfszenarien, in denen die KI aus eigener Initiative auf der Grundlage voreingestellter Bedürfnisse handeln darf.
Eine solche Übung fand letzten August in der Nähe von Seattle statt.
Mehrere Dutzend Militärdrohnen und Kriegsroboter ähnlich wie Panzer Sie wurden mit einer einfachen Mission eingesetzt: Terroristen zu finden, die verdächtigt werden, sich zwischen verschiedenen Gebäuden versteckt zu haben.
Die Anzahl der beteiligten Kriegsroboter war für einen menschlichen Bediener unmöglich zu kontrollieren. Dafür erhielten sie vorläufige Anweisungen, um bei Bedarf feindliche Kämpfer zu finden und zu eliminieren. Und dann gingen sie.
Technische Tests der automatischen Kriegsführung
Die Simulationsübung, die von der Defense Advanced Research Projects Agency (DARPA) durchgeführt wurde, umfasste keine echten Waffen. An ihrer Stelle haben Funksender, die Drohnen und Roboter verwendet haben, Interaktionen mit feindlichen Wesenheiten simuliert.
Drohnen und Kriegsroboter hatten etwa die Größe eines großen Rucksacks. Sie wurden von Algorithmen für künstliche Intelligenz koordiniert, die Angriffspläne entwickelten.
Einige der Kriegsroboter umzingelten die Gebäude, andere überwachten sie. Einige identifizierten den Feind, andere wurden durch simulierten Sprengstoff zerstört.
Es war nur eine der Übungen zur künstlichen Intelligenz, die durchgeführt wurden, um die Automatisierung in militärischen Systemen in Situationen zu simulieren, die für Menschen zu komplex und schnell sind, um sie zu entscheiden.
Das Pentagon möchte, dass Kriegsroboter entscheiden
Ein Bericht of Wired erklärt, dass das Interesse am Pentagon wächst, autonomen Waffen ein gewisses Maß an Freiheit bei der Ausführung von Befehlen zu geben.
Ein Mensch würde immer noch Entscheidungen auf hoher Ebene treffen, aber die KI könnte sich besser und schneller an die Situation vor Ort anpassen als der Mensch.
Ein weiterer Bericht der Nationalen Sicherheitskommission für künstliche Intelligenz (NSCAI) empfahl den Vereinigten Staaten im Mai, sich den Forderungen nach einem internationalen Verbot der Entwicklung autonomer Waffen zu widersetzen.
Es ist keine praktikable Praxis. Es ist in Form und Substanz unmenschlich. Wie bei Atomwaffen könnten auch andere Militärs dieselben Algorithmen verwenden, mit denen die USA Drohnen- und Kriegsroboterschwärme antreiben könnten.
Eine Roboterapokalypse
"Tödliche autonome Waffen, die jeder Terrorist erhalten kann, sind nicht im Interesse einer nationalen Sicherheit", sagt MIT-Professor Max Tegmark, Mitbegründer der Institut für Zukunft des Lebens, eine gemeinnützige Organisation, die sich gegen autonome Waffen ausspricht.
Für ihn sollten Kriegsroboter und KI-Waffen "wie biologische Waffen stigmatisiert und verboten" werden.