Zukünftige Kriege werden schneller und technologischer, aber weniger human als je zuvor: Willkommen im Zeitalter der Robotersoldaten.
Es gibt einen perfekten Ort, um fortschrittliche Waffen zu testen: die Wallops-Inseln, ein kleines Stück Land vor der Küste von Virginia, das scheinbar aus Asimovs Feder stammt. Wenn vor einem Jahr ein Fischerboot diesen Weg passiert hätte, hätten sie ein halbes Dutzend Flöße in der Gegend zirkulieren sehen - bei genauerem Hinsehen hätte sich herausgestellt, dass die Flöße niemand an Bord hatten.
Die Boote verwendeten einen Motor, der sich je nach Kontext anpassen und Aktionen und Positionen an alle anderen übertragen konnte, wodurch die Flotte sofort gemäß einer Strategie organisiert wurde. Sogar Schießen, vielleicht um am Ufer stationierte Truppen zu verteidigen.
Die halbgeheime Anstrengung, die Teil eines US Navy-Programms namens Sea Mob ist, soll deutlich machen, dass mit künstlicher Intelligenz ausgestattete Maschinen bald auch tödliche Angriffe ohne menschliche Aufsicht und unter Missachtung von perfekt ausführen können Robotikgesetze.
Formuliert von Isaac Asimov, einer der Väter der Science-Fiction-Fiktion, die drei Gesetze der Robotik Sie wurden zum ersten Mal in einer Kurzgeschichte von 1942 veröffentlicht. In seinen Romanen erwähnt der russisch-amerikanische Schriftsteller sie oft: Sie sind starre Prinzipien, die nicht übertreten werden dürfen und theoretisiert werden, um die Menschheit über die guten "Absichten" von Robotern zu beruhigen.
Wer weiß, ob Asimov vorausgesehen hatte, dass seine „Gesetze“ riskieren würden, auseinanderzufallen, was bald geschehen wird.
Automatischer Tod
Die Idee, große, tödliche, autonome Maschinen in die Schlacht zu schicken, ist nicht neu: Ähnliche Systeme wurden jahrzehntelang getestet, wenn auch defensiver Art, beispielsweise solche, die eine Abdeckung durch feindliche Raketen ermöglichen. Die Entwicklung der künstlichen Intelligenz wird die Schaffung offensiver Systeme ermöglichen, die nicht nur auf Reize reagieren, sondern ohne menschliches Zutun selbst entscheiden, was zu tun ist.
Ein Mensch braucht eine Viertelsekunde, um auf den Anblick von etwas zu reagieren (stellen Sie sich die Zeit eines Torhüters vor, der bestimmt, wohin er sich während eines Elfmeters wirft). Die Maschinen, die wir geschaffen haben, übertreffen uns bereits, zumindest in Bezug auf die Geschwindigkeit. In diesem Jahr trainierten beispielsweise Forscher der Nanyang Technological University in Singapur ein neuronales Netzwerk, um Daten aus 1.2 Millionen Bildern zu absorbieren. Der Computer versuchte, die Personen auf dem Foto zu identifizieren, und es dauerte 90 Sekunden. 0.000075 Sekunden pro Foto.
Vorerst gibt es noch viel zu tun: Bei dieser unglaublichen Geschwindigkeit hat das System die Person auf dem Foto nur in 58 % der Fälle identifiziert. Eine Erfolgsquote, die im Kampf katastrophal wäre. Dass sich Maschinen viel schneller bewegen können als wir, ist jedoch eine Tatsache und wird noch zunehmen. Im Laufe des nächsten Jahrzehnts wird die neue Generation von Raketen auf suborbitaler Ebene fliegen, zu schnell, als dass ein Mann entscheiden könnte, wie er ihnen entgegenwirken oder die Situation bewältigen soll. Schwärme autonomer Drohnen werden angreifen, und andere Computer werden mit Überschallgeschwindigkeit reagieren.
"Wenn der Krieg so schnell wird, in welchem Moment wird der Mensch zum Hindernis?" er fragt sich Robert Arbeit, Stellvertretender Chef des Pentagon mit Obama und Trump. "Wir haben keine Möglichkeit einzugreifen, also delegieren wir an die Maschinen." Kurz gesagt, außer Asimov.
Waffen, die sich selbst machen
In jedem militärischen Aspekt wird heute geforscht, um eine schnellere, präzisere und weniger humane Art von Krieg zu gewährleisten.
La marina American testet ein 135-Tonnen-Schiff namens Sea Hunter, das ohne Besatzung durch die Ozeane patrouilliert, auf der Suche nach U-Booten, die eines Tages direkt abgeschossen werden können. In einem Test reiste das Schiff ohne menschliches Eingreifen 4000 km von Hawaii nach Kalifornien und tat dies alles von selbst.
die Armee Inzwischen entwickelt es neue "Point and Shoot"-Systeme für seine Panzer und ein Raketensystem namens JAGM, Joint Air-to-Ground Missile. JAGM hat die Fähigkeit, Fahrzeuge auszuwählen, die ohne menschliches Eingreifen getroffen werden sollen. Im März beantragte das Pentagon beim Kongress Mittel für 1051 JAGMs in Höhe von 360 Millionen Euro.
Was ist mit der Luftfahrt? Die Tests konzentrieren sich alle auf das Projekt „SkyBorg“ (der Name sagt alles): eine unbemannte Version der F-16, die in der Lage ist, alleine zu kämpfen.
Bis gestern musste sich das Militär, das an einem abgelegenen Ort eine Explosion verursachen wollte, entscheiden, wie und wann es zuschlagen sollte: mit einem Flugzeug? Eine Rakete? Ein Schiff? Ein Panzer? Dann mussten sie die Bombe lenken, zielen, einen Befehl ausführen.
Drohnen und Systeme wie Sea Mob schließen Menschen vollständig von solchen Entscheidungen aus. Die einzige Entscheidung, die einem Militärkommando bleibt (die aber nicht vorher und nicht gegen die Zustimmung aller getroffen werden sollte) ist wenn die Roboter frei sind, um zu töten Verletzung der berühmten Gesetze von Asimov, vielleicht beginnend mit den Momenten, in denen der Funkverkehr während eines Kriegseinsatzes unterbrochen wird.
Es ist nicht nur eine Angelegenheit der Vereinigten Staaten
Seit den 90er Jahren Israel begann mit dem Design eines Systems namens HARPY, was wir heute als künstliche Intelligenz bezeichnen würden. Die Drohne konnte von Radarsystemen abgedeckte Gebiete überfliegen und selbstständig angreifen. Das Unternehmen verkaufte dieses System dann nach China und in andere Länder.

In den frühen 2000er Jahren dieEngland entwickelte die Brimstone-Rakete, die in der Lage ist, feindliche Fahrzeuge auf dem Schlachtfeld zu finden und zu „bestimmen“, welche zu treffen sind.
Im vergangenen Jahr, 2018, hat der Präsident der Russland Wladimir Putin sprach von einer mit Atomwaffen ausgestatteten U-Boot-Drohne und eröffnete damit ein Szenario, in dem ein automatisches Gerät die tödlichste jemals von Menschen hergestellte Waffe in seiner Ausrüstung haben könnte. Und andererseits gab Putin selbst zu, dass die Nation in der Lage sei, die beste KI zu entwickeln "wird Herrin der Welt werden".
La China es hat sich keine großartigen Statements gegönnt, aber die Tatsache, dass es eine Avantgarde der künstlichen Intelligenz ist, gibt uns immer noch zu denken. Es wird geschätzt, dass es in den nächsten 10 Jahren das führende Land auf diesem Gebiet werden wird und dies bald militärisch ausnutzen könnte.
Der technologische Kalte Krieg
Die Angst, von Ländern wie China oder Russland überholt zu werden, hat die USA dazu veranlasst, viel für die KI-Entwicklung auszugeben: 600 Millionen Dollar im Jahr 2016, 800 Millionen Dollar im Jahr 2017 und über 900 Dollar in diesem Jahr. Das Pentagon hat keine Details über diese Bemühungen offengelegt, aber aus den offiziellen Interviews ist leicht ersichtlich, dass die Entwicklungen in der KI-Forschung zu vielen Lösungen führen werden militärische Technologie, auch wenn Sie nicht sofort bereit sind, das Kommando vollständig zu übernehmen.
Dennoch kann es passieren
Die intensiven wirtschaftlichen Investitionen, die die USA tätigen, um die Gewissheit der technologischen (und damit militärischen) Vormachtstellung wiederzuerlangen, vervielfachen die Risiken, Maschinen zum Handeln zu zwingen oder sie zwingen zu lassen. Robert Work sagt es klar: „Es wird eine Zeit geben, in der die Maschinen von uns herbeigeführt ‚einen Fehler machen‘, weil wir nicht die perfekte Maschine anstreben, sondern die nützlichste in kürzester Zeit.“
Die Idee, dass Maschinen völlig eigenständig eingreifen können, um zu entscheiden, Menschen zu töten, indem sie gegen die Gesetze von Asimovs Robotik verstoßen, gehört immer noch zu einer Vorstellung, die sie völlig ablehnt: etwas, das apokalyptischen Filmen wie Terminator nahe kommt. Aber das sind keine fernen Möglichkeiten.
In einem Planeten zunehmend wettbewerbsfähigerer Nationen auf diesem Gebiet ist die Möglichkeit real, dass autonome Maschinen den Gegnern auch im Hinblick auf das menschliche Leben Schaden zufügen können. Es ist nicht schön zu sagen, noch weniger zu hören, aber es ist so.