Zukünftige Kriege werden schneller und technologischer, aber weniger menschlich sein als je zuvor: Willkommen im Zeitalter der Robotersoldaten.
Es gibt einen perfekten Ort, um fortschrittliche Waffen zu testen: die Wallops-Inseln, ein kleines Stück Land vor der Küste von Virginia, das aussieht, als wäre es aus Asimovs Feder gekommen. Wenn ein Fischerboot vor einem Jahr dort gewesen wäre, hätten sie ein halbes Dutzend Flöße in der Gegend zirkulieren sehen - ein genauerer Blick hätte ergeben, dass die Flöße niemanden an Bord hatten.
Die Boote verwendeten einen Motor, der sich an den Kontext anpassen und Aktionen und Positionen an alle anderen übertragen konnte, um die Flotte sofort nach einer Strategie zu organisieren. Sogar schießen, vielleicht um einige am Ufer stationierte Truppen zu verteidigen.
Die halbgeheime Anstrengung, die Teil eines US Navy-Programms namens Sea Mob ist, soll deutlich machen, dass mit künstlicher Intelligenz ausgestattete Maschinen bald auch tödliche Angriffe ohne menschliche Aufsicht und unter Missachtung von perfekt ausführen können Robotikgesetze.
Formuliert von Isaac Asimov, einer der Väter der Science-Fiction-Fiktion, die drei Gesetze der Robotik Sie wurden zum ersten Mal in einer Kurzgeschichte von 1942 veröffentlicht. In seinen Romanen erwähnt der russisch-amerikanische Schriftsteller sie oft: Sie sind starre Prinzipien, die nicht übertreten werden dürfen und theoretisiert werden, um die Menschheit über die guten "Absichten" von Robotern zu beruhigen.
Wer weiß, wenn Asimov vorausgesehen hätte, dass seine "Gesetze" bald auseinanderfallen könnten.
Automatischer Tod
Die Idee, große tödliche, autonome Maschinen in die Schlacht zu schicken, ist nicht neu: Ähnliche Systeme werden seit Jahrzehnten getestet, wenn auch von defensiver Art, beispielsweise solche, die die Abdeckung durch feindliche Raketen ermöglichen. Die Entwicklung der künstlichen Intelligenz wird es ermöglichen, offensive Systeme zu schaffen, die nicht nur auf Reize reagieren, sondern selbst entscheiden, was ohne menschlichen Input zu tun ist.
Ein Mensch braucht eine Viertelsekunde, um auf den Anblick von etwas zu reagieren (stellen Sie sich die Zeit vor, in der ein Torhüter entscheidet, wohin er sich während einer Strafe werfen soll). Die Maschinen, die wir geschaffen haben, übertreffen uns zumindest in Bezug auf die Geschwindigkeit bereits. In diesem Jahr haben beispielsweise Forscher der Nanyang Technological University in Singapur ein neuronales Netzwerk trainiert, um Daten aus 1.2 Millionen Bildern zu absorbieren. Der Computer versuchte, die Motive auf dem Foto zu identifizieren, und es dauerte 90 Sekunden. 0.000075 Sekunden pro Foto.
Im Moment gibt es noch viel zu tun: Bei dieser unglaublichen Geschwindigkeit hat das System die Person auf dem Foto nur in 58% der Fälle identifiziert. Eine Erfolgsquote, die im Kampf katastrophal wäre. Dass sich Maschinen jedoch viel schneller bewegen können als wir, ist eine feststehende Tatsache und wird nur zunehmen. In den nächsten zehn Jahren wird sich die neue Raketengeneration auf suborbitaler Ebene bewegen, zu schnell, als dass ein Mann entscheiden könnte, wie er ihnen begegnen oder die Situation bewältigen soll. Schwärme autonomer Drohnen greifen an und andere Computer reagieren mit Überschallgeschwindigkeit.
"Wenn der Krieg so schnell wird, in welchem Moment wird der Mensch zum Hindernis?" er fragt sich Robert Arbeit, Stellvertretender Chef des Pentagon mit Obama und Trump. „Wir können nicht eingreifen, deshalb werden wir an die Maschinen delegieren.“ Kurz gesagt, außer Asimov.
Waffen, die sich selbst machen
In jedem militärischen Aspekt wird heute geforscht, um eine schnellere, präzisere und weniger humane Art von Krieg zu gewährleisten.
La marina American testet ein 135-Tonnen-Schiff namens Sea Hunter, das ohne Besatzung durch die Ozeane patrouilliert, auf der Suche nach U-Booten, die eines Tages direkt abgeschossen werden können. In einem Test reiste das Schiff ohne menschliches Eingreifen 4000 km von Hawaii nach Kalifornien und tat dies alles von selbst.
Die Armee In der Zwischenzeit entwickelt das Unternehmen neue „Point and Shoot“ -Systeme für seine Panzer und ein Raketensystem namens JAGM (Joint Air-to-Ground Missile). JAGM hat die Möglichkeit, Fahrzeuge auszuwählen, die ohne menschliches Eingreifen getroffen werden sollen. Im März forderte das Pentagon vom Kongress Mittel an, um 1051 JAGM zu einem Preis von 360 Millionen Euro zu kosten.
Und was ist mit der Luftfahrt? Die Tests konzentrieren sich alle auf das „SkyBorg“ -Projekt (der Name sagt schon alles): eine unbemannte Version der F-16, die in der Lage ist, alleine zu kämpfen.
Bis gestern musste das Militär, das an einem abgelegenen Ort eine Explosion auslösen wollte, entscheiden, wie und wann es zuschlagen sollte: mit einem Flugzeug? Eine Rakete? Ein Schiff? Ein Panzer? Sie mussten dann die Bombe lenken, zielen, einen Befehl ausführen.
Drohnen und Systeme wie Sea Mob schneiden Menschen solche Entscheidungen vollständig ab. Die einzige Entscheidung, die einem militärischen Kommando überlassen bleibt (die jedoch nicht vorher und nicht gegen jedermanns Zustimmung getroffen werden sollte), ist wenn die Roboter frei sind, um zu töten Verstoß gegen Asimovs berühmte Gesetze, möglicherweise beginnend mit den Momenten, in denen die Funkverbindung während einer Kriegsoperation unterbrochen wird.
Es ist nicht nur eine Angelegenheit der Vereinigten Staaten
Seit den 90er Jahren Israel begann mit dem Entwurf eines Systems namens HARPY, das wir heute als künstliche Intelligenz bezeichnen würden. Die Drohne konnte über Gebiete fliegen, die von Radarsystemen bedeckt waren, und sie unabhängig angreifen. Das Unternehmen verkaufte dieses System dann an China und andere Länder.
In den frühen 2000er Jahren wurde dieEngland entwickelte die Brimstone-Rakete, die in der Lage ist, feindliche Fahrzeuge auf dem Schlachtfeld zu finden und zu "bestimmen", welche getroffen werden sollen.
Im vergangenen Jahr, 2018, der Präsident der Russland Wladimir Putin sprach von einer mit Atomwaffen ausgerüsteten Unterwasserdrohne, die sich einem Szenario öffnete, in dem ein automatisches Gerät die tödlichste Waffe in seiner Ausrüstung haben könnte, die jemals von Menschen hergestellt wurde. Andererseits gab Putin selbst zu, dass die Nation in der Lage ist, die beste KI zu entwickeln "Wird Herrin der Welt werden".
La China Es hat sich keinen großen Aussagen hingegeben, aber die Tatsache, dass es eine Avantgarde in der künstlichen Intelligenz ist, lässt uns immer noch nachdenken. Es wird geschätzt, dass es in den nächsten 10 Jahren das führende Land auf diesem Gebiet sein wird und dies bald militärisch ausnutzen könnte.
Der technologische Kalte Krieg
Die Angst, von Ländern wie China oder Russland überholt zu werden, hat die USA dazu veranlasst, viel für die KI-Entwicklung auszugeben: 600 Millionen US-Dollar im Jahr 2016, 800 Millionen US-Dollar im Jahr 2017 und über 900 US-Dollar in diesem Jahr. Das Pentagon hat keine Details zu diesen Bemühungen bekannt gegeben, aber aus offiziellen Interviews ist leicht ersichtlich, dass Entwicklungen in der KI-Forschung zu vielen Lösungen von führen werden militärische Technologie, auch wenn Sie nicht sofort bereit sind, das Kommando vollständig zu übernehmen.
Dennoch kann es passieren
Die intensiven wirtschaftlichen Investitionen, die die USA tätigen, um die Gewissheit der technologischen (und damit militärischen) Vormachtstellung wiederzugewinnen, vervielfachen das Risiko, die Hand von Maschinen zu erzwingen oder sie zwingen zu lassen. Robert Work sagt es klar: "Es wird eine Zeit geben, in der die Maschinen einen von uns verursachten Fehler machen, weil wir nicht die perfekte Maschine anstreben, sondern nur die nützlichste in kürzester Zeit."
Die Idee, dass Maschinen vollständig selbst eingreifen können, um Menschen zu töten, indem sie gegen Asimovs Gesetze der Robotik verstoßen, gehört immer noch zu einer Vorstellung, die dies völlig ablehnt: etwas, das apokalyptischen Filmen wie Terminator nahe kommt. Dies sind jedoch keine entfernten Möglichkeiten.
In einem Planeten zunehmend wettbewerbsfähigerer Nationen auf diesem Gebiet ist die Möglichkeit real, dass autonome Maschinen den Gegnern auch im Hinblick auf das menschliche Leben Schaden zufügen können. Es ist nicht schön zu sagen, noch weniger zu hören, aber es ist so.