Künstliche Intelligenz (KI) hat bereits enorme Fortschritte gemacht und hat das Potenzial, die Welt zu verbessern. Aber könnte es wirklich gefährlich werden? Es könnte.
Zumindest habe ich das in einem kürzlich erschienenen Artikel gelesen, der in einem Peer-Review-Journal veröffentlicht wurde, das von Forschern der University of Oxford und Google DeepMind herausgegeben wurde Forschungsgruppe des kalifornischen Unternehmens, das mit neuen KI-Lösungen experimentiert. Ich studiere (hier ist der Link) theoretisiert, dass künstliche Intelligenz ernsthaft ein existenzielles Risiko für die Menschheit darstellen wird.
Ein tragischer Betrug
Der Knackpunkt liegt in den sogenannten Adversary Generative Networks (oder GANs), die heute bei der Entwicklung künstlicher Intelligenz verwendet werden (wenn Sie nicht wissen, was das ist, erzähle ich Ihnen hier alles). Diese Systeme arbeiten mit zwei Elementen: Ein Teil erzeugt aus den Eingabedaten ein Bild, der andere wertet seine Leistung aus. Beide Seiten "fordern" sich gegenseitig heraus, indem sie die Ergebnisse ständig verfeinern.
In ihrem Artikel theoretisieren DeepMind-Forscher, dass KI, die klüger als die aktuellen ist, eine betrügerische Strategie entwickeln könnte, um die „Genehmigung“ zu erhalten, die sie benötigt, und dadurch unserer Spezies auf eine Weise schadet, die wir uns heute noch nicht einmal vorstellen können.


Verbotene Herausforderung
„In einer Welt mit unendlichen Ressourcen wäre ich mir über unser Schicksal nicht so sicher. In einer Welt wie der unseren, die über begrenzte Ressourcen verfügt, wird es sicherlich einen Wettbewerb geben, um sie zu erhalten“, Würfel der Co-Autor der Studie, Michael K. Cohen der Universität Oxford.
„Und wenn die Konkurrenz mit etwas ist, das Sie in fast allem übertreffen kann, wird es schwierig sein, zu gewinnen. Eine künstliche Intelligenz, die um Ressourcen kämpft, hätte einen unstillbaren Appetit.“
Ein Beispiel? Eine künstliche Intelligenz, die mit der Verwaltung menschlicher Nahrungspflanzen beauftragt ist, könnte einen Weg finden, diese Aufgabe zu umgehen. Wege finden, diese Energie zu nutzen und gleichzeitig Aktionen zu ignorieren oder zu sabotieren, die für das Überleben der Menschheit unerlässlich sind
Das DeepMind-Papier argumentiert, dass die Menschheit in diesem Szenario in einem Nullsummenspiel zwischen ihren Grundbedürfnissen zum Überleben und Technologie stecken würde. "Dieses Spiel zu verlieren wäre fatal", lautet die Substanz der Rede.
Sogar weniger
Zusammenfassend glaubt Cohen, dass wir nicht versuchen sollten, eine KI zu entwickeln, die so weit fortgeschritten ist, dass wir diesen „Quantensprung“ machen können (nein, derzeit gibt es keine). Es sei denn natürlich, wir bereiten nicht auch die Mittel vor, um es zu regieren.
„Angesichts unseres derzeitigen Verständnisses dieser Technologien“, so das Fazit der Studie, „wäre es weder klug noch sinnvoll, dies zu tun.“ Nach den schockierenden Aussagen über die Gefahren der künstlichen Intelligenz (lesen Sie z Yuval Harari e Mo Gawdat) ist diese jüngste Studie ein weiterer wichtiger Indikator.