Die Befürchtungen über das exponentielle Wachstum von KI-Systemen nehmen schnell ihren Höhepunkt an, so dass ein Branchenexperte glaubt, der einzige Weg, dies zu stoppen, sei die Bombardierung von Rechenzentren. Das ist der Schockvorschlag von Elieser Yudkowsky, Forscher auf dem Gebiet des maschinellen Lernens, in einem Leitartikel für das Zeitmagazin.
Wer ist Eliezer Yudkowsky?
Yudkowsky hat über zwei Jahrzehnte damit verbracht, künstliche allgemeine Intelligenz (AGI) zu erforschen und vor ihren möglichen katastrophalen Folgen zu warnen. Aus diesem Grund geht es weit über den Alarm hinaus, der von Leuten wie uns geäußert wird Elon Musk, Steve Wozniak e Andrew Yang im offenen Brief des Future of Life Instituts, die eine sechsmonatige Pause in der KI-Entwicklung vorsieht. Yudkowsky argumentiert, dass dies nicht ausreicht.
Der Experte sagt, dass die einzige Möglichkeit, eine Katastrophe zu vermeiden, darin besteht, die KI radikal zu blockieren. Deine Idee? „Fahren Sie alle großen GPU-Cluster herunter (die Computerfarmen, auf denen die künstliche Intelligenzen leistungsstärker) und begrenzen Sie die Rechenleistung, die zum Training der KI verwendet werden kann, und reduzieren Sie sie im Laufe der Zeit. Keine Ausnahmen, auch nicht für Regierungen und Militäreinheiten.“
Was wäre, wenn jemand gegen diese Regeln verstoßen würde? Yudkowsky hat keine Zweifel: „Seien Sie bereit, ein Rechenzentrum der Rebellen mit einem Luftangriff zu zerstören.“
Begründete Ängste oder Psychose?
Der Ton von Yudkowskys Bedenken verwirrt mich: So sehr ich der Meinung bin, dass bei der Entwicklung dieser Technologien Ethik und Aufmerksamkeit erforderlich sind, finde ich sie doch hysterisch.
Experte Yudkowsky sagt, er befürchte, dass seine Tochter Nina nicht das Erwachsenenalter erreichen werde, wenn sich immer intelligentere KIs weiterentwickeln.
Sie fordert daher alle, die diese Bedenken teilen, auf, entschieden Stellung zu beziehen, da sonst auch ihre Kinder in Gefahr sein könnten.
„Wir werden alle sterben“
„Das wahrscheinlichste Ergebnis des Aufbaus einer übermenschlichen künstlichen Intelligenz ist, dass buchstäblich jeder auf der Erde sterben wird, auch wenn er den gegenwärtigen Umständen auch nur annähernd ähnelt.“
Es fällt mir nicht schwer, ihn als Katastrophisten zu bezeichnen. Wenn natürlich jemand, der sein Leben wirklich der Erforschung der Gefahren der dystopischen KI-Zukunft gewidmet hat, sagt, dass wir dem näherkommen, wovor er gewarnt hat, könnte es sich lohnen, seiner Meinung zuzuhören.
Wir dürfen uns jedoch nicht der Ablehnung hingeben. Wir müssen den Fortschritt unterstützen: wie erwähnt, Ethik und Aufmerksamkeit. Keine Angst und vor allem kein Obskurantismus.