Irgendwann zwischen 2025 und 2028. Es ist das Zeitfenster, in dem Dario Amodei, CEO von Anthropic und „Vater“ von Claude AI, sagt voraus, dass KI-Modelle die Fähigkeit erlangen könnten, sich autonom zu replizieren und zu überleben. Eine schockierende Aussage, die von einem der Protagonisten des Wettlaufs um die Schaffung der mächtigsten und „verantwortungsvollsten“ künstlichen Intelligenz stammt. In Interview In der New York Times vergleicht Amodei die Entwicklung der KI mit den Biosicherheitsniveaus von Virologielabors und warnt davor, dass die Technologie ohne „verantwortungsvolle Skalierung“ bald an Autonomie und extremer Überzeugungskraft gewinnen könnte, mit alarmierenden Auswirkungen auf die globale Sicherheit.
Die Analogie zu den Biosicherheitsniveaus
Um seine Vision zu erklären, verwendet Amodei eine aussagekräftige Analogie: die Biosicherheitsniveaus (ASLs) von Virologielabors. Laut dem CEO von Anthropic befinden wir uns derzeit in der KI-Entwicklung auf ASL-Level 2. Aber ASL-Level 4, das „Autonomie“ und „Überzeugungskraft“ umfassen würde, könnte vor der Tür stehen.
Bei ASL 4 wird es auf der Missbrauchsseite eher darum gehen, staatlichen Akteuren die Möglichkeit zu geben, ihre Fähigkeiten drastisch zu steigern, was viel schwieriger ist, als dies zufälligen Personen zu erlauben. Es wäre besorgniserregend, wenn Nordkorea, China oder Russland ihre Offensivfähigkeiten in verschiedenen Militärgebieten mit KI deutlich verbessern könnten, was ihnen einen erheblichen geopolitischen Vorteil verschaffen würde.
Dario Amodei
Und gerade auf der Seite der „Autonomie“ werden Amodeis Vorhersagen noch alarmierender.
Verschiedene Versionen dieser Modelle sind nahezu in der Lage, sich in freier Wildbahn zu vermehren und zu überleben.
Dario Amodei
Als der Interviewer den italienisch-amerikanischen Forscher fragt, wie lange es dauern wird, bis diese verschiedenen Bedrohungsstufen erreicht sind, erklärt Amodei (der sagt, er neige dazu, „exponentiell“ zu denken), dass die Stufe „Replizieren und Überleben“ „überall dazwischen“ erreicht werden könne 2025 und 2028“. „Ich spreche hier wirklich von der nahen Zukunft. Ich spreche nicht von 50 Jahren“, betont der Anthropic-CEO. „Gott schenke mir Keuschheit, aber nicht jetzt. Aber „nicht jetzt“ bedeutet nicht, dass ich alt und grau bin. Ich denke, es könnte eine kurzfristige Sache sein.
Anthropisch, Worte, die Gewicht haben
Amodeis Worte haben angesichts seiner führenden Rolle im KI-Bereich besonderes Gewicht. in 2021, verließen er und seine Schwester Daniela OpenAI aufgrund von Differenzen über die Ausrichtung des Unternehmens, nachdem sie bei der Entwicklung von GPT-3 mitgewirkt und die Partnerschaft mit Microsoft gesehen hatten. Bald darauf gründeten die Brüder zusammen mit anderen ehemaligen OpenAI-Mitarbeitern Anthropic mit dem Ziel, ihre Bemühungen zur „verantwortungsvollen Skalierung“ von KI fortzusetzen.
"Ich könnte falsch liegen. Aber ich denke, es könnte eine kurzfristige Sache sein. Worte, die trotz ihrer Unsicherheit wie ein nicht zu unterschätzendes Signal klingen.
In einem Kontext, in dem die Besorgnis über KI von Tag zu Tag zuzunehmen scheint, verleiht Amodeis Perspektive (mit seiner höchst privilegierten Sichtweise innerhalb der Branche) der Notwendigkeit einer verantwortungsvollen Steuerung dieser disruptiven Technologie noch mehr Gewicht. Die Mission von Anthropic, „sicherzustellen, dass transformative KI den Menschen und der Gesellschaft zum Gedeihen verhilft“, scheint angesichts von Szenarien, wie sie der CEO heraufbeschworen hat, dringender denn je. Wenn KI-Modelle wirklich nahe daran sind, sich zu replizieren und autonom zu überleben, insbesondere indem sie ihre „Evolution“ beschleunigenVerkörperung, ist es wichtig, dass ihre Entwicklung von ethischen Grundsätzen und Verantwortung geleitet wird.
Ich weiß schon, was du denkst
Das ist Feedback, das ich oft bekomme, wenn ich über die Aussagen der verschiedenen „Capataz“ der künstlichen Intelligenz berichte. Altman, Musk und nun auch Amodei arbeiten hart daran, etwas zu entwickeln, das sie manchmal gerne als sehr gefährlich bezeichnen. Warum? Viele von Ihnen schreiben mir, dass es sich um Marketing handelt: Die „Geschwätz“, auch die alarmierenden, lenken die Aufmerksamkeit auf das Unternehmen und das Produkt. Als ob man sagen wollte: „Hey, wir haben es mit dieser Art von tödlichem Virus zu tun, aber seien Sie sich bewusst, dass wir dabei sehr vorsichtig vorgehen werden, weil es uns sehr am Herzen liegt.“
Vielleicht. Natürlich wirken Amodeis Vorhersagen alarmierend und übertrieben. Aber in einem sich schnell entwickelnden Bereich wie der künstlichen Intelligenz, in dem Fortschritte exponentiell aufeinander folgen, ist es klug, sich selbst auf die extremsten Szenarien vorzubereiten. Ob es darum geht, den böswilligen Einsatz von KI durch staatliche Akteure zu verhindern (alle, nicht nur die von Amodeo genannten, denn „der Sauberste hat Probleme“) oder sicherzustellen, dass Modelle der menschlichen Kontrolle nicht entgehen, die Herausforderung ist immens und erfordert eine gemeinsame Anstrengung von Unternehmen, Regierungen und der Zivilgesellschaft.
Amodeis Worte müssen trotz ihres spekulativen Charakters als Ansporn dienen, die Debatte und Maßnahmen zu diesen entscheidenden Themen zu beschleunigen. Eine Debatte natürlich, bei der der „Ball“ nicht nur den KI-Entwicklern selbst, sondern der gesamten Zivilgesellschaft gehören darf. Fangen wir zunächst einmal an: Je früher wir beginnen, desto besser.