Genie und Wahnsinn nehmen im menschlichen Geist oft denselben Platz ein. Im Fall von Ilja Sutskever, dem Kopf hinter ChatGPT und Mitbegründer von OpenAI, hat dieses Zusammenleben sowohl revolutionäre Innovationen als auch ans Mystische grenzende Visionen hervorgebracht. Während er Algorithmen fertigstellte, die die menschliche Sprache nachahmen können, plante Sutskever heimlich einen Bunker, um Wissenschaftler vor der möglichen „Apokalypse“ zu schützen, die durch die Freisetzung künstlicher Intelligenz ausgelöst werden könnte.
Ein aufschlussreiches Paradox: Die Schöpfer der fortschrittlichsten künstlichen Intelligenz fürchten ihre Schöpfung so sehr, dass sie sich auf eine technologische Katastrophe vorbereiten. Der quasi-religiöse Begriff, den er verwendete, zeigt, wie verschwommen die Grenzen zwischen Wissenschaft und Glauben in der Welt der KI geworden sind.
Der Schock-Vorschlag: Ein Anti-Apokalypse-Bunker für Wissenschaftler
Bei einem Treffen mit einer Gruppe neuer Forscher im Sommer 2023 sagte Sutskever einen unglaublichen Satz: „Wenn wir erst einmal alle im Bunker sind …“. Ein verwirrter Forscher unterbrach ihn, um um eine Klarstellung zum „Bunker“ zu bitten, und die Antwort war noch überraschender: „Wir werden auf jeden Fall einen Bunker bauen, bevor wir die AGI freigeben.“ Ein Witz, eine Übertreibung?
Nichts davon. Wie berichtet, Karen Hao in seinem Buch "Imperium der KI: Träume und Albträume in Sam Altmans OpenAIDer Plan hätte darin bestanden, die wichtigsten Wissenschaftler von OpenAI vor dem geopolitischen Chaos oder dem gewaltsamen Wettbewerb zwischen den Weltmächten zu schützen, den Sutskever nach der Veröffentlichung künstlicher allgemeiner Intelligenz (AGI) voraussagte. Die Episode, über die in einem Essay aus dem Buch berichtet und auf der Website veröffentlicht wurde Der Atlantik, verdeutlicht die Existenzängste, die in den Führungsetagen von KI-Unternehmen vorherrschen.
Mit beunruhigender Lässigkeit fügte er dann hinzu: „Natürlich ist es Ihnen freigestellt, ob Sie den Bunker betreten möchten oder nicht.“ Als würde er über eine Möglichkeit zum Firmenmittagessen sprechen und nicht über einen Zufluchtsort vor der technologischen Apokalypse.
KI-Apokalypse-Bunker: Eine Obsession, kein Einzelfall
Der Hinweis auf den Anti-Apokalypse-Bunker war kein Einzelfall. Zwei weitere Quellen bestätigten dem Reporter, dass Sutskever diese Struktur in internen Diskussionen regelmäßig erwähnte. Ein OpenAI-Forscher ging sogar so weit zu sagen: „Es gibt eine Gruppe von Leuten, darunter Ilya, die glauben, dass der Aufbau von AGI zu einer Art apokalyptischem Ereignis führen wird. Buchstäblich zu einer technologischen Apokalypse.“
Diese quasi-religiöse Vision der technologischen Zukunft zeigt, wie stark einige der klügsten Köpfe der KI-Forschung von Existenzängsten hinsichtlich ihrer eigenen Schöpfungen beeinflusst sind. Sutskever war unter den Mitarbeitern als „tiefgründiger Denker und sogar eine Art Mystiker“ bekannt, der laut Haos Buch regelmäßig in spirituellen Begriffen sprach.
Das OpenAI-Paradoxon: Zwischen Katastrophe und Profit
Sutskevers apokalyptische Ängste waren im OpenAI-Ökosystem nicht völlig fehl am Platz. Im Mai 2023 wird der CEO Sam Altman hatte einen offenen Brief mitunterzeichnet, in dem KI als potenzielles Aussterberisiko für die Menschheit beschrieben wurde, wie sowohl in Karen Haos Buch als auch in mehreren Branchenartikeln berichtet wurde.
Allerdings musste diese Untergangserzählung mit zunehmend aggressiveren kommerziellen Ambitionen koexistieren. ChatGPT entwickelte sich zu einem globalen Phänomen und OpenAI verwandelte sich rasch von einem Forschungslabor in einen Multimilliarden-Dollar-Technologiegiganten. Ein Widerspruch, der die inneren Spannungen anheizte und schließlich in der (gescheiterter) Versuch, Altman aus seinem Amt zu entfernen im November 2023.

Die innere Fraktur: Der Finger auf dem AGI-Knopf
Die Spannung zwischen der apokalyptischen und der kapitalistischen Vision explodierte Ende 2023. Sutskever, zusammen mit dem damaligen Chief Technology Officer Mira Murat, orchestrierte einen kurzen Unternehmenscoup und entließ Altman vorübergehend als CEO.
Dieser Entscheidung lag die Sorge zugrunde, dass Altman interne Sicherheitsprotokolle umging und zu viel Macht anhäufte. In von Hao geprüften und exklusiv in ihrem Buch wiedergegebenen Notizen wird Sutskever mit den Worten zitiert: „Ich glaube nicht, dass Sam die Person ist, die den Finger auf dem AGI-Knopf haben sollte.“ Die Dokumentation dieser internen Spannungen, berichtet sowohl auf Der Atlantik dass von MIT Technology Reviewbietet einen bisher unveröffentlichten Einblick in die Führungskrise, die OpenAI erschüttert hat.
Besonders aufschlussreich ist die Metapher „Finger auf dem Knopf“: Sie erinnert an Szenarien des Kalten Krieges, in denen die AGI die Rolle einer Atomwaffe spielt. Eine Vision, die künstliche Intelligenz nicht als Werkzeug des Fortschritts betrachtet, sondern als potenzielle Ursache der Zerstörung.
Nach OpenAI: Die Mission mit sicherer Superintelligenz geht weiter
Nach dem gescheiterten „Putsch“ und Altmans Wiedereinsetzung verließ Sutskever OpenAI im Mai 2024, um Sichere Superintelligenz (SSI), ein Unternehmen, das sich auf die Entwicklung sicherer Systeme künstlicher Intelligenz spezialisiert hat.
Im Gegensatz zu OpenAI hat SSI einen viel engeren Fokus: „Unser erstes Produkt wird sichere KI sein, und bis dahin werden wir nichts anderes tun“, sagte Sutskever in einem Interview. Das Unternehmen sammelte zunächst eine Milliarde Dollar ein, dann weitere zwei Milliarden Dollar und erreichte im Jahr 1 die Marke von zwei Milliarden Dollar. TechCrunch Eine Bewertung von 32 Milliarden US-Dollar im April 2025 zeigt, dass auch bei Investoren Bedenken hinsichtlich der Sicherheit von KI bestehen.
Der Bunker als Symbol: Paranoia oder Weitsicht?
Obwohl Sutskevers geplanter Weltuntergangsbunker nie gebaut wurde, ist er zu einem starken Symbol für die Widersprüche und Ängste geworden, die die KI-Branche durchdringen. Einerseits stellt es eine fast religiöse Paranoia dar, andererseits eine vielleicht notwendige Vorsicht angesichts potenziell transformativer Technologien.
wie Ich habe dir vor 5 Jahren geschrieben: „Noch nie stand die Welt an einem Scheideweg. Sie kann in Krieg enden und an Giften ersticken oder mit Technologie und Ethik wiedergeboren werden.“ Der Sutskever-Bunker stellt genau diese Kreuzung dar: die Angst vor einer Katastrophe und die Hoffnung, sie vermeiden zu können. Wenn man dann den zunehmend angespannten geopolitischen Kontext betrachtet, wird der technologische Wettbewerb zwischen den Vereinigten Staaten und China jetzt verglichen mit ein neuer Kalter Krieg, wobei die KI das Hauptschlachtfeld ist.
In diesem Szenario erscheint die Idee eines Bunkers zum Schutz der Köpfe hinter der künstlichen Intelligenz nicht länger als Torheit, sondern als eine strategische Überlegung in einer Welt, in der die Kontrolle der Technologie das Kräfteverhältnis bestimmt.
Anti-Apokalypse-Bunker, Der Terror der Frontlinie
Die Geschichte von Sutskevers Weltuntergangsbunker konfrontiert uns mit dem Paradoxon des Innovators: Diejenigen, die die Grenzen der Technologie verschieben, sind oft die Ersten, die die Konsequenzen fürchten. Diese doppelte Haltung (Begeisterung und Angst, Ehrgeiz und Vorsicht) kennzeichnet die Grenze der künstlichen Intelligenz.
Ob Paranoia oder Weitsicht – der Vorschlag des ehemaligen OpenAI-Managers zwingt uns, uns mit grundlegenden Fragen auseinanderzusetzen: Wie viel Kontrolle haben wir wirklich über die Technologien, die wir entwickeln? Und wenn ihre Schöpfer selbst die Konsequenzen so sehr fürchten, dass sie in Erwägung ziehen, in unterirdischen Bunkern Zuflucht zu suchen, sollten wir dann nicht alle aufmerksamer sein?