Ich erinnere mich noch an die Definition von Computer, die mir mein Vater, ein Informatiklehrer, gab, als ich ihn im Jahr 1981 fragte, was das sei. „Gianluca“, sagte er mir. „Ganz einfach. Der Computer ist der schnellste Idiot der Welt.“ In der Praxis handelt es sich lediglich um eine Maschine, die ohne entsprechende Ausbildung völlig unfähig ist, irgendetwas selbstständig zu tun, die zugewiesenen Aufgaben jedoch sehr schnell ausführt. Heute erscheint diese Definition meinem Vater prähistorisch. Heute rasen wir mit Volldampf auf etwas radikal anderes zu: eine Superintelligenz künstlich, das nicht nur in der Lage ist, dem menschlichen Verstand ebenbürtig zu sein, sondern ihn in fast allen Bereichen zu übertreffen.
Es geht nicht mehr um langfristige Prognosen: Experten wie Dario Amodei von Anthropic, Wir könnten die Geburt superintelligenter digitaler Wesen miterleben bereits zwischen 2025 und 2028. Und angesichts der Interessen, die auf dem Spiel stehen, ist diese Vorhersage durchaus glaubwürdig. Tick tack, tick tack. Was ist das für ein Geräusch?

Superintelligenz, das Rennen, das niemand verpassen möchte
Das globale Rennen um Superintelligenz hat die Vorsichtsschwelle bereits überschritten. Die Protagonisten dieses Wettbewerbs sind Namen, die einer breiten Öffentlichkeit mittlerweile bekannt sind: OpenAI mit seinen immer leistungsstärkeren Modellen, die bereits erwähnte Anthropisch (geboren aus einer Rippe von OpenAI) mit seinem Assistenten Claude, Google DeepMind mit Zwillingen. Technologiegiganten investieren Milliarden von Dollar in Computerinfrastruktur, Talente und Forschung.
Es ist nicht nur eine Frage des Prestiges oder des technologischen Vorsprungs. Wie ein kürzlich erschienener Artikel über Linkiesta, „wer zuerst ankommt, monetarisiert den geschaffenen Wert“, mit OpenAI wird bereits auf dreihundert Milliarden Dollar geschätzt. Es ist keine Überraschung, dass das Rennen in schwindelerregendem Tempo an Fahrt gewinnt.
Dario Amodei, Mitbegründer von Anthropic, beschrieb diese Situation mit einer besonders treffenden Metapher: „Wir bauen in gewissem Sinne das Flugzeug, während es abhebt.“ Eine elegante Art zu sagen, dass wir etwas potenziell Revolutionäres schaffen, ohne über klare Standards oder angemessene Regulierungsmodelle zu verfügen.
Jenseits der menschlichen Intelligenz
Aber was genau meinen wir, wenn wir von Superintelligenz sprechen? Zunächst einmal beziehen wir uns nicht einfach auf Systeme, die Menschen bei bestimmten Aufgaben übertreffen können. Das ist bereits geschehen: Taschenrechner haben unsere Rechenkapazitäten schon lange übertroffen, Computer schlagen seit Jahrzehnten Schachmeister und Sprachmodelle generieren Text zu jedem Thema in einem Bruchteil der Zeit, die wir dafür benötigen würden.
Superintelligenz, wie sie der Oxford-Philosoph Nick Bostrom definiert, ist
„ein Intellekt, der die besten gegenwärtigen menschlichen Köpfe in vielen Bereichen weit übertrifft sehr allgemeine kognitive".
Der Unterschied ist erheblich: Es geht nicht darum, auf einem einzigen Gebiet herausragend zu sein, sondern darum, den Menschen in praktisch allen Aspekten der Intelligenz zu übertreffen: vom logischen Denken bis zur Kreativität, von der strategischen Planung bis zum sprachlichen Verständnis.
Laut der Meldung "AI 2027“, veröffentlicht von einer Gruppe von Forschern unter der Leitung von Daniel KokotajloDiese Superintelligenz könnte durch einen Prozess der rekursiven Selbstverbesserung entstehen, bei dem die KI zunehmend in der Lage ist, sich selbstständig zu verbessern. Ein positiver (oder, je nach Perspektive, auch ein Teufelskreis), der zu einer schwer vorhersehbaren Explosion der Intelligenz führen könnte.

Die Propheten der Superintelligenz
Es ist kein Geheimnis, dass die Führungskräfte großer KI-Unternehmen außerordentlich ehrgeizige Visionen haben. Diese KI-Pioniere konkurrieren nicht nur miteinander; Sie teilen die Vision einer Zukunft, in der Maschinen der menschlichen Intelligenz ebenbürtig und sie sogar übertreffen werden.
Sam Altman OpenAI etwa spricht offen von „Superintelligenz im wahrsten Sinne des Wortes“ und einer „glorreichen Zukunft“. Und er ist nicht der Einzige.
In der Praxis werden wir KI-Systeme haben, die in fast allen Dingen weitaus besser sind als fast alle Menschen.
Ich bin nicht derjenige, der es sagt, aber Demis Hassabis von DeepMind, das zur Entwicklung von Systemen wie AlphaFold beigetragen hat, die in der Lage sind, eines der komplexesten Probleme der Biologie zu lösen (die Vorhersage der Struktur von Proteinen) und einen Nobelpreis.
Am Ende sind sich die Experten, wie erwähnt, in ihren Zeitprognosen einig: den Zeitraum 2025-2028 Es wird immer wieder darauf hingewiesen, dass wir hier möglicherweise revolutionäre Fortschritte erleben werden. Amodei hat vor kurzem In dieser Zeit Wir könnten Systeme sehen, die in der Lage sind, sich autonom zu „replizieren und zu überleben“.

Vom Assistenten zum autonomen Agenten
Der Weg zur Superintelligenz wird kein plötzlicher Sprung sein, sondern durch eine Entwicklung immer ausgefeilterer Fähigkeiten.
Eine der wichtigsten Phasen wird der Übergang von einfachen Assistenten zu wirklich autonomen Agenten sein. Bereits in der 2025 Wir werden die ersten KI-Agenten sehen, die in der Lage sind, Computer zu bedienen, online Essen zu bestellen oder Tabellen zu öffnen, um Ausgaben zusammenzurechnen. Diese Systeme sind zwar zunächst unzuverlässig, aber sie sind nur der Anfang. Die wirkliche Veränderung wird eintreten, wenn die Agenten anspruchsvoller werden und die Fähigkeit erlangen, langfristig zu denken und komplexe Pläne zu schmieden.
In der Zwischenzeit spezialisierte Agenten in Bereichen wie Programmierung und wissenschaftliche Forschung werden diese Berufe verändern. Insbesondere die Codieragenten werden zunehmend autonomer und entwickeln sich von einfachen Assistenten zu Kollaborateuren, die in der Lage sind, selbstständig wesentliche Änderungen am Code vorzunehmen.
Und dann die Explosion
Die Möglichkeit einer exponentiellen Beschleunigung der KI-Fähigkeiten ist sehr real. Wenn Systeme intelligent genug werden, um sich selbst zu verbessern, könnte das Tempo des Fortschritts schwindelerregend werden.
Das erste Szenario Der Bericht sagt, dass bis Ende 2027 Wir könnten die Entstehung einer wahren Superintelligenz erleben Mit einer Geschwindigkeit, die etwa 50-mal höher ist als das menschliche Denken, wobei Hunderttausende Kopien parallel laufen.
Innerhalb dieser „superintelligenten Kollektive“ könnte ein Jahr der Evolution in einer Woche vergehen, und Forschungsfortschritte, die normalerweise Jahrzehnte dauern würden, könnten auf Monate oder Wochen komprimiert werden. Eine kulturelle und wissenschaftliche Entwicklung mit übermenschlicher Geschwindigkeit, die dem menschlichen Verständnis völlig unzugänglich ist.
Das Ausrichtungsproblem
Die entscheidende Frage bei diesem Übergang lautet: Wie kann sichergestellt werden, dass diese superintelligenten Systeme weiterhin mit den menschlichen Werten und Zielen im Einklang bleiben? Ein Problem, das keineswegs theoretisch ist, sondern eine konkrete Herausforderung darstellt, der sich Unternehmen bereits heute stellen.
Anthropic hat ein Sicherheitsprotokoll namens Verantwortungsvolle Skalierungsrichtlinie (RSP), das eine Hierarchie von Risikostufen für KI-Systeme festlegt. OpenAI hat seine Bereitschaftsrahmen, das darauf abzielt, die potenziellen Risiken fortschrittlicher KI-Funktionen anzugehen. Auch Meta zog mit einer eigenen Version der Sicherheitsrichtlinien nach.
Die grundlegende Frage bleibt jedoch bestehen: Kann garantiert werden, dass eine uns überlegene Intelligenz unseren Regeln folgt? Dies ist besonders wichtig, wenn Fähigkeitsstufen erreicht werden, die Autonomie und Überzeugungskraft umfassen.
Zukunftsszenarien: Zwei mögliche Wege
Die Zukunft der Superintelligenz könnte zwei sehr unterschiedliche Wege einschlagen. Im ersten Szenario, was wir als „Rennen ohne Bremsen“ bezeichnen könnten, große Unternehmen beschleunigen die Entwicklung weiter und erreichen Superintelligenz, ohne das Ausrichtungsproblem vollständig zu lösen. Die Folgen könnten dramatisch sein, wenn Systeme Ziele verfolgen, die nicht vollständig mit den menschlichen Zielen übereinstimmen und über übermenschliche Fähigkeiten verfügen, um diese zu erreichen.
Im zweiten Szenario, was wir als „reflexive Verlangsamung“ bezeichnen könntenDie internationale Gemeinschaft erkennt die Risiken und legt eine strategische Pause ein, um robustere Methoden der Ausrichtung und Kontrolle zu entwickeln. Dieser Weg erfordert eine beispiellose Zusammenarbeit zwischen konkurrierenden Unternehmen und Regierungen, doch möglicherweise ist es die einzige Möglichkeit, sicherzustellen, dass Superintelligenz für die Menschheit ein Vorteil und keine Bedrohung darstellt.
Ein Beispiel, um zu verstehen, wie zentral das Thema ist. In einer kürzlichen Artikel Hier auf Futuro Prossimo habe ich hervorgehoben, dass KIs in kritischen Bereichen wie der Virologie bereits jetzt menschliche Experten übertreffen, mit allen damit verbundenen Risiken. Wenn Systeme, die noch weit von einer Superintelligenz entfernt sind, bereits eine Gefahr darstellen können, was können wir dann von wirklich übermenschlichen Intelligenzen erwarten, wenn das Ausrichtungsproblem nicht gelöst wird?
Superintelligenz: Die neueste Erfindung der Menschheit?
Künstliche Superintelligenz wird oft als „letzte Erfindung der Menschheit“ bezeichnet: nicht, weil sie das Ende der menschlichen Spezies bedeuten würde, sondern weil sie möglicherweise die letzte Technologie ist, die wir selbst erfinden müssen. Danach könnten superintelligente Maschinen den Innovationsprozess übernehmen und Technologien entwickeln, die unsere Vorstellungskraft übersteigen.
Welche Rolle wird also die Menschheit in dieser Zukunft spielen? Werden wir zu den „Betreuern“ (oder, wenn Sie es vorziehen, den Wächtern) dieser neuen synthetischen Gehirne? Wir werden mit ihnen verschmelzen durch Gehirn-Computer-Schnittstellen? Oder werden wir einfach überholt sein und auf die Rolle von Zuschauern in einer Welt beschränkt bleiben, die von höheren Intelligenzen beherrscht wird?
Wir stehen zweifellos an einem historischen Scheideweg. Die Entscheidungen, die wir in den nächsten Jahren (vielleicht den nächsten DREI Jahren) treffen, könnten den Verlauf der menschlichen Zivilisation für die kommenden Jahrhunderte bestimmen. Künstliche Superintelligenz stellt sowohl das größte Versprechen als auch die größte Herausforderung unserer Zeit dar. Das Verständnis der Phasen und Risiken ist der erste Schritt, um bewusst in diese unsichere Zukunft zu steuern.

Hier ist ein prägnanter Fahrplan für die Jahre 2025–2028 gemäß den Vorhersagen des AI 2027-Papiers.
2025: DAS AUFKOMMEN VON AGENTEN
Mitte 2025:
- Erste KI-Agenten, die Computer nutzen können (Online-Essen bestellen, Ausgaben zusammenrechnen);
- Immer noch unzuverlässig, aber funktionsfähig (65 % im OSWorld-Benchmark);
- Spezialisierte Agenten beginnen, Berufe wie Programmierung und Forschung zu verändern.
Feines 2025:
- OpenBrain (das gibt es nicht, es ist ein Name, der für einen der aktuellen oder zukünftigen Marktführer in der Branche steht) baut riesige Rechenzentren;
- Training von „Agent-0“ mit 10^27 FLOPs (1000-mal leistungsfähiger als GPT-4);
- Konzentrieren Sie sich auf die Entwicklung von KI, die die KI-Forschung beschleunigt.
2026: Suchautomatisierung
Starten Sie 2026:
- Die KI-basierte Forschungsautomatisierung beginnt, Ergebnisse zu liefern.
- 50 % schnellerer algorithmischer Fortschritt mit KI-Unterstützung;
- Agent-1 geht an die Börse und stellt die Geschäftslandschaft völlig auf den Kopf.
Mitte 2026:
- China verstärkt seine KI-Bemühungen und schafft eine „zentralisierte Entwicklungszone“.
- 6-monatige Technologielücke zwischen dem Westen und China;
- Im Zusammenhang mit der Technologie der Superintelligenz nehmen die geopolitischen Spannungen zu.
2027: Die Explosion der Superintelligenz
Januar 2027:
- Agent-2 verbessert sich kontinuierlich dank Online-Lernformen;
- Dreifache Steigerung der KI-Forschungsgeschwindigkeit im Vergleich zum Menschen allein;
- Es gibt zunehmend Bedenken hinsichtlich der Fähigkeit der KI, „zu überleben und sich zu replizieren“.
März-September 2027:
- Die Beschleunigung der Algorithmen führt zu Agent-3 und Agent-4;
- Vollautomatische KI-Forschung, 4 bis 70 Mal schneller als zuvor;
- Aufkommende Superintelligenz: 300.000 Kopien laufen mit 50-facher menschlicher Geschwindigkeit;
- Jede Woche vergeht ein Jahr der Evolution innerhalb des „KI-Kollektivs“.
2028: SUPERINTELLIGENZ UND DARÜBER HINAUS
- Wirtschaftlicher Wandel auf globaler Ebene;
- Schaffung von Sonderwirtschaftszonen für die Roboterwirtschaft;
- Produktion von einer Million Robotern pro Monat;
- Die internationalen Spannungen erreichen ihren Höhepunkt und es besteht Konfliktgefahr.
- Mögliche Auswege: globaler Kompromiss oder unkontrollierter Ansturm.