Virologen haben einen neuen Kollegen im Labor, und er ist kein Mensch. Eine aktuelle Studie, die exklusiv mit TIME geteilt wurde, hat gezeigt, dass KI-Modelle wie GPT und Claude bei der Lösung komplexer Probleme im Labor mittlerweile besser abschneiden als promovierte Virologen. Es ist ein epochaler Wendepunkt: während erfahrene Virologen erreichten in ihren angegebenen Fachgebieten eine durchschnittliche Punktzahl von 22,1 %, il OpenAI o3-Modell erreichte eine Genauigkeit von 43,8 %. „Es macht mich ein bisschen nervös“, gibt er zu. Seth Donough, Forscher bei SecureBio und Co-Autor der Studie, „weil zum ersten Mal in der Geschichte praktisch jeder Zugang zu einem vorurteilsfreien KI-Virologie-Experten hat, der ihn durch komplexe Laborprozesse zur Herstellung von Biowaffen führen könnte.“ Eine begründete Sorge, die beunruhigende Fragen aufwirft: Sind wir auf eine Welt vorbereitet, in der jeder mit einem Internetanschluss die Möglichkeit hat, tödliche Viren zu erstellen?
Ein technologisches Damoklesschwert
Die Studie wurde von Forschern des Zentrum für KI-Sicherheitdas MIT Medienlabor, der brasilianischen Universität UFABC und die gemeinnützige Organisation SecureBio. Die Ergebnisse sind beeindruckend und besorgniserregend zugleich: Neben OpenAIs O3 mit einer Genauigkeit von 43,8 % bietet auch Googles Gemini 2.5 Pro erreichte bemerkenswerte 37,6%und übertrifft damit menschliche Experten deutlich.

Dies sind keine theoretischen oder leicht „googelbaren“ Fragen. Die Tests wurden speziell entwickelt, um die Fähigkeit zur Lösung komplexer praktischer Probleme zu messen. „Die Fragen lauten etwa: ‚Ich habe dieses spezielle Virus in diesem Zelltyp unter diesen spezifischen Bedingungen über diesen Zeitraum gezüchtet. Ich habe so viele Informationen darüber, was schiefgelaufen ist. Können Sie mir sagen, was das wahrscheinlichste Problem ist?‘“, erklärt er. Donough.
Ebenso alarmierend ist die Geschwindigkeit, mit der sich diese Modelle verbessern. Anthropics Claude 3.5 Sonett zum Beispiel Die Genauigkeit zwischen den Modellen vom Juni 26,9 und Oktober 33,6 stieg von 2024 % auf 2024 %. Und eine vorläufige Version von OpenAIs GPT 4.5 übertraf GPT-4o um fast 10 Prozentpunkte.
KI übertrifft Virologen: Die gute Seite der Medaille
Trotz der Risiken sind die positiven Auswirkungen dieser Entdeckung enorm. Künstliche Intelligenz könnte Virologen bei ihrer wichtigen Arbeit im Kampf gegen Viren unterstützen, indem sie die Entwicklung von Medikamenten und Impfstoffen beschleunigt, die Gestaltung klinischer Studien verbessert und Methoden zur Krankheitserkennung verfeinert.
Tom Inglesby, Direktor des Johns Hopkins Center für Gesundheitssicherheithebt einen weiteren potenziellen Nutzen hervor: „Diese Modelle könnten Wissenschaftlern in verschiedenen Teilen der Welt, die noch nicht über diese Art von Fachwissen oder Kapazität verfügen, dabei helfen, im Alltag wertvolle Arbeit an den in ihren Ländern auftretenden Krankheiten zu leisten.“
Eine Forschergruppe stellte beispielsweise fest, dass KI ihnen dabei half, hämorrhagische Fieberviren in Afrika südlich der Sahara besser zu verstehen.

Die dunkle Seite des Wissens
Virologie und Biomedizin stehen seit Langem im Mittelpunkt der Motivation führender KI-Experten, immer leistungsfähigere Modelle zu entwickeln. Das Problem besteht darin, dass böswillige Akteure dieselben Tools zur Herstellung von Viren und biologischen Waffen verwenden könnten, ohne über die typische Ausbildung zu verfügen, die für den Zugang zu Laboren der Biosicherheitsstufe 4 (BSL-4) erforderlich ist, also für Labore, in denen mit den gefährlichsten und exotischsten Infektionserregern gearbeitet wird.
„Im Laufe der Geschichte gab es eine ganze Reihe von Fällen, in denen jemand versucht hat, eine biologische Waffe zu bauen, und einer der Hauptgründe für das Scheitern war, dass man nicht über das nötige Fachwissen verfügte“, erklärt er. Donough. „Deshalb müssen wir bei der Verteilung dieser Fähigkeiten vorsichtig sein.“
Vor Monaten haben die Autoren der Studie ihre Ergebnisse führenden KI-Laboren vorgelegt. Als Antwort darauf xAI hat einen Rahmen für das Risikomanagement veröffentlicht, in dem es sich verpflichtet, virologische Schutzmaßnahmen für zukünftige Versionen seines Grok-Modells zu implementieren. Auch OpenAI sagte, dass es für seine in der vergangenen Woche veröffentlichten neuen Modelle „neue systemweite Maßnahmen zur Minderung biologischer Risiken implementiert“ habe. Anthropisch Die Ergebnisse der Modellleistung wurden in die jüngsten Systembeschreibungen aufgenommen, jedoch wurden keine spezifischen Minderungsmaßnahmen vorgeschlagen. Die Verantwortlichen für Gemini (Google AI) lehnte es zum jetzigen Zeitpunkt ab, die redaktionellen Kommentare von Time zu kommentieren.
Mögliche Lösungen
Dan Hendrycks, Direktor des Center for AI Safety, fordert KI-Unternehmen dazu auf, „Leitplanken“ zu implementieren, um diese Art der Nutzung zu verhindern.
„Wenn Unternehmen nicht innerhalb von sechs Monaten über gute Sicherheitsvorkehrungen verfügen, ist das meiner Meinung nach ein Glücksspiel“, sagt er.
Hendrycks argumentiert, dass die Lösung nicht darin liege, diese Modelle zu stoppen oder ihren Fortschritt zu verlangsamen, sondern sie „im Kreis zu kreisen“, sodass nur vertrauenswürdige Dritte Zugriff auf ihre ungefilterten Versionen hätten. „Wir sollten nur Leuten, die es legitim nutzen (wie etwa einem Forscher in der Biologieabteilung des MIT), die Möglichkeit geben, zu fragen, wie man tödliche Viren manipuliert“, sagt er. „Aber normale Leute, die vor einer Sekunde ein Konto erstellt haben, sollten das nicht tun können.“
Inglesby seinerseits argumentiert, dass Selbstregulierung in diesem Sektor nicht ausreiche. Und es fordert Gesetzgeber und politische Entscheidungsträger auf, einen politischen Ansatz zur Regulierung der KI-Biorisiken zu entwickeln. „Derzeit ist es so, dass die tugendhaftesten Unternehmen Zeit und Geld in diese Arbeit investieren, was gut für uns alle ist, andere Unternehmen müssen das jedoch nicht tun“, sagt er. „Das ergibt keinen Sinn. Es ist nicht gut für die Öffentlichkeit, wenn sie nicht versteht, was vor sich geht.“
„Wenn eine neue Version eines LLM veröffentlicht wird“, fügt er hinzu Englisch:„Es sollte die Anforderung geben, dieses Modell zu bewerten und sicherzustellen, dass es nicht zu Ergebnissen auf Pandemie-Niveau führt.“
Wir erleben die Geburt einer Ära, in der die Demokratisierung fortgeschrittenen Wissens auch beispiellose existenzielle Risiken mit sich bringt. Das Rennen um eine leistungsfähigere künstliche Intelligenz schreitet mit einer solchen Geschwindigkeit voran, dass unsere Governance-Strukturen und unser ethisches Denken nicht mithalten können.
In einer idealen Welt würden diese Technologien nur Vorteile bringen, aber die Geschichte lehrt uns, dass wir nie vorsichtig genug sein können.