Was wäre, wenn das Leben nur eine andere Art von Computer wäre? Keine Metapher, sondern eine präzise wissenschaftliche Definition. Es ist die Idee, dass John von Neumann im Jahr 1948 vorgeschlagen und dass Alan Turing erforschte, wie Leopardenflecken durch einfache chemische Regeln entstehen. Heute, mit neuronale zelluläre Automaten, die komplexe Muster „wachsen“ lassen e neuronale Netzwerke, die mit kontrollierter Zufälligkeit trainiert wurdenDiese Intuition scheint sich zunehmend zu bewahrheiten. DNA ist Code. Zellen sind Parallelprozessoren. Reproduktion ist die Ausführung von Anweisungen. Wir sprechen hier nicht von Analogien, sondern von rechnerischer Äquivalenz. Und wenn das stimmte, würde sich alles ändern.
Als sich eine Maschine selbst duplizierte
in 1994wurde eine pixelige Maschine auf einem Bildschirm zum Leben erweckt. Sie las eine Reihe von Anweisungen, kopierte sie und baute einen Klon von sich selbst. Genau wie von Neumann hatte vorausgesagt Ein halbes Jahrhundert zuvor. Es war nicht nur ein Computerexperiment: Es war der konkrete Beweis dafür, dass Reproduktion, ebenso wie Berechnungen, von Maschinen nach codierten Anweisungen durchgeführt werden können.
Von Neumanns selbstreplizierender Zellularautomat, der in den 40er Jahren ohne die Hilfe eines Computers entwickelt wurde, erforderte 6.329 Zellen und 63 Milliarden Zeitschritte um einen Reproduktionszyklus abzuschließen. Es handelte sich um eine zweidimensionale Rube-Goldberg-Maschine, die über einem 145.315 Zellen langen Anweisungsband hockte, Informationen pumpte und mithilfe eines „Druckarms“ langsam einen funktionierenden Klon von sich selbst rechts über dem Original druckte.
Von Neumann hatte etwas Tiefgründiges verstanden: künstliches Leben Das ist keine Fantasie, sondern computergestütztes Engineering. Ein Automat, der Anweisungen liest und ausführt, um Kopien von sich selbst zu erstellen, funktioniert genau wie DNA, wenn er befiehlt: „Wenn das nächste Codon CGA ist, füge dem zu erstellenden Protein ein Arginin hinzu.“ Es ist keine Metapher, DNA als „Programm“ zu bezeichnen. Sie ist buchstäblich eines.

Biologisches Computing vs. digitales Leben: Unterschiede in der realen Welt
Natürlich gibt es erhebliche Unterschiede zwischen biologischer und digitaler Datenverarbeitung. DNA ist dünn und vielschichtig, mit Phänomenen wie Epigenetik und genetische Näheeffekte. Die zelluläre DNA ist nicht einmal die ganze Geschichte: Unser Körper enthält (und tauscht ständig) unzählige Bakterien und Viren aus, jedes mit seinem eigenen Code.
Biologische Kalkulation ist massiv parallel, dezentral und lautIhre Zellen haben etwa 300 Trillionen Ribosomen, die alle gleichzeitig arbeiten. Jede dieser schwimmenden Proteinfabriken ist im Grunde ein kleiner stochastischer Computer: Die Bewegungen ihrer ineinandergreifenden Komponenten, das Einfangen und Freisetzen kleinerer Moleküle und die Manipulation chemischer Bindungen sind alle einzeln zufällig, reversibel und ungenau und werden durch ständige thermische Bombardierung hin und her getrieben.
Nur eine statistische Asymmetrie begünstigt eine Richtung gegenüber der anderen. Geschickte molekulare Origami-Bewegungen neigen dazu, bestimmte Schritte zu „blockieren“, sodass der nächste wahrscheinlich wird. Dies unterscheidet sich grundlegend von der Funktionsweise von Logikgattern in einem Computer, grundlegenden Komponenten, die binäre Eingaben nach festen Regeln in Ausgaben umwandeln. Sie sind irreversibel und auf eine Zuverlässigkeit und Reproduzierbarkeit von 99,99 % ausgelegt.
Turing und Morphogenese: Das Muster des Lebens ausgehend von einfachen Regeln
Alan TuringGegen Ende seines Lebens erforschte er, wie die biologische Muster wie Leopardenflecken könnte aus einfachen chemischen Regeln entstehen, in einem Bereich, den er nannte MorphogeneseIn seiner einzigen biologischen Abhandlung aus dem Jahr 1952 schlug Turing vor, dass Asymmetrie in biologischen Systemen möglicherweise dadurch entstehen könnte, dass Signalmoleküle (Morphogene) von einer Quelle diffundieren und so Konzentrationsgradienten erzeugen.
Turings Modell der Morphogenese war eine Form der Berechnung massiv parallel und verteilt, biologisch inspiriert. Dasselbe gilt für sein früheres Konzept einer „unorganisierten Maschine“, einem zufällig verbundenen neuronalen Netzwerk nach dem Vorbild des Gehirns eines Neugeborenen. Dies waren Visionen davon, wie Computer ohne Zentralprozessor aussehen könnten: genau so, wie sie in lebenden Systemen vorkommen.
Wie erklären Sie sich eine aktuelle Studie zu Quanteneffekten In Zellen könnten lebende Organismen Informationen Milliarden Mal schneller verarbeiten, dank Phänomenen wie: SuperstrahlungIm Leben geht es nicht nur um Computer: Es geht um Computer auf eine Art und Weise, die wir noch immer entdecken.
Neuronale Zelluläre Automaten: Von Turing bis heute
in 2020, der Forscher Alex Mordvintsev kombinierte moderne neuronale Netzwerke, Turing-Morphogenese und Von-Neumann-Zellularautomaten in neuronaler zellulärer Automat (NCA) ersetzt die einfache Pro-Pixel-Regel eines klassischen Zellularautomaten durch ein neuronales Netzwerk. Dieses Netzwerk, das in der Lage ist, bestimmte Werte, die lokale Konzentrationen von Morphogenen darstellen, wahrzunehmen und zu beeinflussen, kann darauf trainiert werden, jedes gewünschte Muster oder Bild zu „züchten“, nicht nur Zebrastreifen oder Leopardenflecken.
Echte Zellen haben zwar keine neuronalen Netzwerke in sich, aber sie führen hochentwickelte, nichtlineare, zielgerichtete Programme zu entscheiden, welche Maßnahmen in der Welt zu ergreifen sind, wenn ein äußerer Reiz und ein innerer Zustand gegeben sind. Die NCAs bieten eine allgemeine Möglichkeit um die Bandbreite möglicher Verhaltensweisen von Zellen zu modellieren, deren Aktionen keine Bewegung, sondern nur Zustandsänderungen und die Aufnahme oder Freisetzung von Chemikalien beinhalten.
Das erste NCA, das Mordvintsev zeigte, war ein Eidechsen-Emoji, das nicht nur seinen Schwanz, sondern auch seine Gliedmaßen und seinen Kopf regenerieren konnte. Eine eindrucksvolle Demonstration, wie komplexes mehrzelliges Leben kann „lokal denken“, aber „global handeln“, selbst wenn jede Zelle (oder jedes Pixel) dasselbe Programm ausführt, genau wie jede Ihrer Zellen dieselbe DNA ausführt.
Zufälligkeit ist ein Merkmal des Lebens, kein Fehler.
Dass biologische Berechnungen auf Zufälligkeit basieren, ist kein Fehler, sondern ein entscheidendes Merkmal. Viele klassische Algorithmen der Informatik benötigen ebenfalls Zufälligkeit (wenn auch aus anderen Gründen). Dies könnte erklären, warum Turing darauf bestand, dass der Ferranti Mark I, ein primitiver Computer, den er 1951 mitentwickelte, eine Zufallszahlenanweisung enthielt. Zufälligkeit ist somit eine kleine, aber wichtige konzeptionelle Erweiterung der ursprünglichen Turingmaschine, auch wenn jeder Computer sie simulieren kann, indem er deterministische, aber zufällig aussehende, sogenannte „pseudozufällige“ Zahlen berechnet.
Parallelität ist auch in der heutigen Informatik zunehmend von grundlegender Bedeutung. Moderne künstliche Intelligenz beispielsweise ist auf beides angewiesen massive Parallelität, die aus Zufall: im Algorithmus des „stochastischen Gradientenabstiegs“ (SGD), der heute zum Trainieren der meisten neuronalen Netzwerke verwendet wird, in der „Temperatur“-Einstellung, die in Chatbots verwendet wird, um ein gewisses Maß an Zufälligkeit in ihre Ausgabe einzubringen, und in der Parallelität der GPUs, die den Großteil der KI in Rechenzentren antreiben.
Universelle rechnerische Äquivalenz
Turing und von Neumann erkannten etwas Grundlegendes: Berechnungen erfordern weder einen Zentralprozessor noch Logikgatter, Binärarithmetik oder sequentielle Programme. Es gibt unendlich viele Möglichkeiten zu rechnen, und im Grunde sind sie alle gleichwertig. Diese Erkenntnis ist eine der größten Errungenschaften der theoretischen Informatik.
Diese „Plattformunabhängigkeit“ oder „multiple Realisierbarkeit“ bedeutet, dass jeder Computer jeden anderen emulieren kann. Sind die Computer jedoch unterschiedlich aufgebaut, kann die Emulation quälend langsam sein. Aus diesem Grund wurde von Neumanns selbstreplizierender Zellularautomat nie physisch gebaut, obwohl es interessant wäre, ihn einmal zu sehen.
Diese Demonstration von 1994, die erste erfolgreiche Emulation von Von Neumanns selbstreplizierendem Automaten, hätte nicht viel früher stattfinden können. Ein serieller Computer benötigt enorme Rechenleistung, um die 6.329 Zellen des Automaten in den 63 Milliarden Zeitschritten zu durchlaufen, die der Automat für seinen Reproduktionszyklus benötigt.
Auf dem Bildschirm funktionierte es wie angekündigt: eine zweidimensionale, pixelige Rube-Goldberg-Maschine, die über einem 145.315 Zellen langen, nach rechts verlängerten Anweisungsband hockte, Informationen aus dem Band pumpte und mit einem „Schreibarm“ nach außen griff, um langsam einen funktionierenden Klon von sich selbst über und rechts vom Original zu drucken. Wie eine aktuelle Studie zeigt, sind wir der Entstehung von Bewusstseinsformen in komplexen Computersystemen möglicherweise näher als wir denken.
Das Leben könnte letztlich einfach eine andere Art von Computer sein. Eine ältere, elegantere und robustere Art. Von Neumann und Turing haben das schon vor Jahrzehnten verstanden. Wir beginnen es gerade erst zu begreifen.
