Die Zukunft, sang Enrico Ruggeri, ist eine Hypothese. Und in dieser Hypothese gibt es auch eine künstliche Intelligenz, die nicht nur in der Lage ist, Menschen beim Schach oder Go zu schlagen, sondern auch zu schreiben Romane, Sinfonien komponieren. Tun wissenschaftliche Entdeckungen, sogar Emotionen spüren. Es ist das Trugbild der künstlichen allgemeinen Intelligenz oder AGI: Systeme mit allgemeinen kognitiven Fähigkeiten, die denen des Menschen ähnlich und diesen überlegen sind. Ein Ziel, das dank fortschrittlicher Sprachmodelle wie z GPT-4 und jetzt auch ol. Es sind jedoch noch viele theoretische und praktische Fragen zu lösen.
Der Traum von AGI
Seit Jahrzehnten ist dieallgemeine künstliche Intelligenz (AGI) ist El Dorado, das gelobte Land der Forscher im Bereich der künstlichen Intelligenz. Die Idee, eine Maschine zu schaffen, die in der Lage ist, die kognitiven Fähigkeiten des Menschen in allen Bereichen zu erreichen und zu übertreffen (von abstrakte Begründung eine Kreativitätaus Planung eine Verallgemeinerung von Fähigkeiten) fasziniert und erschreckt zugleich.
Ein AGI-System wäre tatsächlich in der Lage, äußerst komplexe Probleme autonom zu lösen, wie z Klimawandel, die Zukünftigen Pandemie, Heilmittel für verheerende Krankheiten finden wie Krebs und dieAlzheimer. Es könnte Wissenschaft und Technologie in einem beispiellosen Tempo vorantreiben und Bereiche wie Weltraumforschung, saubere Energie, Transport und Bildung revolutionieren.
Andererseits hätte eine superallgemeine künstliche Intelligenz enorme und potenziell unkontrollierbare Macht, wenn sie nicht richtig auf menschliche Werte abgestimmt wäre. „Es könnten schreckliche Dinge passieren, weil wir KI missbrauchen oder die Kontrolle darüber verlieren“, warnt er Yoshua Bengio, einer der Väter des Deep Learning und Pionier der AGI-Forschung. Apokalyptische Szenarien, die denen entsprechen, die sich Wissenschaftler dieses Kalibers vorgestellt haben Stephen Hawking und visionäre Unternehmer mögen Elon Musk.
AlphaGo und die Grenzen aktueller KI-Systeme
Bis vor ein paar Jahren schien AGI eine ferne Fata Morgana zu sein. Die Fortschritte bei der „engen“ KI waren beeindruckend, beschränkten sich jedoch auf bestimmte Aufgaben. Denken Sie zum Beispiel an AlphaGo, das KI-System, das von entwickelt wurde Google DeepMind ist in der Lage, die Weltmeister des Brettspiels Go zu schlagen, ein historisches Ergebnis, das AlphaGo jedoch nicht generell intelligent macht: Es kann nur Go spielen, es kann nicht als Autor, Komponist oder Wissenschaftler improvisieren.
Dies ist die Grenze aktueller KI-Systeme, selbst der fortschrittlichsten: sie sind „wissende Idioten“, extrem gut in einem engen Bereich (sei es Schach spielen, Bilder erkennen oder Text erstellen), aber nicht in der Lage, diese Fähigkeiten auf andere Bereiche zu übertragen. Ihnen fehlt diese Fähigkeit verallgemeinern e abstrakt, das ist die Figur der menschlichen Intelligenz.
Die Revolution der Sprachmodelle
Die jüngste Revolution von Sprachliche Modelle wie GPT-3 OpenAI, LaMDA von Google, DALL-E (ebenfalls von OpenAI), Stable Diffusion von Stabilität KI, um den Bekanntesten zu zitieren, hat die Karten auf dem Tisch verändert. Oder besser gesagt, es zeigte uns eine genauere Vorstellung davon, wie eine allgemeine künstliche Intelligenz aussehen würde, als wir bis vor kurzem dachten.
Das Merkmal, das diese Modelle so vielversprechend macht, ist ihr eigenes Multifunktionalität: Im Gegensatz zu „eingeschränkten“ KI-Systemen sind sie in der Lage, ganz unterschiedliche Aufgaben zu bewältigen, vom Schreiben von Texten bis zur Generierung von Bildern, von der Konversation bis zur Problemlösung, mit oft beeindruckenden Ergebnissen.
Eine Multifunktionalität, die in gewisser Weise an die von erinnert menschlicher Verstand und hat einige Forscher dazu gebracht, von „allgemeiner künstlicher Intelligenz bereits erreicht“ zu sprechen. Insbesondere die jüngste Ankündigung von ol, dem neuesten OpenAI-Modell, das (in manchen Fällen, um ehrlich zu sein, nur wenige) damit prahlt Kapazität von Argumentation und Lernen viel menschlicher als seine Vorgänger, hat die Debatte neu entfacht.
Die zu lösenden Probleme in Richtung allgemeiner künstlicher Intelligenz
Kommen Sie sottolinea Francois Chollet, Informatiker und Schöpfer des Keras AI-Frameworks, leiden aktuelle große Sprachmodelle immer noch unter großen Einschränkungen, die sie „nicht ausreichen, um AGI zu erreichen“.
Eines der Hauptprobleme ist die Verallgemeinerung: Obwohl diese Systeme auf enorme Datenmengen (Terabyte an Text und Bildern) trainiert werden, haben sie Schwierigkeiten, das Gelernte auf Situationen anzuwenden, die sich auch nur geringfügig von denen unterscheiden, auf die sie trainiert wurden. „Sprachmodelle können sich nicht wirklich an Neuheiten anpassen, weil sie nicht in der Lage sind, ihr Wissen spontan neu zu kombinieren, um sich an neue Kontexte anzupassen“, erklärt Chollet.
Mit der Verallgemeinerung ist auch der Begriff verbunden „Aus einigen Beispielen lernen“ (Few-Shot-Learning), eines der Schlüsselmerkmale der menschlichen Intelligenz. Bisher erfordern Sprachmodelle eine enorme Datenmenge und eine teure Umschulung, um neue Aufgaben zu „lernen“, während wir Menschen Wir sind oft in der Lage, ein Konzept anhand eines oder sehr weniger Beispiele zu erfassen.
Die unmöglichen Wege zur allgemeinen künstlichen Intelligenz
Wie einige Experimente zeigen, ist die „interne Darstellungen“ Die Tatsache, dass sprachliche Modelle die Realität konstruieren, ist oft oberflächlich und inkonsistent. Zum Beispiel ein Forscherteam von Harvard trainierte ein Modell auf Taxirouten in New York City und schaffte es, das Ziel anhand des Startpunkts mit großer Präzision vorherzusagen. Bei der Betrachtung der vom System entwickelten „mentalen Karten“ stellten die Forscher jedoch fest, dass diese völlig bedeutungslos waren, „mit Straßen von physikalisch unmöglicher Orientierung und Überführungen, die über andere Straßen führen“.
Schließlich fehlt bei aktuellen Modellen noch ein Mechanismus Feedback wie es im menschlichen Gehirn vorkommt, wo Informationen bidirektional zwischen den verschiedenen Neuronenschichten fließen, So können Sie Wahrnehmung, Argumentation und Handeln integrieren. Während sensorische Informationen nach oben steigen, um abstrakte Darstellungen der Welt zu bilden, können dieselben Darstellungen die Wahrnehmung beeinflussen und die Erfassung neuer relevanter Informationen steuern. Eine Dynamik, die Schlüsselfunktionen ermöglicht, wie z Vorstellungskraft, Planung, Formulierung von Hypothesen zum Testen. Aktuelle Modelle? Sie haben nichts dergleichen. Eine künstliche allgemeine Intelligenz (AGI), die in naher Zukunft irgendwo entstehen könnte? Vielleicht. Vielleicht.
Zur Zeit nicht. Einige dieser Funktionen sind jetzt nur noch rudimentär verfügbar, indem Ad-hoc-Module namens „Verifizierer“ „extern“ zu den Modellen hinzugefügt werden, die die Ausgabe bewerten und korrigieren. Aber es ist ein Ansatz, der nicht sehr skalierbar und weit von der Effizienz des menschlichen Geistes entfernt ist.
Allgemeine künstliche Intelligenz, die nächsten Schritte zum Ziel
Trotz dieser Einschränkungen erscheint der Weg zu einer wirklich allgemeinen künstlichen Intelligenz heute klarer und praktikabler. Aus theoretischer Sicht scheint es keine unüberwindbaren Hindernisse zu geben: „Menschen und einige Tiere sind der lebende Beweis dafür, dass es möglich ist, dorthin zu gelangen“, betont er Melanie Mitchel, Professor am Santa Fe Institute und AGI-Experte. Die Herausforderung besteht eher in der Technik und Umsetzung als in der Konzeption.
Forscher arbeiten bereits an KI-Systemen der nächsten Generation, die die Einschränkungen aktueller Systeme überwinden und Schlüsselmerkmale der menschlichen Intelligenz integrieren, wie zum Beispiel:
- Modelle der Welt ausgefeilter, kohärenter und anpassungsfähiger, um fundiertes Denken, Planen und Verallgemeinern zu unterstützen. Darstellungen ähnlich unseren „mentalen Simulationen“, mit denen wir uns hypothetische Szenarien vorstellen, um Entscheidungen zu treffen.
- Internes Feedback die einen bidirektionalen und rekursiven Informationsfluss ermöglichen, bei dem abstrakte Darstellungen die Erfassung weiterer relevanter Daten und die Formulierung von Experimenten zur Validierung von Hypothesen leiten können.
- Höhere Leistungsfähigkeit beim Lernen die Fähigkeit entwickeln, aktiv auszuwählen, welche Informationen man „schmecken“ möchte, um seine Modelle zu verfeinern, anstatt sich auf eine wahllose Datenmenge zu verlassen. Ein bisschen wie ein Kind, das aktiv seine Umwelt auf der Suche nach interessanten Reizen erkundet.
- Eine Form von „Metamemory“, also das Bewusstsein für das Bekannte und das Unbekannte, um die Erforschung und gezielte Aneignung neuen Wissens zu leiten.
- Separate Einrichtungen für Kurz- und Langzeitgedächtnis früheres Wissen und Erfahrungen schnell zu speichern, abzurufen und neu zu kombinieren, wie es in biologischen Gedächtnissystemen der Fall ist.
- Eine Form von Bewusstsein und Selbstmodell, um zielgerichtetes Verhalten und effektive Interaktionen mit der Umwelt und anderen künstlichen oder menschlichen Agenten zu steuern.
In vielen dieser Punkte werden interessante Fortschritte erzielt
Yoshua Bengio arbeitet beispielsweise an neuen neuronalen Netzwerkarchitekturen, die er nennt „generative Flussnetzwerke“, fähig, gleichzeitig zu lernen, Modelle der Welt zu bauen und die Module zu nutzen, um sie zum Denken und Planen zu nutzen. Ein Ansatz, der in gewisser Weise der Funktionsweise des menschlichen Gehirns ähnelt.
Andere Forscher, wie z Jeff Hawkins von Numenta versuchen, die Prinzipien des biologischen Gedächtnisses in KI-Systemen zu implementieren, mit separaten Strukturen für das Kurzzeit- und Langzeitgedächtnis sowie Informationskonsolidierungs- und -abrufprozesse. Die Hypothese ist, dass es bei Verallgemeinerungs- und abstrakten Denkproblemen hilfreich sein kann.
Dann gibt es solche, wie den theoretischen Neurowissenschaftler Karl Friston vom University College London schlägt vor, dass ein Schlüssel zur Herangehensweise an AGI darin besteht, Systeme zu entwickeln, die Trainingsdaten nicht einfach passiv „aufnehmen“, sondern aktiv entscheiden, wie viele und welche Informationen abgetastet werden sollen, um ihre Ziele zu erreichen. Ein Prinzip ähnlich der „aktiven Probenahme“ bei Lebewesen.
Die ethischen und sicherheitstechnischen Herausforderungen einer AGI
Wenn der Aufbau allgemeiner künstlicher Intelligenz theoretisch möglich ist, Dies bedeutet nicht, dass es keine Risiken oder kritischen Probleme gibt. Wie bereits erwähnt, könnte eine Superintelligenz, die außer Kontrolle gerät oder nicht mit menschlichen Werten übereinstimmt, eine existenzielle Bedrohung für unsere Spezies darstellen. Ganz zu schweigen von den möglichen Auswirkungen auf Wirtschaft, Arbeit, Ungleichheiten, Privatsphäre und Manipulation von Informationen.
Aus diesem Grund mögen Forscher Stuart Russell von der University of Berkeley betonen, wie wichtig es ist, Techniken von Anfang an zu entwickeln „Anpassung der Werte“ (Werteausrichtung), um sicherzustellen, dass AGI-Systeme Ziele und Verhaltensweisen haben, die mit Ethik und menschlichem Wohlbefinden vereinbar sind.
Erfolgversprechende Ansätze in dieser Richtung sind solche, die darauf abzielen, ethische Verhaltensweisen und Werte aus der Lerndynamik des Systems selbst herauszuholen, ohne sie von außen aufzudrängen. Ein interessanter Vorschlag ist der von„kollaboratives inverses Verstärkungslernen“ (CIRL). Bei CIRL wird der KI-Agent für die Erfüllung menschlicher Präferenzen belohnt, diese Präferenzen selbst werden jedoch teilweise aus dem Verhalten des Agenten abgeleitet und im Laufe der Zeit verfeinert.
Andere Forscher glauben, dass es wichtig ist, dass die Entwicklung von AGI schrittweise erfolgt. Ich formuliere Folgendes um: „geschichtet“, mit zunehmender Autonomie und Kompetenz, damit wir die Sicherheit des Systems in jeder Phase testen und validieren können. Ein bisschen wie das, was bei der Entwicklung des menschlichen Gehirns passiert, das Phasen zunehmender Verfeinerung durchläuft, von grundlegenden motorischen und wahrnehmungsbezogenen Fähigkeiten bis hin zu Sprache und höheren kognitiven Fähigkeiten.
Und dann ist da natürlich noch das Problem Regulierung e Governance: Wer und wie sollte die Entwicklung solch leistungsstarker Technologien wie AGI steuern? Nur private Unternehmen und Labore oder auch Regierungen und internationale Organisationen? Viele sind skeptisch, ob die aktuellen regulatorischen und institutionellen Rahmenbedingungen mithalten können, und fordern eine „globale Governance“ der KI, doch die Konturen dieser futuristischen Governance müssen noch definiert werden.
Allgemeine künstliche Intelligenz, eine faszinierende und ungewisse Zukunft
Wenn wir die Fäden ziehen: Wie nah sind wir dem Ziel einer allgemeinen künstlichen Intelligenz, die mit der menschlichen Intelligenz vergleichbar oder ihr überlegen ist? Das lässt sich schwer sagen, die Schätzungen der Experten gehen auseinander seit ein paar Jahren auf mehrere Jahrzehnte. Sicher ist, dass die Fortschritte der letzten Jahre AGI zu einem viel greifbareren Ziel gemacht und dem Bereich eine beeindruckende Beschleunigung verliehen haben.
Der Weg ist voller Hindernisse, aber das Ziel schien noch nie so greifbar. Und wenn eines Tages, hoffentlich nicht allzu weit entfernt, eine künstliche Intelligenz in der Lage sein wird, uns Fragen zu stellen, Hypothesen zu testen, aus Erfahrungen zu lernen und sogar Emotionen zu spüren ... dann wissen wir, dass wir angekommen sind. Und dass die Welt, im Guten wie im Schlechten, nie wieder dieselbe sein wird.