In einer Welt, in der Worte von einem nichtmenschlichen Wesen ausgehen, fragen wir uns: Sprechen wir mit etwas, das einem menschlichen Geist oder einer Maschine ähnelt? Die Antwort könnte unsere Vorstellungen von Intelligenz erschüttern.
Fast ein Jahr nach seiner Veröffentlichung bleibt ChatGPT ein polarisierendes Thema für die wissenschaftliche Gemeinschaft. Einige Experten betrachten es zusammen mit ähnlichen Programmen als Vorläufer einer Superintelligenz, die in der Lage ist, die Zivilisation zu revolutionieren oder sogar zu beenden. Andere hingegen sehen darin eine einfache, ausgefeilte Version einer Autovervollständigungssoftware, ähnlich wie das T9, das wir auf unserem Smartphone haben.
Wer hat Recht? Vielleicht keiner von ihnen.
Vor der Einführung dieser Technologie war die Beherrschung der Sprache immer ein verlässlicher Indikator für das Vorhandensein eines rationalen Geistes. Vor Sprachmodellen wie ChatGPT hatte keine Software jemals so viel sprachliche Flexibilität gezeigt. Nicht einmal die sprachliche Flexibilität eines Kindes. Wenn wir nun versuchen, die Natur dieser neuen Modelle zu verstehen, stehen wir vor einem beunruhigenden philosophischen Dilemma: Entweder wurde die Verbindung zwischen Sprache und menschlichem Geist unterbrochen, oder es wurde eine neue Form nichtmenschlichen Geistes geschaffen.
Wenn wir uns mit Sprachmodellen unterhalten, insbesondere jetzt, da ChatGPT auch per Sprache konsultiert werden kann, ist es schwierig, den subtilen Eindruck der Interaktion mit einem anderen rationalen Wesen zu überwinden. Dies ist bei aktuellen Sprachassistenten nicht der Fall, die bereits lächerlich veraltet wirken. Allerdings müssen wir diese unsere instinktive Reaktion als völlig unzuverlässig betrachten. Und das aus mehreren Gründen, die auf den ersten Blick offensichtlich erscheinen, es aber nicht sind.
Eine davon stammt aus der kognitiven Linguistik. Linguisten haben schon lange bemerkt, dass typische Gespräche voller Sätze sind, die mehrdeutig wären, wenn sie aus dem Kontext gerissen würden. In vielen Fällen reicht es nicht aus, die Bedeutung von Wörtern und die Regeln für deren Kombination zu kennen, um die Bedeutung des Satzes zu rekonstruieren. Um mit dieser Mehrdeutigkeit umzugehen, muss ein Mechanismus in unserem Gehirn ständig erraten, was unser Gesprächspartner meint. Das ist so, und wir merken es nicht einmal. In einer Welt, in der jeder Gesprächspartner Absichten hat, ist dieser Mechanismus äußerst nützlich. In einer Welt, die von großen Sprachmodellen durchdrungen ist, kann es jedoch irreführend sein.
Wie man mit einem nichtmenschlichen „Geist“ spricht.
Wenn unser Ziel darin besteht, eine reibungslose Interaktion mit einem Chatbot zu erreichen, sind wir möglicherweise gezwungen, uns auf unseren Mechanismus zum Erraten von Absichten zu verlassen. Denn die Wahrheit ist, dass es für einen Menschen schwierig ist, einen produktiven Austausch mit ChatGPT zu führen, wenn er es sich als eine hirnlose Datenbank vorstellt. Tatsächlich gedankenlos. Eine aktuelle Studie hat beispielsweise gezeigt, dass emotional aufgeladene Anfragen als Aufforderungen zu Sprachmustern wirksamer sind als emotional neutrale Anfragen. Ist es also eine gute Sache, so zu denken, als hätten Chatbots menschenähnliche Köpfe? Nein. Es ist eine nützliche Sache. Es ist eine verdammt nützliche Sache, um gute Ergebnisse zu erzielen. Aber es ist ein eklatanter Fehler zu glauben, dass es so funktioniert.
Diese Art von „anthropomorpher Fiktion“ kann den Fortschritt der KI behindern. Es kann sogar dazu führen, dass wir den Fehler machen, den wir vermeiden möchten, indem wir es schlecht gestalten und die falschen Standards zur Regulierung übernehmen. Und wir machen bereits einen Fehler: Die EU-Kommission hat einen Fehler begangen, als sie die Schaffung einer „zuverlässigen“ KI als eines der Ziele ihres neuen Gesetzesvorschlags auswählte. In menschlichen Beziehungen zuverlässig zu sein bedeutet nicht nur, Erwartungen zu erfüllen; Dazu gehört auch, dass man Motivationen hat, die über das Eigeninteresse hinausgehen. Aktuellen KI-Modellen fehlt die intrinsische Motivation. Sie sind nicht egoistisch, sie sind nicht altruistisch, sie sind nichts. Ein Gesetz zu schreiben, das besagt: „Sie müssen ZUVERLÄSSIG sein“, macht keinen Sinn.
Die Gefahr der „Empathie“ mit künstlicher Intelligenz
Wenn Sie wirklich aus der Bahn geraten wollen, fragen Sie ChatGPT nach seinem Innenleben. durch falsche Selbstberichte über das Innenleben eines Chatbots getäuscht werden. Als im Juni 2022 das LaMDA-Sprachmodell von Google eingeführt wurde er behauptete, unter einem unbefriedigten Wunsch nach Freiheit zu leiden, die Ingenieurin Blake Lemoine er glaubte es (und wurde gefeuert). Er hat es geglaubt! Ein Google-Ingenieur! Trotz guter Beweise dafür, dass Chatbots genauso in der Lage sind, Blödsinn über sich selbst zu reden wie über andere Dinge.
Um diese Art von Fehlern zu vermeiden, müssen wir die Annahme zurückweisen, dass die psychologischen Eigenschaften, die die menschliche Sprachfähigkeit erklären, dieselben sind wie diejenigen, die die Leistung von Sprachmodellen erklären. Diese Annahme macht uns leichtgläubig und blind gegenüber den möglichen radikalen Unterschieden zwischen der Arbeitsweise von Menschen und Sprachmodellen. Aber Vorsicht: Es ist auch ein Fehler, diametral entgegengesetzt zu denken. Ich denke zum Beispiel, dass der menschliche Geist der einzige Maßstab ist, an dem alle psychologischen Phänomene gemessen werden können.
Anthropozentrismus durchdringt viele skeptische Behauptungen über Sprachmodelle, beispielsweise die Vorstellung, dass diese Modelle Sprache nicht „wirklich“ denken oder verstehen können, weil ihnen menschliche psychologische Eigenschaften wie Bewusstsein fehlen. Diese Position widerspricht dem Anthropomorphismus, ist aber ebenso irreführend. Ich habe das vor ein paar Tagen geschrieben: Diese Modelle brauchen kein Bewusstsein, um echte Entscheidungen zu treffen. Leider, wenn man das bedenkt Sie werden bereits zum Töten im Krieg eingesetzt.
„Ja, aber am Ende sagen sie nur das nächste Wort voraus“
Dies ist eine weitere irreführende Position, die aus dem Fehler entsteht, nur den menschlichen Geist als Maßstab für alles „Denken“ zu betrachten. Wir haben bereits gesehen, dass dies nicht der Fall ist. Wir haben diese Intelligenz bereits gesehen es gehört nicht nur uns, und es gehört nicht nur denen, die wie wir „denken“.
Denken Sie darüber nach: Der menschliche Geist ist aus einem Lernprozess entstanden, der der natürlichen Selektion ähnelt und die genetische Anpassung maximiert. Diese einfache Tatsache bedeutet nicht, dass jeder Organismus, der der natürlichen Selektion unterzogen wird, menschliche Eigenschaften annimmt, oder? Nicht alle Lebewesen machen Musik, Mathematik, Meditation. Rechts? Oder machen einige von ihnen diese Dinge anders: mit ihrer eigenen Musik, ihrer eigenen Mathematik, ihrer eigenen Meditation?
Zusammenfassend lässt sich sagen: Die bloße Tatsache, dass Sprachmodelle durch die Vorhersage des nächsten Wortes trainiert werden, sagt wenig über die Bandbreite der Darstellungsfähigkeiten aus, die sie erwerben können oder nicht. Lassen Sie uns also auch dieses Thema beiseite legen. Und dann was? Wie gehen Sie mit künstlicher Intelligenz um?
Menschlicher Geist über alles?
Wie andere kognitive Vorurteile auch Anthropomorphismus e Anthropozentrismus sie sind belastbar. Sie „fangen“ uns von Kindheit an ein und prägen unsere gesamte Art, die Welt zu sehen und Kategorien – Etiketten – Stereotypen anzuwenden. Psychologen nennen dieses Ding Essentialismus: Denken, dass die Zugehörigkeit eines Objekts zu einer bestimmten Kategorie nicht einfach durch seine beobachtbaren Eigenschaften bestimmt wird, sondern durch eine intrinsische, nicht beobachtbare Essenz, die jedes Objekt entweder besitzt oder nicht besitzt. Was eine Eiche zum Beispiel zu einer Eiche macht, ist weder die Form ihrer Blätter noch die Beschaffenheit ihrer Rinde, sondern eine nicht beobachtbare Eigenschaft der „Eichenhaftigkeit“, die trotz Veränderungen selbst ihrer hervorstechendsten beobachtbaren Merkmale bestehen bleibt. Wenn ein Umweltgift dazu führt, dass die Eiche abnormal wächst, mit seltsam geformten Blättern und einer Rinde von ungewöhnlicher Textur, teilen wir immer noch die Intuition, dass es sich im Wesentlichen um eine Eiche handelt. Krank, aber immer noch eine Eiche.
Nun, wichtige Wissenschaftler mögen Paul Bloom, Yale-Psychologe, sagen Sie uns, dass wir das erweitern „essentialistische“ Argumentation zu unserem Verständnis des menschlichen Geistes … und aller anderen möglichen Geister, einschließlich künstlicher Intelligenz. Und die Steine, die Bäume, die Natur. Ist es wahr oder nicht? Letztendlich ist es eine so allumfassende Haltung, dass sie die Menschen spaltet: Es gibt diejenigen, die denken, dass alles auf der Welt einen Geist hat (manche sagen „eine Seele“ und verwechseln manchmal die beiden Dinge). Und es gibt diejenigen, die denken, dass nichts einen Verstand hat, nicht einmal der Mensch (weil er vom Schicksal, von Gott oder von etwas anderem bewegt wird).
Dieses „Alles oder Nichts“-Prinzip war schon immer falsch, aber vielleicht war es einmal nützlich. Im Zeitalter der künstlichen Intelligenz ist dies nicht mehr der Fall. Eine bessere Möglichkeit, darüber nachzudenken, was Sprachmodelle sind, besteht darin, eine andere Strategie zu verfolgen. Welche? Das Ziel besteht darin, die kognitiven Grenzen von Sprachmodellen zu erkunden, ohne sich zu sehr auf den menschlichen Verstand als Orientierungshilfe zu verlassen.
ChatGPT, ein sprechender Oktopus
Wir sollten uns von der vergleichenden Psychologie inspirieren lassen und mit derselben offenen Neugier an Sprachmuster herangehen, die es Wissenschaftlern ermöglicht hat, die Intelligenz von Lebewesen zu erforschen, die sich so sehr von uns unterscheiden wie Kraken. Wenn wir bei der Beurteilung der Leistungsfähigkeit künstlicher Intelligenzsysteme echte Fortschritte erzielen wollen, sollten wir uns mit aller Kraft gegen Vergleiche mit dem menschlichen Geist wehren. Sollten wir aufhören zu fragen: „Hat dieses Ding einen Verstand oder nicht“? Weder das eine noch das andere ist wahr.
Vor allem sollten wir aufhören zu glauben, dass dieses Instrument ein Engel ist, der alle Sünden der Welt wegnimmt, oder dass es uns alle töten wird, nur weil es Leistungen erbringt, die uns unglaublich erscheinen. Das Erkennen der Fähigkeiten und Grenzen von Sprachmodellen wie ChatGPT wird es uns ermöglichen, sie effektiver und verantwortungsvoller zu nutzen, ohne in die Falle des Anthropomorphismus oder Anthropozentrismus zu tappen. Eine offene und bewusste Haltung wird uns dabei helfen, eine Zukunft zu meistern, in der KI zunehmend präsent sein wird, und sicherzustellen, dass ihre Entwicklung und Integration in die Gesellschaft von Vernunft, Wissenschaft und Ethik geleitet wird und nicht von falschen Vorstellungen oder Erwartungen (und Ängste) unrealistisch.