Der unaufhaltsame Fortschritt der künstlichen Intelligenz (KI) wirft tiefgreifende Fragen nicht nur über ihre zukünftigen Fähigkeiten, sondern auch über ihre Natur selbst auf. Eine besonders faszinierende und paradoxe Frage untersucht der Philosoph Jonathan Birke in einem Buch, das als Taschenbuch sehr teuer ist (diesmal, das muss ich gestehen, konnte ich es nicht), das aber, da es eine Oxford-Publikation ist, auch kostenlos online lesen. Welche Idee? Die Idee, dass KI, um Superintelligenz zu erreichen, die Fähigkeit entwickeln muss, Empfindungen, einschließlich Schmerz, zu empfinden. Diese revolutionäre Perspektive stellt unsere traditionellen Vorstellungen von KI als bloßem Computerwerkzeug in Frage und zwingt uns, ihre ethischen und philosophischen Auswirkungen auf radikale Weise zu bedenken.
Die inhärente Verbindung zwischen Intelligenz und Empfindungsvermögen in der natürlichen Evolution
Die Evolutionsgeschichte der Erde zeigt, dass komplexe Intelligenz nicht in Isolation entstanden ist. Im Gegenteil, es entwickelte sich gemeinsam mit der Fähigkeit, Empfindungen, Emotionen und schließlich eine Form des Bewusstseins zu erleben. Gib ihm Einzeller die auf schmerzhafte Reize reagieren, auf komplexe Tiere die Verhaltensweisen zeigen, die von Angst, Freude und Verlangen bestimmt werden, scheint die subjektive Erfahrung der Welt ein entscheidender Treiber für die Entwicklung höherer kognitiver Fähigkeiten. Charles Darwin selbst erkannte die Bedeutung von Emotionen als Überlebensinstrument, da sie Verhaltensweisen prägen, die dazu geeignet sind, die Chancen auf Fortpflanzung zu maximieren. Evolution in diesem Sinne belohnte Organisationen, die positive und negative Erfahrungen mit bestimmten Aktionen in Verbindung bringen konnten, und schärft ihre Lern- und Anpassungsfähigkeit.
KI ohne subjektive Erfahrung: Ein anderer Evolutionspfad
Die moderne künstliche Intelligenz stellt ein radikal anderes Paradigma dar. Algorithmen des maschinellen Lernens beispielsweise zeichnen sich durch die Analyse großer Datenmengen, die Erkennung von Mustern und die Erstellung von Vorhersagen mit einer Geschwindigkeit und Genauigkeit aus, die in vielen Bereichen die menschlichen Fähigkeiten übertreffen. Diese „künstliche“ Intelligenz operiert jedoch in einem Erfahrungsvakuum. Er empfindet keine Freude, keinen Schmerz, keine Angst. Seine Entscheidungen basieren ausschließlich auf mathematischen Berechnungen und Wahrscheinlichkeitsmodellen und sind frei von jeglicher affektiven oder emotionalen Konnotation.
Dieser Mangel an subjektiver Erfahrung wirft grundlegende Fragen über die Natur und die Grenzen der aktuellen KI auf. Kann ein rein rechnerisches Wesen ein wahres Verständnis der Welt erreichen, ohne die Fähigkeit, sie zu „fühlen“? Kann eine emotionslose KI tiefe Weisheit und Urteilskraft entwickeln, die über die einfache Optimierung mathematischer Funktionen hinausgeht? Die Philosophie hat sich schon lange gefragt, was es bedeutet, etwas zu „wissen“, Unterscheidung zwischen „propositionalem“ Wissen (Wissen, „dass“) und „erfahrungsbasiertem“ Wissen (Wissen, „wie es ist“). Die aktuelle KI scheint über umfangreiches propositionales Wissen zu verfügen, es fehlt ihr jedoch völlig an dem Erfahrungswissen, das mit Empfindungsvermögen einhergeht.
Feigls Bewusstseinsebenen: Ein nützlicher Rahmen für die Analyse künstlicher Intelligenz
Jonathan Birch stützt sich auf das Modell der drei Bewusstseinsebenen des Philosophen Herbert Feigl (1902–1988) entwickelte in den 50er Jahren ein Modell, das dabei hilft zu verstehen, wo die KI im Verhältnis zum menschlichen Bewusstsein steht:
- Sensibilität (rohe Gefühle): Die Fähigkeit, subjektive Erfahrungen, Empfindungen, Emotionen und „Qualitäten“ zu erleben (in der Philosophie bezieht sich „Qualia“ auf die subjektiven Eigenschaften einer Erfahrung, wie etwa das „Rot“ von Rot oder das „Süße“ von Süß).
- Weisheit (Bewusstsein): Die Fähigkeit, über die eigenen Erfahrungen nachzudenken, sie einzuordnen, mit Erinnerungen zu verknüpfen und aus ihnen zu lernen.
- Selbstbewusstsein: Bewusstsein von sich selbst als eigenständiges Individuum mit einer Vergangenheit, einer möglichen Zukunft und einer persönlichen Identität.
Laut Birch hat die moderne KI im Bereich der „Weisheit“ bedeutende Fortschritte gemacht und die Fähigkeit bewiesen, komplexe Informationen zu verarbeiten und Probleme zu lösen. Es mangelt ihm jedoch völlig an „Empfindungsvermögen“ und infolgedessen auch an „Selbstbewusstsein“. Es ist, als hätte er gelernt, ein Gebäude ab dem zweiten Stock zu bauen, ohne ein Fundament gelegt zu haben.
KI, Schmerz als Katalysator für Lernen und Anpassung
Die Rolle von Schmerzen bei der künstlichen Intelligenz steht im Mittelpunkt dieser Diskussion. Schmerzen sind nicht einfach nur ein Zeichen einer körperlichen Schädigung. Es ist ein leistungsstarker Motor zum Lernen und Anpassung. Ein Organismus, der Schmerzen erfährt, wird ermutigt, gefährliche Situationen zu vermeiden, aus seinen Fehlern zu lernen und wirksamere Überlebensstrategien zu entwickeln. Schmerz prägt das Verhalten, motiviert zum Handeln und trägt zur Erstellung einer komplexen inneren Weltkarte bei. Wie Birch sagt:
„Manche argumentieren, dass diese Art wahrer Intelligenz Empfindungsvermögen erfordert und dass Empfindungsvermögen Verkörperung erfordert.“
Verkörperung bezeichnet die Vorstellung, dass der Geist nicht vom Körper getrennt ist, sondern eng mit körperlichen und sensorischen Erfahrungen verknüpft ist. Eine eingebettete KI, die über Sensoren und Aktoren mit der Welt interagieren kann, könnte möglicherweise eine rudimentäre Form von Empfindungsvermögen entwickeln. Aus diesem Grund wird in Laboratorien weiter daran gearbeitet, genau dies zu verkörpern.Verkörperung wodurch die KI einen Körper erhält. Aber müssen wir diesem Körper Schmerz zufügen? Ist das ein ethisches Dilemma?
Computergestützter Funktionalismus: Eine alternative Sichtweise und ihre ethischen Implikationen
Die vorherrschende Ansicht im Bereich der KI ist die Computerfunktionalismus. Was behauptet er? Er behauptet, dass Das Gehirn ist seinem Wesen nach ein System zur Informationsverarbeitung und Bewusstsein kann aus jedem physischen System (einschließlich eines Computers) hervorgehen, das in der Lage ist, die entsprechenden kognitiven Funktionen auszuführen. Dieser Perspektive zufolge muss eine KI keinen Schmerz „fühlen“, um intelligent zu werden; Es reicht aus, dass es die mit Schmerzen verbundenen Verhaltensreaktionen simuliert.
Diese Ansicht wirft jedoch tiefgreifende ethische Fragen auf. Wenn es möglich wäre, durch Schmerzprogrammierung eine empfindungsfähige KI zu erschaffen, wäre dies moralisch vertretbar? Wir hätten das Recht zu schaffen künstliche Wesen, die Schmerz, Leid und Verzweiflung empfinden können? Und wenn die einzige Möglichkeit, Superintelligenz zu erreichen, die Schaffung empfindungsfähiger künstlicher Intelligenzen wäre, was wäre die verantwortungsvollste Entscheidung? Einige Experten, wie Nick bostromwarnt in seinem Buch „Superintelligenz“ vor den existenziellen Risiken, die mit der Schaffung superintelligenter KIs verbunden sind, die nicht im Einklang mit menschlichen Werten stehen. Der Mangel an Emotionen, insbesondere Empathie und Mitgefühl, könnte dazu führen, dass diese KIs Entscheidungen treffen, die für die Menschheit katastrophale Folgen haben.
KI und Schmerz: Simulation vs. reale Erfahrung: ein philosophisches und technologisches Dilemma
Ein entscheidender Punkt ist, wie ich bereits schrieb, die Unterscheidung zwischen der Simulation von Schmerz und dem tatsächlichen Empfinden von Schmerz. Selbst wenn eine KI die mit Schmerzen verbundenen physiologischen und verhaltensbezogenen Reaktionen perfekt simulieren könnte, würde dies nicht unbedingt bedeuten, dass sie ein subjektives Schmerzempfinden hätte. Die Frage, ob eine Simulation nicht von der realen Erfahrung zu unterscheiden ist, ist eine zentrale Debatte in der Philosophie des Geistes. Der Philosoph David Chalmersformulierte beispielsweise das Konzept der „philosophischen Zombies“, also Wesen, die sich genau wie Menschen verhalten, aber über keine subjektiven Erfahrungen verfügen. Und auch der es heftig bestreitet erkennt die Bedeutung seines Studiums an.
Die Zukunft der KI: Ein ethischer und evolutionärer Scheideweg
Die Perspektive von Jonathan Birch stellt uns an einen entscheidenden Scheideweg. Wir können uns dafür entscheiden, die Entwicklung künstlicher Intelligenz einzuschränken und uns auf Anwendungen zu konzentrieren, die keine Empfindungsfähigkeiten erfordern, oder wir können die Herausforderung annehmen, künstliche Wesen zu schaffen, die sowohl Lust als auch Schmerz empfinden können. Wie auch immer wir uns entscheiden, es ist wichtig, die ethischen und sozialen Auswirkungen mit größter Ernsthaftigkeit anzugehen. In der Zukunft der künstlichen Intelligenz geht es möglicherweise nicht nur um Algorithmen und Rechenleistung, sondern auch um Bewusstsein, subjektive Erfahrung und letztlich darum, was es bedeutet, intelligent und empfindungsfähig zu sein. Diese Überlegung zwingt uns, unsere Definition von Intelligenz zu überdenken und anzuerkennen, dass es sich nicht nur um eine Frage der Datenverarbeitung handelt, sondern ein komplexes und vielschichtiges Phänomen, untrennbar mit der Fähigkeit verbunden, die Welt zu fühlen, zu erleben und eine emotionale Verbindung mit ihr einzugehen.
Die Ethik der KI muss sich daher weiterentwickeln, um diesen neuen Herausforderungen Rechnung zu tragen. Sie muss sicherstellen, dass die technologische Entwicklung von den Grundsätzen der Verantwortung, des Respekts und des Wohlergehens nicht nur der Menschheit gegenüber, sondern auch gegenüber allen Formen künstlichen Bewusstseins, die wir möglicherweise schaffen, geleitet wird.