Künstliche Intelligenz (KI) hat das Potenzial, unsere Welt zu revolutionieren. Und offensichtlich ist dieses Versprechen mit einem erheblichen Risiko verbunden.
Nun, zumindest in meinem kognitiven Horizont sehe ich, dass der pessimistische Teil der Diskussion klar überwiegt. Aus einem Grund, den ich nicht kenne, neigen sogar die KI-Entwickler selbst dazu, sich gegenseitig zu verfolgen mit „wir werden alle sterben“, nur um mit ihren Plattformen gutes Geld zu verdienen.
Im Gegensatz dazu glauben eine Handvoll Menschen, dass die Aussicht auf einen Boom der künstlichen Intelligenz rettend sei.
Mit anderen Worten scheint es, dass die Menschheit bei unserem Umgang mit künstlicher Intelligenz nur zwei Optionen hat:
- Wir fürchten die möglichen negativen Folgen fortschrittlicher KI und versuchen daher, ihre Entwicklung zu stoppen;
- Wir schätzen die Vorteile fortschrittlicher KI und streben daher danach, diese Vorteile trotz der Risiken so schnell wie möglich zu erreichen.
In meinem Neapel wäre die wirksame Synthese ein berühmtes Sprichwort: „Entweder 1 oder 90“. Worauf ist dieser völlige Mangel an Gleichgewicht zurückzuführen? Gibt es einen Mittelweg?
Der Weg der Verantwortung
Unsere „binäre“ Vision, sklerotisiert durch soziale Medien und die Medien, die das neu beleben sensationelle Aussagen oder apokalyptisch, einen Weg vernachlässigen. Und das ist sehr schade, denn es ist der beste Weg, der einzige, der uns helfen kann, die gewünschten Vorteile fortschrittlicher KI zu erreichen: verantwortungsvolle Entwicklung.
Machen wir einen Vergleich: Stellen Sie sich eine Reise in eine Art goldenes Tal vor. Stellen Sie sich also vor, dass sich vor diesem Tal eine Art unsicherer Sumpf befindet, der möglicherweise von hungrigen Raubtieren bevölkert ist, die sich im Schatten verstecken.
Haben wir nur die Wahl zwischen hindurchgehen und weglaufen? Zwischen Angst (und Flucht) und Rücksichtslosigkeit (ohne Vorkehrungen vorankommen)? Oder gibt es einen dritten Weg, nämlich die Situation besser zu verstehen und mit Ausgewogenheit nach dem sichersten Weg zu suchen, den Fluss zu überqueren? Sie kennen die Antwort bereits. Selbst die Ängstlichsten unter euch kennen sie. Und für diejenigen, die sich nur auf das „existentielle Risiko“ konzentrieren und nicht auf die Tatsache, dass es auch eine „existentielle Chance“ gibt, empfehle ich diese Reflexion des Philosophen und Experten für neue Technologien, Max Mehr.
Die Risikobewertung erfolgt durch das Gleichgewicht
Abgesehen von der Metapher führt die Reise in Richtung „nachhaltiger Überfluss“, der mit Hilfe fortschrittlicher KI erreicht werden könnte, vorausgesetzt, wir handeln mit Weisheit und Ausgewogenheit.
Und wie handelt man klug? Zunächst einmal durch die Schaffung der Grundlagen für die traditionelle Regulierung. Nach Ansicht einiger Philosophen und Experten für neue Technologien verringert die Einbettung künstlicher Intelligenz in „Binärdateien“ ihre Lernfähigkeit und potenzielle Vorteile. Dipend.
Im Kontext der nahen Zukunft, in der wir immer mehr „lokale“ und spezifische künstliche Intelligenzen (sogar) haben werden völlig persönliche Assistenten), können und müssen sie sensibel auf das Ausmaß potenzieller Ausfälle reagieren. Wenn Fehler lokal auftreten, ist es sinnvoll, das Auftreten dieser Fehler zuzulassen. Aber wenn die Gefahr eines globalen Ergebnisses besteht, ist eine andere Mentalität erforderlich, nämlich die der verantwortungsvollen Entwicklung.
Kurz gesagt: Es ist nicht klug, künstliche Intelligenz zu stoppen, und es ist auch nicht klug, ihr freien Lauf zu lassen. Wie bereits erwähnt, führt uns keiner der beiden aktuellen Wege (anhalten oder rennen) zu etwas Gutem.
Wir dürfen nicht aufhören, wir dürfen nicht weglaufen
Was dringend benötigt wird, ist eine tiefergehende und durchdachtere Untersuchung der verschiedenen Szenarien, in denen KI-Ausfälle katastrophale Folgen haben können. Wir müssen abschätzen, welche Sektoren am stärksten gefährdet sind und welchen Schaden wir erleiden könnten, und dann neue „Regeln“ einführen (die möglicherweise nicht umgangen werden können). wie die von Asimov) nicht überlaufen.
Nur so können wir die Wahrscheinlichkeit deutlich erhöhen, einen sicheren Weg zu finden, den Sumpf der Unsicherheit zu überwinden, der zwischen uns und der technologischen Singularität liegt.