Künstliche Intelligenz (KI) hat das Potenzial, unsere Welt zu revolutionieren. Und natürlich ist dieses Versprechen mit einem erheblichen Risiko verbunden.
Nun ja, zumindest in meinem kognitiven Horizont sehe ich die pessimistische Seite deutlich vorherrschen. Aus irgendeinem unbekannten Grund neigen sogar KI-Entwickler selbst dazu, einander zu verfolgen mit Schlägen von „Wir werden alle sterben“, nur um mit ihren Plattformen gutes Geld zu verdienen.
Im Gegensatz dazu halten eine Handvoll Menschen die Aussicht auf einen Boom der künstlichen Intelligenz für sparsam.
Mit anderen Worten scheint es, dass die Menschheit bei unserem Umgang mit künstlicher Intelligenz nur zwei Optionen hat:
- Wir fürchten die möglichen negativen Folgen fortschrittlicher KI und versuchen daher, ihre Entwicklung zu stoppen.
- Wir schätzen die Vorteile fortschrittlicher KI und setzen uns daher dafür ein, diese Vorteile trotz der Risiken so schnell wie möglich zu erreichen.
In meinem Neapel wäre die wirkungsvolle Synthese ein berühmtes Sprichwort: „o 1, o 90“. Worauf ist dieser völlige Mangel an Gleichgewicht zurückzuführen? Gibt es einen Mittelweg?
Der Weg der Verantwortung
Unsere „binäre“ Vision, gestärkt durch soziale Netzwerke und die Medien, die das neu beleben sensationelle Aussagen oder apokalyptisch, einen Weg vernachlässigen. Und das ist sehr schade, denn es ist der beste Weg, der einzige, der uns zu den erhofften Vorteilen fortschrittlicher KI führen kann: verantwortungsvolle Entwicklung.
Machen wir einen Vergleich: Stellen Sie sich eine Reise in eine Art goldenes Tal vor. Stellen Sie sich dann vor, dass sich vor diesem Tal eine Art unsicherer Sumpf befindet, der möglicherweise von hungrigen Raubtieren bevölkert ist, die sich im Schatten verstecken.
Haben wir nur die Wahl, ihn zu überqueren oder wegzulaufen? Zwischen Angst (und Flucht) und Rücksichtslosigkeit (ohne Vorsichtsmaßnahmen weitermachen)? Oder gibt es einen dritten Weg, nämlich die Situation besser zu verstehen und nach dem sichersten Weg zu suchen, den Fluss mit Gleichgewicht zu überqueren? Sie kennen die Antwort bereits. Selbst die Ängstlichsten unter Ihnen wissen es. Und für diejenigen, die sich nur auf das „existentielle Risiko“ konzentrieren und nicht auf die Tatsache, dass es auch eine „existentielle Chance“ gibt, empfehle ich diese Reflexion des Philosophen und Experten für neue Technologien, Max Mehr.

Die Risikobewertung erfolgt durch das Gleichgewicht
Vereinfacht gesagt geht es auf dem Weg zu einem „nachhaltigen Superüberfluss“, der mit Hilfe fortschrittlicher KI erreicht werden könnte, vorausgesetzt, wir handeln klug und ausgewogen.
Und wie handelt man klug? Zunächst einmal, indem der Grundstein für eine traditionelle Regelung gelegt wird. Einige Philosophen und Experten für neue Technologien sind der Ansicht, dass die Lernfähigkeit und der potenzielle Nutzen künstlicher Intelligenz verringert werden, wenn man sie auf „Schienen“ setzt. Dipend.
Im Rahmen der nahen Zukunft, in der wir immer mehr „lokale“ und spezifische (sogar) haben werden völlig persönliche Assistenten), kann und sollte sensibel auf das Ausmaß potenzieller Ausfälle reagieren. Wenn die Fehler lokal sind, ist es sinnvoll, das Auftreten dieser Fehler zuzulassen. Aber wenn die Gefahr eines globalen Ergebnisses besteht, ist eine andere Mentalität erforderlich, nämlich die der verantwortungsvollen Entwicklung.
Kurz gesagt: Es ist nicht klug, künstliche Intelligenz zu stoppen, und es ist auch nicht klug, ihr freien Lauf zu lassen. Wie bereits erwähnt, führt uns keiner der beiden aktuellen Wege (Stop oder Run) zu etwas Gutem.
Wir dürfen nicht aufhören, wir dürfen nicht weglaufen
Was dringend benötigt wird, ist eine tiefergehende und durchdachtere Untersuchung der verschiedenen Szenarien, in denen KI-Ausfälle katastrophale Folgen haben können. Wir müssen abschätzen, welche Sektoren am stärksten gefährdet sind und welchen Schaden wir erleiden könnten, und dann neue (möglicherweise nicht umgehbare) „Regeln“ einführen. wie die von Asimov) nicht überlaufen.
Nur so können wir die Wahrscheinlichkeit deutlich erhöhen, einen sicheren Weg zu finden, den Sumpf der Unsicherheit zu überwinden, der zwischen uns und der technologischen Singularität besteht.