In den letzten Jahren hat die künstliche Intelligenz das Firmament der Technologie erobert. KI revolutioniert Recht, Gesundheitswesen, Bildung und verschiedene Geschäftsmodelle.
Der Fortschritt von Big Data und maschinellem Lernen verändert die Art und Weise, wie wir mit künstlicher Intelligenz umgehen. Rishi Bommasani, Percy Liang und Kollegen an der Stanford University sagen, dass dieser Paradigmenwechsel es der künstlichen Intelligenz ermöglicht hat, für eine Vielzahl von Anwendungen großartig zu werden, die über das hinausgehen, wofür sie ursprünglich entwickelt wurde, wie z. B. die Verarbeitung natürlicher Sprache (NLP) in Chatbots wie Siri oder Alexa oder die Bildklassifizierung . Dies wird uns jedoch schnell in eine Krise führen.
KI-Modelle haben ein enormes Potenzial und können in einigen Fällen großartig sein, aber sie bergen auch erhebliche Risiken. „Trotz der bevorstehenden Verbreitung dieser Modelle“, sagen Bommasani und Kollegen, „haben wir derzeit kein klares Verständnis dafür, wie sie funktionieren, wann sie versagen und was ihre Fähigkeiten sind.“
Aus diesem Grund beschloss das Team, die Natur der zugrunde liegenden Modelle zu untersuchen, um ihre zukünftige Krise zu verhindern, und ihre Schlussfolgerungen sind wirklich interessant.

Auftauchendes Verhalten, (un)vorhersehbare Krisen?
Ein Problem bei diesen Modellen besteht darin, dass ihr Verhalten eher emergent als geplant ist. Daher ist es nicht immer möglich zu wissen, was diese Systeme tun werden oder wann sie in eine Krise geraten. "Dies ist sowohl eine Quelle wissenschaftlicher Aufregung als auch Angst vor unvorhergesehenen Folgen", sagen die Forscher.
Ein weiteres Problem ist, dass diese Modelle mittlerweile die Basis für viele andere sind. Das bedeutet, dass sie auf eine Vielzahl von Umständen angewendet werden können, aber auch, dass alle Probleme bestehen bleiben: Sie werden an alle Nachkommen vererbt. Und die gewinnorientierten Umgebungen von Startups und großen Konzernen sind nicht unbedingt die besten Orte, um die potenziellen Probleme von KI zu untersuchen.
Der kommerzielle Anreiz kann dazu führen, dass Unternehmen die sozialen Folgen der zukünftigen Krise ignorieren. Ich denke an die technologische Verlagerung der Arbeit, die Gesundheit eines für die Demokratie notwendigen Informationsökosystems, die Umweltkosten von Informationsressourcen und den Verkauf von Technologien an undemokratische Regime.
Rishi BommasaniStanford Universität
Ein Goldrausch
Bei der Entwicklung eines neuen Produkts setzt der Drang, der Erste zu sein, oft alle anderen Überlegungen außer Kraft und führt Teams auf schwer zu rechtfertigende Wege. Das Team gibt ein Beispiel für dieses Verhalten, indem es die Verwendung von bestreitet Clearview-KI von Fotos aus dem Internet für die Entwicklung von Gesichtserkennungssoftware. Dies geschieht ohne Zustimmung der Eigentümer oder Bildhosting-Unternehmen. Clearview verkaufte die Software dann an Organisationen wie Polizeidienststellen.
Krise und heimtückische Folgen
Die Folgen der Krise durch den verbreiteten Einsatz von Modellen künstliche Intelligenz sie könnten noch heimtückischer sein. "Da es sich um eine im Entstehen begriffene Technologie handelt, sind die Regeln für eine verantwortungsvolle Entwicklung und Implementierung des zugrunde liegenden Modells noch nicht gut etabliert", sagen die Forscher.
All dies muss sich ändern, und zwar schnell. Bommasani und Co sagen, dass die akademische Gemeinschaft gut vorbereitet ist, um die Herausforderung der zukünftigen KI-Identitätskrise anzunehmen. Sie ist bereit, weil sie Wissenschaftlerinnen und Wissenschaftler verschiedenster Disziplinen zusammenbringt, die nicht gewinnorientiert sind. "Die Wissenschaft spielt eine entscheidende Rolle bei der Entwicklung von KI-Modellen, die soziale Vorteile fördern und die möglichen Nachteile ihrer Einführung mindern. Universitäten und Universitäten können auch dazu beitragen, Standards zu setzen, indem sie Ethik-Prüfungsausschüsse einrichten und ihre eigenen tugendhaften Modelle entwickeln."
Es wird eine wichtige Aufgabe sein
Die Sicherstellung einer fairen und gleichberechtigten Nutzung von KI muss für moderne Demokratien eine Priorität sein, nicht zuletzt, weil Künstliche Intelligenz hat das Potenzial, die Lebensgrundlage eines erheblichen Teils der Weltbevölkerung zu bedrohen. Da die vierte industrielle Revolution schnell näher rückt, ist es schwer zu sagen, welche Arbeitsplätze vor der Automatisierung sicher sind. Nur wenige Job-Rollen dürften in Zukunft von der automatisierten Entscheidungsfindung unberührt bleiben – eine Krise, wie gesagt, die es zu verhindern gilt.