In den letzten Jahren hat künstliche Intelligenz das Firmament der Technologie erobert. KI revolutioniert Recht, Gesundheitswesen, Bildung und verschiedene Geschäftsmodelle.
Der Fortschritt von Big Data und maschinellem Lernen verändert unseren Umgang mit künstlicher Intelligenz. Rishi Bommasani, Percy Liang und Kollegen an der Stanford University sagen, dass dieser Paradigmenwechsel es der künstlichen Intelligenz ermöglicht hat, sich für eine Vielzahl von Anwendungen zu entwickeln, die über das hinausgehen, wofür sie ursprünglich entwickelt wurde, wie die Verarbeitung natürlicher Sprache (NLP), die in Chatbots wie Siri oder Alexa verwendet wird, oder die Bildklassifizierung . Dies wird uns jedoch schnell in eine Krise führen.
KI-Modelle haben ein enormes Potenzial und können in einigen Fällen großartig sein, bergen jedoch auch erhebliche Risiken. "Trotz der bevorstehenden Verbreitung dieser Modelle", sagen Bommasani und Kollegen, "haben wir derzeit kein klares Verständnis davon, wie sie funktionieren, wann sie versagen und welche Fähigkeiten sie haben."
Aus diesem Grund beschloss das Team, die Natur der zugrunde liegenden Modelle zu untersuchen, um ihre zukünftige Krise zu verhindern, und ihre Schlussfolgerungen sind wirklich interessant.
Auftauchendes Verhalten, (un)vorhersehbare Krisen?
Ein Problem bei diesen Modellen besteht darin, dass ihr Verhalten eher emergent als entworfen ist. Daher ist es nicht immer möglich zu wissen, was diese Systeme tun oder wann sie in eine Krise geraten. "Dies ist sowohl eine Quelle der wissenschaftlichen Aufregung als auch der Angst vor unvorhergesehenen Folgen", sagen die Forscher.
Ein weiteres Problem ist, dass diese Modelle mittlerweile die Basis für viele andere sind. Dies bedeutet, dass sie auf eine Vielzahl von Umständen angewendet werden können, aber auch, dass etwaige Probleme bestehen bleiben: Sie werden von allen Nachkommen vererbt. Und die gewinnorientierten Umgebungen von Startups und Großunternehmen sind nicht unbedingt die besten Orte, um die potenziellen Probleme von KI zu erkunden.
Der kommerzielle Anreiz kann Unternehmen dazu bringen, die sozialen Folgen der zukünftigen Krise zu ignorieren. Ich denke an den technologischen Wandel der Arbeit, die Gesundheit eines für die Demokratie notwendigen Informationsökosystems, die Umweltkosten von Informationsressourcen und den Verkauf von Technologien an undemokratische Regime.
Rishi BommasaniStanford Universität
Ein Goldrausch
Bei der Entwicklung eines neuen Produkts überlagert der Drang, der Erste zu sein, oft alle anderen Überlegungen und führt Teams auf schwer zu rechtfertigende Wege. Das Team gibt ein Beispiel für dieses Verhalten, indem es die Verwendung durch . bestreitet Clearview-KI von Fotos aus dem Internet für die Entwicklung von Gesichtserkennungssoftware. Dies geschieht ohne Zustimmung der Eigentümer oder Bildhosting-Unternehmen. Clearview verkaufte die Software dann an Organisationen wie Polizeidienststellen.
Krise und heimtückische Folgen
Die Folgen der Krise durch den verbreiteten Einsatz von Modellen künstliche Intelligenz sie könnten noch heimtückischer sein. „Als junge Technologie sind die Regeln für eine verantwortungsvolle Entwicklung und Umsetzung des zugrunde liegenden Modells noch nicht etabliert“, so die Forscher.
All dies muss sich ändern, und zwar schnell. Bommasani und Co. sagen, dass die akademische Gemeinschaft gut vorbereitet ist, um die Herausforderung der zukünftigen KI-Identitätskrise anzunehmen. Sie ist fertig, weil sie Wissenschaftlerinnen und Wissenschaftler verschiedenster Disziplinen zusammenbringt, die nicht gewinnorientiert sind. „Die Wissenschaft spielt eine entscheidende Rolle bei der Entwicklung von KI-Modellen, die den sozialen Nutzen fördern und die möglichen Schäden ihrer Einführung mindern. Universitäten können auch zur Definition von Standards beitragen, indem sie Ethikkommissionen einrichten und eigene Tugendmodelle entwickeln“.
Es wird eine wichtige Aufgabe sein
Der faire und gerechte Einsatz von KI muss für moderne Demokratien Priorität haben, nicht zuletzt, weil Künstliche Intelligenz hat das Potenzial, die Lebensgrundlagen eines erheblichen Teils der Weltbevölkerung zu bedrohen. Angesichts der bevorstehenden vierten industriellen Revolution ist es schwer zu sagen, welche Arbeitsplätze vor Automatisierung sicher sind. Nur wenige Job-Rollen dürften in Zukunft von der automatisierten Entscheidungsfindung unberührt bleiben – eine Krise, wie gesagt, die es zu verhindern gilt.