Dieser Beitrag ist Teil von „Periscopio“, dem Linkedin-Newsletter, der jede Woche über zukünftige Zukunftsthemen informiert und vorab auf der LinkedIn-Plattform veröffentlicht wird. Wenn Sie es abonnieren und in der Vorschau anzeigen möchten, finden Sie alles hier.
Algorithmen bestimmen zunehmend unser Leben, leiten unsere Entscheidungen und füllen unsere Tage. Ein Algorithmus ist ein „verstecktes“ und allgegenwärtiges System, das unsere gemeinsamen digitalen Realitäten größtenteils dominiert.
Wenn Sie Musik auf iTunes hören, ein Video auf YouTube abspielen, auf Amazon nach dem nächsten Geburtstagsgeschenk suchen, Ihre Lieblingssendung auf Netflix ansehen oder sogar auf Google nach Nachrichten suchen, ist es ein Algorithmus, der die Ihnen zur Verfügung stehenden Optionen bestimmt und, indirekt, was Sie letztendlich konsumieren werden.
Algorithmen bauen echte "Trichter", in die unsere Vision der Realität fällt und in einer genauen Richtung endet. Es ist gut, wenn Spotify einen eingängigen Song findet, aber es ist schrecklich, wenn es einer sozialen Plattform gelingt, das Ergebnis von eigentlich freien Wahlen zu beeinflussen.
Dies ist ein enormer Einfluss, sorgfältig geplant und gehalten von sehr wenigen Akteuren auf der Welt: den großen Technologieunternehmen.
Muss ein Algorithmus so funktionieren?
Es hat etwas Belohnendes, unsere Ziele durch einen Algorithmus zu erreichen. Es ist, als hätte man jemanden neben sich, der „uns spontan versteht“ und uns sagt oder uns berät, was wir immer hören wollen. Deshalb wollen die Menschen immer mehr. Und Unternehmen beschäftigen sie, weil sie ihnen höhere Gewinne garantieren. Aber kann das nur funktionieren? Es ist richtig?
Die Frage ist bereits aufgetaucht, wir tun es immer öfter und auch die Leser dieses Blogs schrecken davor nicht zurück: Wie können wir uns gegen die negativen Auswirkungen von Algorithmen der künstlichen Intelligenz wehren?
Wir können die Nutzung von Social Media einschränken oder sogar Konten löschen. Wir können so viel wie möglich oder zumindest ein paar Tage im Monat offline sein. Wir können ausführlich in den Zeitungen recherchieren, um nicht von Fake News und Lügen beeinflusst zu werden. Sicher, das können wir, auf Kosten von Opfern, aber wir können. Aber warum muss es nur von uns abhängen?
Warum müssen wir alles selbst machen?
Es muss etwas geben, was die Technologieunternehmen selbst tun müssen, tun müssen, um die Situation zu verbessern. Wir müssen das Gesamtbild in Frage stellen, und das Bild ist: Ein Algorithmus ist von Natur aus darauf ausgelegt, unsere Zeit und Aufmerksamkeit zu beanspruchen, indem er unsere psychologischen Schwachstellen ausnutzt. Punkt. Das ist es, es ist die Wahrheit.
Und es ist eine ernste Sache, besonders für die neuen Generationen, die zwischen ständigem Streit in den sozialen Medien und kleinen „Gefällt mir“-Belohnungen aufgewachsen sind. Und sich gegenseitig den Rat zu geben, das Surfen zu unterlassen, andere Gewohnheiten zu haben oder andere Anstrengungen zu unternehmen, bedeutet, passiv zu akzeptieren, dass Technologieunternehmen Algorithmen immer mehr und immer schlimmer ausnutzen werden.
Die eigentliche Frage ist eine andere. Die Frage ist, warum ist ein Algorithmus auf Engagement statt auf Wohlbefinden optimiert? Und was braucht es, um diesen Zustand zu ändern?
Glücksalgorithmus gesucht
Mit einem bescheidenen Arbeitsaufwand könnten Algorithmen modifiziert werden, um unsere empfindliche Psychologie zu verteidigen und zu verbessern, anstatt sie auszunutzen. Ein Algorithmus sollte trainiert werden, um das Wohlbefinden zu verbessern, und nicht die Interaktion.
Versuchen Sie sich vorzustellen, wie sich die Dinge verbessern würden.
Offensichtlich denkt Big Tech nicht einmal darüber nach. Der ehemalige Facebook-Präsident Sean Parker, der die Geburt des Social-Media-Giganten miterlebte, sagte er vor langer Zeit dass das Hauptziel der Plattform darin bestand, die Zeit und Aufmerksamkeit der Benutzer optimal zu nutzen.
Ja du weißt. Das Ziel ist Gewinn. Und die Währung ist unsere Aufmerksamkeit. Die Konsequenzen? Im Hintergrund. Unabhängig davon, ob sie wissen, was sie tun, oder ob sie ohne Bremsen fahren, bis sie an eine Belastungsgrenze kommen, die Technologieunternehmen fügen uns Schaden zu, und sie sind dafür verantwortlich.
Die Bedeutung einer KI-Ethik
Natürlich gäbe es (scheinbar) gute Nachrichten: Das Aufkommen der Ethik der KI und Open-Source-Kooperationsinitiativen haben diese Unternehmen unter Druck gesetzt. Sie tun jetzt, was sie können, um Engagement für die Verbesserung ihrer Plattformen zu zeigen. Google, Facebook, Microsoft und andere haben viele sozialwissenschaftliche Experten eingestellt – das Ziel? Humanisieren Sie ihre Technologien.
Eine offensichtlich mühselige Aufgabe, die von Anfang an auf Hindernisse stößt: Wir alle erinnern uns Timnit Gebrü, der Ethikexperte, der 2020 von Google lizenziert wurde, weil er den „Rassismus“ seiner künstlichen Intelligenz auf die Anklagebank gestellt hat. Es war weder die einzige noch die letzte Entlassung dieser Art. 2021 folgte es Margaret Mitchell, vom selben Google-Ethikteam.
Dennoch werden diese Experten entlassen, weil sie das getan haben, wofür sie eingestellt wurden: die potenziellen Risiken der Technologie zu analysieren. Mit anderen Worten, es ist in Ordnung, Ethikexperten einzustellen, solange sie nicht in die wichtigsten Pläne des Unternehmens eingreifen.
Die Ethik der KI wird eine nicht nachhaltige Geschäftspraxis sein, wenn Fachleute ihre Arbeit nicht erledigen können, d. h. die Unternehmen, für die sie arbeiten, zu stärken.
Menschen vor Profit stellen
In den letzten zwei Jahren sind der Ruf und das öffentliche Image dieser Unternehmen aufgrund dieser Entscheidungen drastisch geschrumpft. Und immer mehr Forscher versuchen sich zusammenzuschließen, um weiter an der Technikethik zu arbeiten, ohne den wirtschaftlichen Zielen dieser Giganten zu gehorchen.
Und vielleicht ist es das Beste: Tech-Unternehmen werden ihren Ethik-Teams wahrscheinlich nicht wirklich zuhören, wenn ihr Problem rein wirtschaftlicher Natur ist. Wenn die Einführung von Ethik ihre Gewinne nicht schmälert, werden sie es tun - wenn nicht, werden sie diese Teams an der Arbeit hindern.
Aus diesem Grund hat Timnit Gebru selbst die gegründet Forschungsinstitut für verteilte künstliche Intelligenz (DAIR) und Margaret Mitchell arbeitet als Forscherin und leitende Ethikwissenschaftlerin bei Gesicht umarmen .
Wenn die internen Ethik-Teams keine wirkliche Arbeit leisten können (und es nicht können, scheint mir das offensichtlich), ist es besser, die Lösung außerhalb zu suchen.
Die Heilsarmee
Wie bereits erwähnt, sehen wir immer mehr Bemühungen im Bereich der künstlichen Intelligenz, aber außerhalb der großen Technologieunternehmen. Es gibt Subjekte, die kollektiv und individuell daran arbeiten, das Schicksal des „Algorithmus-Dominos“ umzukehren: Neben den bereits erwähnten DAIR und Hugging Face gibt es sie große Wissenschaft, Eleuther AI e Montreal AI Ethikinstitut , unter anderen. In Italien haben wir die Italienische Gesellschaft für die Ethik der künstlichen Intelligenz.
Vielleicht ist es an der Zeit, dass selbst diejenigen mit echtem politischem Gewicht und Macht eine aktivere Rolle bei der Überwachung der Gesellschaften übernehmen, die unsere Zukunft in ihren Händen haben.
Ein Algorithmus, der um Menschen herum gebaut wurde
Dazu hat die UNESCO a Reihe von Empfehlungen um sicherzustellen, dass jeder KI-Algorithmus menschenzentriert ist.
„Wir müssen internationale und nationale Regeln und Rahmenbedingungen schaffen, um sicherzustellen, dass diese neuen Technologien der Menschheit als Ganzes zugute kommen“, heißt es in dem Dokument.
"Es ist an der Zeit, dass KI den Menschen dient, nicht umgekehrt"
„Künstliche Intelligenz beeinflusst bereits unser Leben. In diesem Bereich gibt es einige Gesetzeslücken, die unverzüglich angegangen werden müssen. Der erste Schritt besteht darin, sich darauf zu einigen, welche Werte geschützt und wie die Vorschriften eingehalten werden sollen. Es gibt viele Rahmenbedingungen und Richtlinien, aber sie werden ungleichmäßig angewendet und keines ist wirklich global. Und da künstliche Intelligenz global ist, müssen wir es auch sein“.
Engagement für die Welt
Das UNESCO-Abkommen wurde vor nur 7 Monaten, am 24. November 2021, genehmigt. Es ist ein grundlegender erster Schritt, um Unternehmen zu kontrollieren, die in Rechtsbereichen mit supermächtigen Technologien tätig sind.
China hat auch den Weg für eine beispiellose Regulierung geebnet, um Menschen für die Macht eines Algorithmus zur Rechenschaft zu ziehen. Am 1. März hat die chinesische Regierung ein Gesetz aktiviert, das es Benutzern ermöglicht, Algorithmusempfehlungen vollständig zu deaktivieren, neben anderen Maßnahmen, um den Menschen Entscheidungsbefugnis über Technologieunternehmen zu geben.
Die Tatsache, dass die Ethik der künstlichen Intelligenz die Aufmerksamkeit globaler Regulierungsbehörden auf sich gezogen hat, zeigt, wie wichtig sie für das individuelle und kollektive Wohlergehen ist. Stehen wir am Anfang der Forschung, einen „kranken“ Algorithmus, der uns krank macht, in einen Wellness-Algorithmus umzuwandeln?
Ich kann es nicht sagen. Aber wir müssen es um jeden Preis versuchen.