Dieser Beitrag ist Teil von „Periscopio“, dem Linkedin-Newsletter, der jede Woche über zukünftige Zukunftsthemen informiert und vorab auf der LinkedIn-Plattform veröffentlicht wird. Wenn Sie es abonnieren und in der Vorschau anzeigen möchten, finden Sie alles hier.
Die Washington Post letzten Samstag berichtete die Aussagen eines Google-Ingenieurs, der am 6. Juni wegen Verstoßes gegen die Vertraulichkeitsvereinbarungen des Unternehmens in Palo Alto suspendiert wurde. Im Wesentlichen hat der Ingenieur Blake Lemoine „private“ Chats zwischen ihm und einem Chatbot mit künstlicher Intelligenz verbreitet, der etwas zeigen würde, was von vielen Experten eher befürchtet wird: Diese KI wäre empfindungsfähig geworden.
Dies sind starke Aussagen eines Branchenexperten, nicht irgendeines Typen. Und sie werden nach Hunderten von Interaktionen mit einem hochmodernen und beispiellosen künstlichen Intelligenzsystem namens gerendert DieMDA. Aber es ist wahr? Ist diese KI wirklich empfindungsfähig geworden?
Worüber reden wir
LaMDA steht für „Language Model for Dialog Applications“. Es ist eines dieser KI-Systeme, die auf schriftliche Anfragen reagieren können, wenn sie mit großen Datenmengen trainiert werden.
Systeme sind immer besser darin geworden, Fragen zu beantworten, indem sie auf eine Weise schreiben, die immer menschenähnlicher ist. Erst im vergangenen Mai hat Google selbst LaMDA vorgestellt in seinem offiziellen Blog definiert es als „in der Lage, über eine unendliche Anzahl von Themen zu schreiben“.
Ja, aber ist es empfindungsfähig?
Nach den Behauptungen des Ingenieurs versuchte Google, Wasser ins Feuer zu gießen, und dementierte das Interview, das in der Washington Post erschien. „Unser Team“, schrieb Big G gestern, „prüfte Blakes Bedenken und teilte ihm mit, dass die Beweise seine Behauptungen nicht stützen.“ Mehrere Experten für künstliche Intelligenz wiederholten dies: Einige haben diese These entschieden zurückgewiesen, andere haben sie als Beispiel für unsere Neigung verwendet, Maschinen menschliche Attribute zuzuweisen.
Sozusagen ein bisschen wie beim Kampf mit der Maus.
Es ist jedoch kein Witz. So etwas kann man nicht einfach so abtun. Und nicht für die Ängste von Menschen wie Ilja Sutskever („KIs werden empfindungsfähig“), Yuval Harari („KI wird in der Lage sein, Menschen zu hacken“), Oder Mo Gawdat ("KI-Forscher spielen mit der Erschaffung Gottes").
Die Überzeugung, dass die KI von Google empfindungsfähig sein kann, ist sehr wichtig, da sie sowohl unsere Befürchtungen als auch unsere Erwartungen hinsichtlich des Potenzials dieser Technologie unterstreicht.
Derzeit ist es jedoch ein Irrglaube
Die Entwicklung und Verwendung fortschrittlicher und trainierter Computerprogramme für riesige Datenmengen wirft viele ethische Bedenken auf. In einigen Fällen wird der Fortschritt jedoch eher danach beurteilt, was passieren könnte, als was derzeit machbar ist.
Die Schlussfolgerung scheint im Moment laut fast allen großen Computerexperten der Welt nur eine zu sein: Nein, Googles KI ist bei weitem nicht empfindungsfähig. Sie ist einfach besser darin, so auszusehen und Sprachmuster mit ähnlichen Dingen zu paaren, die sie in einem fast unendlichen Vorrat an Sätzen findet.
Sie müssen es sich als eine superstarke Version der Autocomplete-Software vorstellen, die wir auf einem Smartphone haben. Ok: super super super mächtig. Dies sollte jedoch niemand mit Empfindungsfähigkeit verwechseln.
Heutzutage spielen jedoch genau die KI-Entwickler die Anklage und alarmieren die Menschen. Ihre Äußerungen, teils diktiert vom Schock, das Potenzial dieser Technologie zuerst zu sehen, teils auch, um sie zu fördern, finden große Resonanz in den Medien.
Die KI von Google ist nicht empfindungsfähig
Es scannt den Siedimer Blaise Agüera und Arcas, Vizepräsident von Google Research, schrieb in einem Artikel für The Economist dass er, als er letztes Jahr anfing, LaMDA zu verwenden, immer mehr das Gefühl hatte, mit etwas Intelligentem zu sprechen. Es ist verständliches Erstaunen, sogar subtile Angst.
Im Moment hat LaMDA jedoch 11 verschiedene Überprüfungsprozesse zu den Prinzipien der künstlichen Intelligenz durchlaufen. Sie wurde auch vielen Tests auf ihre Fähigkeit unterzogen, faktenbasierte Behauptungen aufzustellen. Irgendetwas. Es ist nicht empfindungsfähig.
Dies ändert nichts an der Notwendigkeit, künstliche Intelligenz nach Ethik und Moral zu entwickeln. Jemand, um die Wahrheit zu sagen, sagt zu haben eine KI entwickelt, die direkt mit einer Moral AUSGESTATTET ist, aber das ist eine andere Sache.
Die Hauptaufgabe der Forscher, wenn sie sich wirklich um den Fortschritt dieser Technologie kümmern, besteht nicht darin, ihre Erscheinungsformen zu vermenschlichen. Vor allem aber die Öffentlichkeit nicht übermäßig beunruhigen, sondern wachsam bleiben, um „die Bremse ziehen“ zu können, sobald sich tatsächlich ein Funke Selbstbewusstsein zeigt.
WENN es jemals eine geben wird. Was sagst du?