Sie alle kennen die Geschichte des Google-Ingenieurs, der in Googles neuestem KI-Chatbot (und er wurde später gefeuert). Die einhellige Meinung von Journalisten und vor allem von Experten? Gegenteil , Gegenteil , Gegenteil e ... Gegenteil.
Auf unterschiedlichen Wegen scheinen alle zum gleichen Schluss gekommen zu sein, der bei sorgfältiger Überlegung sowohl eine Schlussfolgerung des gesunden Menschenverstandes als auch eine technische ist. Ein Chatbot, wie auch immer entwickelt, ist eine Funktion. Funktionen sie sind nicht empfindungsfähig. Aber sie können so weit entwickelt sein, dass sie die Menschen täuschen, oh ja, das können sie. Die eigentliche Frage ist also: Wer wird sie kontrollieren? Werden sie transparent verwendet? Folgen Sie mir.
Denn die KI sind „nur“ Funktionen
Kehren wir zu unseren eingerosteten Schulvorstellungen zurück und sagen: Eine Funktion ist eine Regel, um eine Zahl (oder Liste von Zahlen) in eine andere Zahl (oder Liste von Zahlen) umzuwandeln. Gemäß dieser Definition sind ALLE heutigen KI-Systeme Funktionen, einschließlich des LaMDA-Chatbots, der den Krawall auslöste und den Ingenieur seinen Sitz kostete.
Sicher, das sind sehr komplexe Funktionen, aber sie funktionieren trotzdem: Die Software hinter einem Chatbot enthält Regeln, um eine mit Buchstaben geschriebene Nachricht in eine Zahl umzuwandeln, die die Software als Eingabe x verwendet, und dann die Ausgabe f (x) wieder in eine mit Buchstaben versehene Nachricht umzuwandeln. Jeder aktuelle Computer, einschließlich des auf Ihren Mobiltelefonen, führt diese Aufgaben regelmäßig aus.
Anstatt im ganzen Kreis darüber zu sprechen, was mit dem Wort „empfindungsfähig“ gemeint ist (das anscheinend niemand definieren kann), fragen wir uns vielleicht, wie Menschen lernen sollten, die außergewöhnliche Kraft dieser komplexen Funktionen zu nutzen.
Der Kern: die Pseudozufallsfunktionen
Mathematiker und Ingenieure entdecken oder entwickeln seit langem neue Funktionen. Zum Beispiel die "pseudozufälligen" Funktionen, die vollständig vorhersagbare Ergebnisse erzeugen (für jeden, der ihre zugrunde liegende Formel kennt), die aber für alle anderen zufällig erscheinen.
Während der „Trainingsphase“ untersucht die Chatbot-Software große Textmengen. Stellen Sie sich vor, dass auf den Satz „mein Hund mag es“ in der Hälfte der Zeit „Apportieren spielen“ oder „auf Möbeln kauen“ folgt. Wenn der trainierte Chatbot mit einem Menschen chatten soll, können die Eingaben, die er erhält (die Worte seines Gesprächspartners), signalisieren, dass es an der Zeit ist, etwas über einen Hund zu sagen.
Die laufende Software verwendet eine der Pseudozufallsfunktionen, um auszuwählen, was über den Hund gesagt werden soll: „Spiel Apportieren“ oder „Möbel kauen“.
Wem gehören diese Formeln?
Traditionell veröffentlichten diejenigen, die eine bessere Methode zur Simulation von Zufälligkeiten entwickelten, diese, damit andere sie kritisieren und kopieren konnten. Aus diesem Grund sind Funktionen dieser Art sehr erfolgreich und weit verbreitet: Heutzutage wird simulierter Zufall in vielen Anwendungen verwendet, einschließlich des Schutzes von Internettransaktionen. Ohne Aussicht, Milliardär zu werden, haben viele Wissenschaftler neue Funktionen entdeckt und geteilt – alle haben Fortschritte gemacht. Es war ein gutes System. Es funktioniert seit Jahrhunderten. Und nun?
Im Bereich der künstlichen Intelligenz wird der Fortschritt an der Wissensgrenze heute von wenigen privaten Unternehmen dominiert. Sie haben Zugriff auf genügend Daten und genügend Rechenleistung, um außerordentlich mächtige Funktionen zu entdecken und auszunutzen, die niemand von außen nachvollziehen kann.
Die Kreuzungen
Nehmen wir LaMDA. Es ist beeindruckend. Es zeigt, dass künstliche Intelligenz den Menschen überraschende neue Wege bieten könnte, um Zugang zu allem menschlichen Wissen zu erhalten. Mit der Zeit wird Google vielleicht in der Lage sein, LaMDA zu modifizieren, um es zur neuen "Suchmaschine" zu machen. Er wird uns als viel klügerer Assistent erscheinen als die jetzigen. Er wird uns zuhören, uns verstehen und oft sogar unsere Gedanken vorausahnen.
Es wird, wenn gewünscht, in der Lage sein, unsere Entscheidungen zu lenken, indem es den Unternehmen, die davon profitieren, Einnahmen in Milliardenhöhe bringt.
Oder sie werden in den Händen uneigennütziger Gruppen den Zugang zu menschlichem Wissen verbessern und vielleicht das neue Wikipedia werden (hoffentlich besser als das vorherige).
Wie denkst du wird es enden?
Lassen Sie sich nicht von Funktionen täuschen, egal wie komplex sie auch sein mögen. Die Ingenieure von Google sind keine Dr. Frankensteins von heute. Sie gebären keine fühlenden Wesen. Sie kreieren gerade die „Neue Coca Cola“, ein super weit verbreitetes, allgegenwärtiges Produkt, das auf einer geheimen und einzigartigen Zutat basiert, von der nur sie die Formel kennen.
Anstatt darüber zu diskutieren, ob ein Chatbot „empfindungsfähig“ ist, sollten wir die langfristigen Folgen eines Systems berücksichtigen, das von der Wissenschaft abweicht. Ein System, das von einem Wissen, das allen zugute kommt, zu einem übergeht, in dem ein „geheimes“ Wissen Macht und Profit an wenige Technologiegiganten überträgt, die nach und nach immer mächtiger werden, auch politisch. Neue Herrscher einer weniger gerechten Welt.