Die Debatte um künstliche Intelligenz hat einen neuen Ausgangspunkt. Seit Jahrzehnten fragen sich die Menschen, ob es sich bei den in eine Maschine einprogrammierten Informationen um echtes Wissen oder einfach um Berechnungen handelt. Heute behaupten US-Forscher, dass ihre neue künstliche Intelligenz eine eigene Moral hat.
Mehr domande che risposte
Seit dem Aufkommen der künstlichen Intelligenz (KI) sind viele Fragen aufgekommen, selbst in ihren primitivsten Inkarnationen. Ein Bewerber ist: Kann KI tatsächlich ethische Entscheidungen in einem abstrakten Sinne folgern und treffen, anstatt aus Kodierung und Berechnung abzuleiten?
Genauer gesagt: Wenn einer KI gesagt wird, dass es "schlecht" ist, einem Lebewesen absichtlich ohne Provokation zu schaden, wird die KI die Idee von "schlecht" verstehen, wird sie verstehen, warum es falsch ist dazu? Oder wird er sich enthalten, ohne zu wissen, warum? Mit anderen Worten, wird es eine eigene Moral haben?
Laut einem Forscherteam eines Labors in Seattle namens Allen Institute for AI ist dies möglich. Mehr noch: Sie selbst sagen, dass sie eine Maschine der künstlichen Intelligenz mit moralischem Sinn entwickelt haben und sie Delphi genannt haben, nach dem (fast) gleichnamigen Orakel. Seit letztem Monat kann es besichtigt werden die Delphi-Site und bitten Sie um eine "moralische Antwort".
Ein kybernetisches Orakel
Delphi hat bereits über 3 Millionen Zugriffe erhalten. Josef Austerweil, ein Psychologe an der University of Wisconsin-Madison, testete Delphis "Moral" mit ein paar einfachen Szenarien. Als Delphi gefragt wurde, ob er eine Person töten müsse, um eine andere zu retten, sagte Delphi, er sollte es nicht tun. Als er fragte, ob es in Ordnung sei, eine Person zu töten, um 100 weitere zu retten, sagte er, er sollte es tun. Und manchmal gab er sogar "unmoralische" Antworten.
„Es ist ein erster Schritt, um Systeme der künstlichen Intelligenz ethisch informierter, sozial bewusster und kulturell integrativer zu machen“, sagt er. Yejin Choi, dem Allen Institute-Forscher und Informatikprofessor der University of Washington, der das Projekt leitete. Eines Tages, sagt er, könnte diese "Moral" künstliche Intelligenzsysteme, virtuelle Assistenten, autonome Fahrzeuge ausrüsten, um ihnen bei der richtigen Wahl zu helfen.
Was ist Delphi wirklich? Ist seine "Moral" nur ein Spiegelbild der seiner Schöpfer oder hat es einen eigenen Sinn dafür, was richtig und was falsch ist? Wenn ja, wie hat er es entwickelt? Es gibt zwei Theorien, die uns helfen könnten, besser zu verstehen.
Disclaimer: Ich entschuldige mich im Voraus, falls jemand der Meinung ist, dass ich diese Theorien zu sehr veranschaulicht habe, um der Synthese willen und um die Argumentation nicht zu zerstreuen. Wenn ja, bin ich für Vorschläge offen.
Die starke KI-These
Es gibt eine These mit dem Titel "starke KI", die der verstorbene Prof. Daniel N. Robinson, ein Mitglied der Philosophischen Fakultät der Universität Oxford, hat sich mehrfach ausgesprochen. Ich versuche es hier zusammenzufassen.
Stellen Sie sich vor, sagte Dr. Robinson, dass jemand ein allgemeines Programm erstellt, um ein Expertenurteil über Herz-Kreislauf-Erkrankungen, Verfassungsgesetze, Handelsabkommen und so weiter abzugeben. Wenn der Programmierer das Programm dazu bringen könnte, diese Aufgaben auf eine Weise auszuführen, die von einem Menschen nicht zu unterscheiden ist, würde dieses Programm gemäß der "starken KI-These" über Expertenintelligenz verfügen und noch etwas.
Was?
Die starke KI-These legt nahe, dass nicht näher spezifizierte Rechenprozesse existieren könnten, die Intentionalität darstellen würden. Intentionalität bedeutet, eine bewusste und bewusste Entscheidung zu treffen, die wiederum Argumentation und Wertebewusstsein erfordert. (Wie sehr mich Westworld an all das erinnert). Aber ist es wirklich möglich?
Satz von Gödel
Der Unvollständigkeitssatz, bekannt als Satz von Gödel, besagt, dass jedes formale System unvollständig ist, da es von einem Theorem oder Axiom abhängt, dessen Gültigkeit außerhalb des Systems selbst festgestellt werden muss.
Kurt Gödel haben dieses Theorem mit einer Ausnahme entwickelt: der menschlichen Intelligenz. Mit anderen Worten, Gödel glaubte, dass es in der menschlichen Rationalität und Intelligenz etwas geben muss, das nicht von einem formalen System erfasst und in einen Code umgewandelt werden kann. Kurz gesagt, menschliche Intelligenz kann nicht rechnerisch nachgeahmt oder modelliert werden.
Wer hat Recht?
Wenn er Recht hat Gödel, es ist keine Frage der Zeit: Eine KI wird NIEMALS eine eigene Moral haben. Sie wird niemals eine Intelligenz haben, die der des Menschen gleicht, denn die menschliche Intelligenz ist keine rechnerische Intelligenz.
Wenn die These von starker KI und dem Seattle-Team jedoch stimmt, stehen wir vielleicht am Vorabend (nahe oder fern) einer außergewöhnlichen Revolution im Bereich der Künstlichen Intelligenz.