Was wäre, wenn es ein digitales „kleines Ich“ gäbe, das bereit wäre, auf Reize wie Sie zu reagieren oder genau die gleichen Entscheidungen zu treffen wie Sie? Eine neue Studie zeigt, dass es möglich ist, eine virtuelle Nachbildung Ihrer Persönlichkeit zu erstellen nach nur 2 Stunden Interview mit einem Modell der künstlichen Intelligenz. Die Zukunft der sozialen und psychologischen Forschung war noch nie so aufregend und voller Potenzial. Ich sage Ihnen wie, oder mein virtuelles Abbild verrät es Ihnen: Wer weiß?
Eine zu 85 % nachgebildete Persönlichkeit
Stellen Sie sich vor, Sie setzen sich hin und unterhalten sich mit jemandemkünstliche Intelligenz für ein paar Stunden. Eine freundliche und neugierige Stimme führt Sie durch ein Gespräch, das Ihre Kindheit, die Erinnerungen, die Sie geprägt haben, Ihre Karriere, bis hin zu Ihrer Meinung zum Leben oder zu politischen Themen (z. B. zur Einwanderung) berührt. Kurz darauf einer von Ihnen virtuelle Replik Es ist bereit, in der Lage, Werte und Vorlieben mit überraschender Treue zu verkörpern oder auf jeden Fall den von Ihnen gegebenen Antworten zu entsprechen.
Nach Untersuchungen eines Teams von Stanford e Google DeepMind, Veröffentlicht auf arXiv (wartet auf Rezension, Ich verlinke es dir hier) ist dieses Szenario bereits Realität. Angeführt von Joon Sung Park, Doktorand in Informatik an der Stanford, die Forscher Sie interviewten 1.000 Menschen unterschiedlichen Alters, Geschlechts, ethnischer Zugehörigkeit, Bildung und politischer Orientierung. Ausgehend von diesen Gesprächen erstellten sie für jede Person einen „Simulationsagenten“, eine Art digitalen Avatar.
Um zu testen, wie gut diese Agenten Menschen imitierten, nahmen die Teilnehmer zweimal im Abstand von zwei Wochen an Persönlichkeitstests, Umfragen und Logikspielen teil. Anschließend wurden den virtuellen Agenten die gleichen Aufgaben zugewiesen. Das Ergebnis? Menschen und ihre Nachbildung haben eine Ähnlichkeit von 85 %.
Auf dem Weg zu einer Zukunft des digitalen „Mini-Me“.
„Wenn man eine Gruppe von kleinen „Ichs“ haben kann, die herumlaufen und die Entscheidungen treffen, die man selbst getroffen hätte, dann ist das meiner Meinung nach die Zukunft“, sagt Joon. Das Ziel dieser „Simulationsagenten“, wie sie in der Studie genannt werden, besteht darin, ansonsten unmögliche oder unethische soziale, psychologische und wirtschaftliche Forschung mit menschlichen Probanden zu ermöglichen. Wenn Sie Modelle erstellen können, die sich wie echte Menschen verhalten, können Sie sie testen, um Phänomene wie die Verbreitung von Fehlinformationen oder die Verkehrsdynamik zu untersuchen.
Diese Agenten unterscheiden sich von den „toolbasierten“ Agenten, an denen große Technologieunternehmen arbeiten, und sind für die Ausführung von Aufgaben konzipiert nicht zum Gespräch. Doch die Erforschung des einen wird wahrscheinlich auch das andere stärken, stellt er fest John Horton, Professor an MIT und Experte für KI-simulierte Teilnehmer.
Potenziale und Risiken der digitalen Replikation
Die Studie eröffnet faszinierende Perspektiven, wirft aber auch Fragen auf. Wenn schon ich Deepfake Wie einfach wird es sein, Avatare zu erstellen, die Dinge sagen oder autorisieren, die Sie nie beabsichtigt haben? Erfassen die Methoden zur Bewertung der Wiedergabetreue, wie etwa Umfragen und Persönlichkeitstests, wirklich die Einzigartigkeit jedes Einzelnen?
Der Weg, eine Person wirklich gut nachzubilden, gibt Joon zu: reicht von der Destillation unserer Individualität in eine verständliche Sprache bis hin zur KI. Qualitative Interviews haben sich als das effektivste Instrument erwiesen: In wenigen Stunden können einzigartige und aussagekräftige Details ans Licht kommen, die mit Standardumfragen nur schwer zu erfassen wären.
Natürlich gibt es Alternativen: Unternehmen mögen Peacocks Sie „klonen“ Benutzer, indem sie große Mengen an E-Mails und Daten aufnehmen. Die neue Studie schlägt jedoch einen effizienteren Weg vor. „Vielleicht reden Sie heute eine Stunde und morgen eine Stunde mit einer KI. Und nutzen Sie dieses Material, um Ihren digitalen Zwilling zu erstellen“, vermutet der CEO Hassaan Raza.
Einzigartigkeit im Zeitalter digitaler Avatare
Hier höre ich auf und vermeide die übliche Rhetorik darüber, dass wir einzigartig und nicht reproduzierbar sind und dass keine KI jemals wirklich empfindungsfähig oder einfühlsam sein wird. Der Punkt ist ein anderer: wie der Philosoph sagte Berkeley1, „Sein ist Wahrgenommenwerden“. Entscheidend ist nicht, ob die KI tatsächlich denkt oder eine Persönlichkeit hat, sondern dass jemand sie mit uns verwechselt.
In einer Zeit, in der immer ausgefeiltere Avatare die virtuelle Welt – und vielleicht auch die reale – bevölkern werden, wird die Herausforderung nicht darin bestehen, zu beweisen, dass wir einzigartiger oder authentischer sind. Es wird vielleicht unsere unzähligen Nuancen sinnvoll in diese digitalen Alter Egos integrieren. Nur so, durch die Interaktion mit ihnen, können andere das Beste aus uns herausholen. Keine leichte Aufgabe, die Ausgewogenheit und Klarheit erfordert. Aber ist es nicht letztlich auch das, wonach wir in unseren „analogen“ Beziehungen suchen?
- Wenn Sie mehr über George Berkeley auf einer schönen Website im Stil der frühen 2000er Jahre erfahren möchten, finden Sie hier eine nützliche Quelle: https://www.filosofico.net/berkeley.htm ↩︎