Marianne Reddan hat in den letzten 10 Jahren menschliche Gesichter untersucht, um Spuren von zwei unterschiedlichen, aber sehr engen Emotionen zu finden. Überraschung und Angst. Und nach so langer Zeit hat er kaum gelernt, sie auseinander zu halten.
Aus diesem Grund hat Reddan, der an der Stanford University promoviert hat, verstanden, dass sich etwas ändern wird. Er verstand dies, als er erfuhr, dass EmoNet, ein auf maschinellem Lernen basierendes System, lernte, die beiden Emotionen zu unterscheiden.
Das System mit dem Namen "EmoNet" betrachtet nicht nur Mimik, um Emotionen zu verstehen. Schauen Sie sich auch den allgemeinen Kontext an, um das allgemeine Gefühl zu bestimmen, wie es eine Person aus Fleisch und Blut tun würde.
Um diese Forschung durchzuführen (veröffentlicht in der Zeitschrift Science Advances) und dieses „trainierte“ neuronale Netz mit großen Datenmengen haben Forscher der University of Colorado Boulder und der Duke University ein Jahr lang entwickelt.
Von Objekten zu Emotionen
Reddan und Kollegen nutzten AlexNet. Es ist ein Modell von tiefe Lernen (erstellt mit der Dynamik des visuellen Kortex), der den Computer darin trainiert, Objekte zu erkennen. Sie haben es neu programmiert, um Emotionen anstelle von Objekten zu überprüfen.
Philip Kragel, ein Forscher am Institut für Kognitionswissenschaften der Universität von Colorado, versorgte das neuronale Netzwerk mit 25000 Bildern und veranlasste es, sie in 20 Kategorien von Emotionen zu unterteilen.
Die große Liste umfasste Emotionen wie Angst oder Langeweile sowie andere weniger verbreitete emotionale Erfahrungen wie „ästhetische Selbstgefälligkeit“ oder „empathischer Schmerz“.
In der zweiten Phase wurden kategorisierte Emotionen mit menschlichen verglichen. 8 Freiwillige, die als funktionelle Magnetresonanztomographie verbunden waren, beobachteten 112 Bilder. Ihre Gehirnaktivität wurde parallel vom neuronalen Netzwerk gemessen, um sie mit den Bildern (und Emotionen) zu verknüpfen, die sich bereits in seinem Besitz befinden.
Der Aufbau eines neuronalen Netzwerks, das das menschliche Gehirn reproduziert, ist eine wissenschaftliche Herausforderung, die seit Jahren besteht. Doch selbst die fortschrittlichsten Maschinen sind den menschlichen Erfahrungen voraus. "Emotionen sind ein großer Teil unseres täglichen Lebens" Würfel Kragel. „Wenn die neuronalen Netze sie nicht richtig entschlüsseln, werden sie immer nur ein begrenztes Wissen darüber haben, wie das Gehirn funktioniert.“
Kragel war überrascht, wie gut EmoNet funktioniert, aber das bedeutet nicht, dass das System bereits perfekt ist. Die zwei am genauesten abgebildeten Kategorien sind „sexuelles Verlangen“ und „Gier/Verlangen“, aber manchmal funktioniert es nicht gut mit dynamisch ausgedrückten Emotionen. Überraschung zum Beispiel, die sich je nach Situation schnell in Freude oder Wut verwandeln kann. EmoNet hat aufgrund ihrer engen Zusammenhänge auch große Schwierigkeiten, Unterschiede und Nuancen zwischen Emotionen wie Anbetung, Spaß und Freude zu finden.
Gibt es irgendwelche Risiken?
Hannah Davis, Professor für generative Musik an der New York University, glaubt, dass es nicht gefährlich ist, einem Computer Emotionen beizubringen. "Es wäre gefährlich", sagt er, "wenn wir anfingen, Emotionen mit dem gleichen Schematismus und der gleichen Nuancenarmut zu unterscheiden."
Wie kann man ihr die Schuld geben? Eine Emotion aus einem Foto zu codieren bedeutet nicht, sie zu verstehen oder Empathie zu empfinden. Und schon heute haben wir bei sozialen Netzwerken den Eindruck, dass die Menschen ihre Emotionen auf die Anzahl der Emoticons beschränkt haben, die sie finden können.
„Kann das Model Emotionen empfinden? Definitiv nein. Es wird nur in einigen Kategorien gelesen, sicherlich nicht in der Komplexität der menschlichen Erfahrung. Könnte er in der Zukunft Gefühle empfinden? Dies kann nicht ausgeschlossen werden. Vielleicht."