Marianne Reddan hat in den letzten 10 Jahren menschliche Gesichter untersucht, um Spuren von zwei unterschiedlichen, aber sehr engen Emotionen zu finden. Überraschung und Angst. Und nach so langer Zeit hat er kaum gelernt, sie auseinander zu halten.
Aus diesem Grund hat Reddan, der an der Stanford University promoviert hat, verstanden, dass sich etwas ändern wird. Er verstand dies, als er erfuhr, dass EmoNet, ein auf maschinellem Lernen basierendes System, lernte, die beiden Emotionen zu unterscheiden.
Das System mit dem Namen "EmoNet" betrachtet nicht nur Mimik, um Emotionen zu verstehen. Schauen Sie sich auch den allgemeinen Kontext an, um das allgemeine Gefühl zu bestimmen, wie es eine Person aus Fleisch und Blut tun würde.
Um diese Forschung durchzuführen (veröffentlicht in der Zeitschrift Science Advances) und dieses "trainierte" neuronale Netzwerk mit großen Datenmengen brauchten Forscher der University of Colorado Boulder und der Duke University ein Jahr, um sich zu entwickeln.
Von Objekten zu Emotionen
Reddan und Kollegen nutzten AlexNet. Es ist ein Modell von tiefe Lernen (erstellt mit der Dynamik des visuellen Kortex), der den Computer darin trainiert, Objekte zu erkennen. Sie haben es neu programmiert, um Emotionen anstelle von Objekten zu überprüfen.
Philip Kragel, ein Forscher am Institut für Kognitionswissenschaften der Universität von Colorado, versorgte das neuronale Netzwerk mit 25000 Bildern und veranlasste es, sie in 20 Kategorien von Emotionen zu unterteilen.
Die große Liste umfasste Emotionen wie Angst oder Langeweile sowie andere weniger verbreitete emotionale Erfahrungen wie "ästhetische Selbstzufriedenheit" oder "empathischer Schmerz".
In der zweiten Phase wurden kategorisierte Emotionen mit menschlichen verglichen. 8 Freiwillige, die als funktionelle Magnetresonanztomographie verbunden waren, beobachteten 112 Bilder. Ihre Gehirnaktivität wurde parallel vom neuronalen Netzwerk gemessen, um sie mit den Bildern (und Emotionen) zu verknüpfen, die sich bereits in seinem Besitz befinden.
Der Aufbau eines neuronalen Netzwerks, das das menschliche Gehirn reproduziert, ist eine wissenschaftliche Herausforderung, die seit Jahren besteht. Doch selbst die fortschrittlichsten Maschinen sind den menschlichen Erfahrungen voraus. "Emotionen sind ein großer Teil unseres täglichen Lebens." Würfel Kragel. "Wenn die neuronalen Netze sie nicht richtig entschlüsseln, haben sie immer nur begrenzte Kenntnisse darüber, wie das Gehirn funktioniert."
Kragel war überrascht, wie gut EmoNet funktioniert, aber das bedeutet nicht, dass das System bereits perfekt ist. Die zwei am genauesten abgebildeten Kategorien sind "sexuelles Verlangen" und "Gier / Verlangen", aber manchmal funktioniert es nicht gut mit dynamisch ausgedrückten Emotionen. Die Überraschung zum Beispiel, die sich je nach Situation schnell zu Freude oder Wut entwickeln kann. EmoNet hat auch große Schwierigkeiten, Unterschiede und Nuancen zwischen Emotionen wie Anbetung, Spaß und Freude zu finden, aufgrund ihrer engen Korrelationen.
Gibt es irgendwelche Risiken?
Hannah Davis, Professor für generative Musik an der New York University, glaubt, dass es nicht gefährlich ist, einem Computer Emotionen beizubringen. "Es wäre gefährlich", sagt er, "wenn wir anfangen würden, Emotionen mit demselben Schema und derselben Nuancenknappheit zu unterscheiden."
Wie kann ich ihr die Schuld geben? Das Codieren einer Emotion aus einem Foto bedeutet nicht, sie zu verstehen oder Empathie zu empfinden. Und schon heute können wir mit sozialen Netzwerken die Wahrnehmung haben, dass Menschen ihre Emotionen auf die Anzahl der Emoticons beschränkt haben, die sie finden können.
„Kann das Modell Emotionen spüren? Auf jeden Fall nein. Es wird nur in einigen Kategorien gelesen, sicherlich nicht in der Komplexität der menschlichen Erfahrung. Konnte er in Zukunft Gefühle spüren? Das kann ich nicht ausschließen. Vielleicht."