Wenn du jemanden anlächelst und er nicht reagiert, wirst du das wahrscheinlich abstoßend finden. Nein? Nun, dieser Roboter würde Ihnen mehr Zufriedenheit bereiten als irgendein Nachbar.
Entwickelt von einem Team von Ingenieurforschern an der Columbia University in New York City. das EVA-Projekt es ist tatsächlich einer Stirn Humanoide Robotik. Es wurde entwickelt, um die Dynamik der Mensch-Roboter-Interaktion durch Mimik zu erforschen. Es besteht aus einem 3D-gedruckten, synthetischen Totenkopf für Erwachsene mit einem weichen Gummigesicht auf der Vorderseite.
Motoren innerhalb des Schädels ziehen und lösen selektiv Kabel, die an verschiedenen Stellen der unteren Gesichtshälfte befestigt sind, so wie es uns die Muskeln unter der Haut unserer Gesichter ermöglichen, unterschiedliche Gesichtsausdrücke zu zeigen. EVA seinerseits kann Emotionen wie Wut, Ekel, Angst, Freude, Traurigkeit und Überraschung sowie "einen nuancierteren Satz von Emotionen" ausdrücken.
Ein Roboter, der unsere Mimik nachahmt

Um ihre Fähigkeit zu entwickeln, Gesichtsausdrücke nachzuahmen, begannen die Wissenschaftler, die EVA zu filmen, während sie beiläufig ihr Gesicht bewegte. Als der Computer, der den Roboter steuert, anschließend die Drehstunden analysierte, lernte er über ein integriertes neuronales Netz, welche Kombinationen von „Muskelbewegungen“ zu menschlichen Gesichtsausdrücken passten.
In der zweiten Phase des „Trainings“, in der eine angeschlossene Kamera das Gesicht einer mit dem Roboter interagierenden Person erfasst, a Seconda neuronales Netzwerk, um die Gesichtsausdrücke dieser Person zu identifizieren und sie visuell mit denen abzugleichen, die der Roboter erstellen konnte. Der Roboter nahm dann diese „Gesichter“ an, indem er seine künstlichen Gesichtsmuskeln bewegte.
Ist nützlich?
Obwohl Ingenieure zugeben, dass die einfache Nachahmung menschlicher Gesichtsausdrücke nur begrenzte Anwendungsmöglichkeiten hat, glauben sie, dass dies dennoch nützlich sein könnte. Es ist kein Zufall, dass so viele Workshops sind am Arbeiten zur Reproduktion von Gesichtsausdrücken. Es könnte beispielsweise dazu beitragen, die Art und Weise, wie wir mit assistiven Technologien interagieren, voranzutreiben.
„Der emotionalen Interaktion von uns Menschen mit cloudbasierten Chatbots oder Sprachassistenten sind Grenzen gesetzt“, sagt Projektleiter Prof. Hod Lipson. „Unser Gehirn scheint gut auf Roboter zu reagieren, die eine erkennbare physische Präsenz haben.“
Sagen Sie mir nicht, dass die nächste Generation von Google Nest oder Alexa ein Kopf mit mir reden wird, weil ich mich ausziehe. Ich gehe, nicht wahr?
In diesem Video können Sie sehen, wie EVA Gesichtsausdrücke nachahmt.