Sie dreht den Kopf. Langsam, als wolle sie herausfinden, wo sie ist. Ihre Augenlider schließen sich, öffnen sich wieder. Ein Blinzeln. Dann noch eins. Ihre Augen (eigentlich Kameras) folgen etwas außerhalb des Bildes. Ihr Gesichtsausdruck ist fast fragend, so als wolle sie fragen: „Was sehe ich da?“ Sie wirkt lebendig. Ist sie aber nicht. Es ist Herkunft M1, die neueste Kreation von AheadForm, ein chinesisches Startup, das sich zum Ziel gesetzt hat, humanoide Roboter weniger starr und menschlicher zu machen. Das auf YouTube veröffentlichte Video des Robotergesichts verbreitete sich innerhalb weniger Stunden wie ein Lauffeuer. Die Leute schauen es sich immer wieder an. Manche finden es faszinierend. Andere verstörend. In einem Punkt sind sich fast alle einig: Ab heute wir sind ein Stück näher dran Westworld.
25 Motoren für ein überzeugendes Gesicht
Um es gleich vorweg zu sagen: Origin M1 ist kein Spielzeug. Es ist ein System, das für die Forschung im Bereich der Mensch-Roboter-Interaktion entwickelt wurde und potenzielle Anwendungen im Kundenservice, im Bildungswesen und im Gesundheitswesen bietet. Der integrierte Kopf 25 bürstenlose Motoren, winzige Geräte, die lautlos arbeiten und die subtilen Bewegungen erzeugen, die das Robotergesicht glaubwürdig machen: der wechselnde Blick, die flatternden Augenlider, dieses kleine Kopfnicken, das fast nachdenklich wirkt.
Sie sind in die Schüler integriert RGB-Kameras die es dem Roboter ermöglichen, die Umgebung zu „sehen“. Mikrofone und Lautsprecher ermöglichen eine Sprachinteraktion in Echtzeit. Das Ziel von AheadForm, gegründet 2024 in Hangzhou, hat ein klares Ziel: Roboter zu entwickeln, die Emotionen ausdrücken, ihre Umgebung wahrnehmen und auf natürliche Weise mit Menschen interagieren können. Ein bisschen wie ein höflicher, aber stiller Kollege: Sie beobachten, hören zu und reagieren.
Zurück: Emo und die Wissenschaft der robotergestützten Gesichtsausdrücke
Der Gründer AheadForm, Yuhang Hu, hat bereits für Gesprächsstoff gesorgt. Im Jahr 2024 veröffentlichte er eine Studie über Wissenschaft Robotics welches beschreibt emo, ein Gesichtsroboter, der bei Columbia UniversityEmo kann ein menschliches Lächeln vorhersagen 839 Millisekunden bevor es passiert, analysiert die subtilen Veränderungen im Gesicht der Person vor ihm. Dann lächelt er gleichzeitig zurück. Es ist keine verzögerte Mimesis. Es ist Koexpression.
Untersuchungen zeigen, dass Roboter, die menschliche Emotionen antizipieren können, flüssigere und authentischere Interaktionen ermöglichen. Das Gefühl, verstanden zu werden, selbst von einer Maschine, die Qualität des Erlebnisses verbessern. Bis Sie sich fragen: Muss er mich wirklich anlächeln?
Das Tal ist nicht mehr so tief
AheadForm hat mehrere Roboterlinien entwickelt. Es gibt die Serie Elf, mit spitzen Ohren und präzisen Kontrollsystemen. Es gibt die Lan-Serie, menschlicher und sparsamer gestaltet. Und es gibt Xuan, ein Ganzkörpermodell mit interaktivem Kopf und erweiterten Ausdrucksmöglichkeiten.
Das Unternehmen strebt die Integration an Systeme der künstlichen Intelligenz wie große Sprachmodelle direkt in Roboterköpfe. Das Ergebnis wäre ein Roboter, der nicht nur versteht, was Sie sagen, sondern auch, wie Sie es sagen. Und entsprechend reagiert: mit dem richtigen Ton, dem passenden Ausdruck, dem richtigen Timing.
Der Origin M1 ist noch nicht im Handel erhältlich. Aber das Video kursiert, die Reaktionen mehren sich, und die Frage bleibt unbeantwortet: Wenn ein Roboter Ihnen in die Augen schaut und blinzelt, wie verändert das Ihre Wahrnehmung? Vielleicht nichts. Oder vielleicht alles. Es hängt davon ab, wie bereit wir sind zu akzeptieren, dass eine Maschine „präsent“ erscheinen kann.
Mittlerweile AheadForm Er verfeinert das System ständig. Und wir schauen uns weiterhin diese Videos an und versuchen herauszufinden, ob wir Neugier oder Unbehagen verspüren. Wahrscheinlich beides.