Bald schauen wir vielleicht auf unser Handy oder hören Musik, indem wir einfach unsere Lippen bewegen, ohne ein Wort zu sagen. Eine Gruppe von Forschern der Cornell University Er entwickelte Sonarbrille, die Gesichtsbewegungen verfolgen und als Befehle interpretieren kann.
So funktionieren Sonarbrillen
Ruidong Zhang, ein Doktorand an der Cornell University, ist der Kopf hinter diesem innovativen Projekt. Sonarbrillen verwenden Mikrofone und winzige Lautsprecher, um die Wörter zu erkennen, die wir lautlos „sprechen“, und um Befehle an unser Gerät zu übertragen. Das System baut auf einer weiteren Erfindung des Teams, einem drahtlosen Headset, und früheren Modellen auf, die Kameras verwendeten.

Dank dieser neuen Form ist es nicht mehr notwendig, ein Headset zu tragen oder von einer Kamera eingerahmt zu werden. Chen Zhang, Assistenzprofessor für Informationswissenschaften an der Cornell University, erklärt, dass das System einige Minuten an Trainingsdaten benötigt, um die Sprachmuster des Benutzers zu lernen, z. B. das Lesen einer Reihe von Zahlen. Sobald das Sonargerät bereit ist, sendet und empfängt es Schallwellen zum Gesicht des Benutzers, erkennt Lippenbewegungen und analysiert Echoprofile in Echtzeit durch einen Deep-Learning-Algorithmus. mit 95% Genauigkeit.
Praktische Anwendungen im Namen der Privatsphäre
Das System verarbeitet die Daten drahtlos auf Ihrem Smartphone, wodurch das Zubehör klein und unauffällig bleibt. Die aktuelle Version bietet etwa 10 Stunden Akkulaufzeit für die akustische Erkennung, und da keine Daten das Telefon verlassen, gibt es keine Datenschutzbedenken.
Der Datenschutz ist auch ein wichtiger Faktor, wenn man die möglichen Einsatzmöglichkeiten dieser Technologie im wirklichen Leben betrachtet. Zhang schlägt vor, dass die Sonarbrille verwendet werden könnte, um die Musikwiedergabe (freihändig und ohne hinzusehen) in einer leisen Bibliothek zu steuern oder während eines lauten Konzerts eine Nachricht zu diktieren, wo die Standardoptionen nicht funktionieren würden.
Eine der aufregendsten Perspektiven ist die Nutzung dieser Technologie durch Menschen mit einigen Sprachbehinderungen, die die Brille verwenden könnten, um einem Sprachsynthesizer lautlos Text zu "diktieren", der die Wörter dann laut aussprechen würde. „Wir glauben, dass Brillen zu einer wichtigen Personal-Computing-Plattform werden, um menschliche Aktivitäten in alltäglichen Situationen zu verstehen“, sagt Cheng Zhang.
Ein wirklich bemerkenswerter Sprung nach vorne in der tragbaren Technologie.