Forscher der Universität von San Francisco haben eine neuronale Schnittstelle entwickelt, über die Patienten ohne Verwendung des Wortes über das Gerät "sprechen" können.
Das ist ein Meilenstein auf dem Gebiet der Nervenprothesen: Das System überwacht die Aktivität des Gehirns und wandelt sie mithilfe einer künstlichen Stimme (sozusagen der Sprachassistenten von Google oder Amazon) in Worte um. Die Software ist sehr fortschrittlich und beinhaltet eine genaue virtuelle Rekonstruktion des Kehlkopfes, der Zunge, der Lippen und des Kiefers.
Warum verlieren wir unser Wort?
Patienten verlieren aus verschiedenen Gründen die Fähigkeit zu sprechen: degenerative Erkrankungen, Unfälle oder Hirnschäden. Die bereits verwendeten Technologien erlauben es einigen, einige Wörter auszusprechen, indem sie kleine Gesichtsbewegungen „übersetzen“ oder andere Mechanismen verwenden, die die Kommunikation in jedem Fall sehr langwierig und mühsam machen.
Die in San Francisco untersuchte neuronale Schnittstelle übersetzt die Gehirnaktivität direkt in natürlich klingende Sprache, indem sie eine Infrastruktur verwendet, die die Art und Weise „nachahmt“, wie Sprachzentren Bewegungen des Stimmtrakts koordinieren.

„Die Beziehung zwischen den Bewegungen des Vokaltrakts und dem Klang von Wörtern ist wirklich komplex“, Würfel Gopala Anumanchipalli, einer der am Projekt beteiligten Forscher. "Wir dachten, wenn diese Sprachzentren die Bewegungen codieren und auf irgendeine Weise übersetzen, können wir diese Operation auch ausgehend von den Signalen des Gehirns durchführen.".
Woraus besteht es?
Dafür hat das Team einen „virtuellen“ Stimmapparat geschaffen, der mithilfe von maschinellem Lernen nach und nach immer korrektere Laute erzeugt. Eine Gruppe von Freiwilligen spricht bestimmte Sätze aus, während ihre Gehirnaktivität überwacht wird: Die eingesetzte künstliche Intelligenz scannt diese Signale und vergleicht sie mit den Bewegungen des Stimmtrakts, um genau zu verstehen, wie sie in diesen bestimmten Klang übersetzt werden.
„Wir haben die Fähigkeit, gesprochene Sprache perfekt nachzuahmen“, Würfel Josh Chartier, ein anderer der Forscher. „Bei den langsameren oder leiseren Lauten wie ‚sh‘ oder ‚z‘ sind wir schon sehr weit fortgeschritten, aber bei den verkürzten wie ‚b‘ und ‚p‘ tun wir uns schwer. Die Genauigkeit steigt jedoch dank des Einsatzes von maschinellem Lernen überraschend schnell.
„Menschen, die ihre Arme und Beine nicht bewegen können, haben gelernt, Roboterprothesen mit ihrem Gehirn zu steuern“, Chartier fährt fort. „Wir sind zuversichtlich, dass Menschen mit Sprachbehinderung eines Tages durch diese Stimmprothese wieder sprechen lernen werden.“
Veröffentlicht in Nature