Forscher der Universität von San Francisco haben eine neuronale Schnittstelle entwickelt, über die Patienten ohne Verwendung des Wortes über das Gerät "sprechen" können.
Dies ist ein Meilenstein auf dem Gebiet der Neuroprothetik: Das System überwacht die Aktivität des Gehirn und wandelt es um in Worten mithilfe einer künstlichen Stimme (wie beispielsweise die der Sprachassistenten von Google oder Amazon). Die Software ist sehr fortschrittlich und liefert eine genaue virtuelle Rekonstruktion von Kehlkopf, Zunge, Lippen und Kiefer.
Warum verlieren wir unser Wort?
Patienten verlieren die Fähigkeit dazu viel reden Gründe: degenerative Erkrankungen, Unfälle oder Hirnschäden. Die bereits verwendeten Technologien ermöglichen es einigen, einige Wörter durch „Übersetzen“ auszusprechen. kleine Bewegungen im Gesicht oder unter Verwendung anderer Mechanismen, die die Kommunikation ohnehin sehr langwierig und mühsam machen.
Die neuronale Schnittstelle wurde in San Francisco untersucht übersetzt direkt Gehirnaktivität in natürlich klingende Sprache umwandeln, indem eine Infrastruktur verwendet wird, die die Art und Weise „nachahmt“, wie Sprachzentren Bewegungen des Stimmtrakts koordinieren.

"Die Beziehung zwischen den Bewegungen des Vokaltrakts und den Klängen von Wörtern ist wirklich komplex." Würfel Gopala Anumanchipalli, einer der am Projekt beteiligten Forscher. "Wir dachten, wenn diese Sprachzentren die Bewegungen codieren und auf irgendeine Weise übersetzen, können wir diese Operation auch ausgehend von den Signalen des Gehirns durchführen.".
Woraus besteht es?
Aus diesem Grund hat das Team einen „virtuellen“ Vokaltrakt erstellt, der mithilfe von maschinellem Lernen schrittweise immer korrektere Klänge erzeugt. Eine Gruppe von Freiwilligen spricht bestimmte Phrasen während Ihre Gehirnaktivität wird überwacht: Die eingesetzte künstliche Intelligenz scannt diese Signale und vergleicht sie mit Bewegungen des Stimmapparates zu verstehen genau, wie sie sich in diesen spezifischen Klang übersetzen.
"Wir haben die Fähigkeit, die gesprochene Sprache perfekt nachzuahmen" Würfel Josh Chartier, ein anderer der Forscher. „Bei den langsameren oder leiseren Lauten wie ‚sh‘ oder ‚z‘ sind wir bereits weit fortgeschritten, bei den verkürzten Lauten wie ‚b‘ und ‚p‘ haben wir jedoch Schwierigkeiten. Der Allerdings steigt die Genauigkeit durch den Einsatz von erstaunlich schnell an maschinelles Lernen".
"Menschen, die ihre Arme und Beine nicht bewegen können, haben gelernt, Roboterprothesen mit ihrem Gehirn zu steuern." Chartier fährt fort. "Wir sind zuversichtlich, dass Menschen mit Sprachbehinderungen eines Tages wieder lernen werden, durch diese Stimmprothese zu sprechen."
Veröffentlicht in Nature