Forschern der Stanford University ist ein bedeutender Durchbruch bei der Entwicklung von gelungen Gehirn-Computer-Schnittstellen (BCI). Durch die Entwicklung einer Technologie, die gesprochene Sprache mit einer Geschwindigkeit von bis zu 62 Wörtern pro Minute entschlüsseln kann, verbesserte das Team den bisherigen Rekord um fast das 3-fache.
Eine Entwicklung, die diese Systeme den Rhythmen einer natürlichen Konversation und einer praktisch verzögerungsfreien Stimmumwandlung ein Stück näher bringt.
Bewährung, Bewährung, Bewährung
Der Mitbegründer von Neuralink zusammen mit Elon Musk, Max Hodak, nannte die Stanford-Forschung „eine signifikante Veränderung in der Nützlichkeit von Gehirn-Computer-Implantaten“. Aber woraus besteht es genau?
Der Kern aller Arbeit, detailliert in einem Papier, das ich hier verlinke, ist die Möglichkeit, Gehirnsignale mithilfe eines maschinellen Lernalgorithmus in kohärente Sprache zu „übersetzen“. Und tun Sie dies, indem Sie die Gehirnaktivität in einer relativ kleinen Region des Kortex analysieren.
L'obiettivo? Menschen, die aufgrund von Krankheiten wie ALS nicht mehr sprechen können, zu helfen, ihre Stimme wiederzuerlangen. Ein echter Quantensprung: Eine solche Sprachschnittstelle könnte die Entschlüsselung von Gehirnsignalen deutlich beschleunigen.

Die Tests
In einem Experiment zeichnete das Team (aus zwei kleinen Bereichen des Gehirns) die neurale Aktivität eines ALS-Patienten auf, der seinen Mund bewegen kann, aber Schwierigkeiten hat, Wörter zu bilden.
Unter Verwendung eines rekurrenten neuronalen Netzdecoders, der Text vorhersagen kann, wandelten die Forscher diese Hinweise dann in Wörter um. Worte, die in einem Tempo gehen, das noch nie zuvor gesehen wurde.
Die Analyse von Gesichtsbewegungen und der damit verbundenen neuronalen Aktivität hat sich als stark genug herausgestellt, um ein Gehirn-Computer-Schnittstellensystem trotz Lähmung und begrenzter Ausdehnung der Großhirnrinde zu unterstützen.
Die Herausforderungen, denen man sich stellen muss
Derzeit ist das System schnell, aber noch unvollkommen: die Fehlerrate des von den Forschern verwendeten Dekoders für rekurrente neuronale Netze (RNN). es sind immer noch 20%.
Das wissen die Forscher genau: „Unsere Demonstration“, schreiben sie, „ist ein Beweis dafür, dass die Entschlüsselung versuchter Sprachbewegungen aus intrakortikalen Aufzeichnungen ein vielversprechender Ansatz ist, auch wenn es noch kein vollständiges und klinisch brauchbares System ist.“
Um die Fehlerquote zu verbessern und den Algorithmus zu optimieren, zielen die Studien nun darauf ab, weitere Bereiche des Gehirns zu untersuchen.
Stellen Sie sich solche Technologien in Kombination mit künstlicher Intelligenz vor. Algorithmen, die in der Lage sind, eine Stimme perfekt zu klonen, wie z die kürzlich von Microsoft vorgestellte was nur 3 Sekunden Audio dauert.
In Zukunft wird niemand mehr schweigen.