Wenn wir in der Menge sind und versuchen, mit jemandem zu sprechen, tut unser Gehirn alles Mögliche (und es ist nicht einmal schlecht), um dem Tonfall unseres Gesprächspartners zu folgen: Es ist nicht einfach, manchmal muss man ein wenig schreien, aber am Ende oft gelingt es.
Die Geschichte ändert sich für Millionen von Menschen mit Problemen, die sie dazu zwingen Prothesen verwenden auditiv: So fortschrittlich diese Geräte auch sein mögen Sie haben die Fähigkeit sich auf einen bestimmten Klang zu konzentrieren und ja kann kommen überwältigt von dem Lärm, der für die Betroffenen eine Unterhaltung an überfüllten Orten nahezu unmöglich macht durch Hörverlust.
Um sich dem Problem zu stellen Ein Forscherteam der Columbia University hat ein neues Gerät entwickelt, das nur die Stimme identifiziert, auswählt und isoliert, die Sie hören möchten. Die Studie ist begann bei eins Erste Einschätzung: Die Gehirnwellen des Zuhörers neigen dazu, sich mit denen des Sprechers zu „synchronisieren“.
Aus diesem Grund haben Forscher ein KI-Modell entwickelt, das in der Lage ist, viele in einer Umgebung vorhandene Stimmen zu kodieren, zu trennen und das Muster zu vergleichen Vokal erhalten mit den Gehirnströmen des Zuhörers verbinden und verstärken genau das, was passt mehr.
"Das Ergebnis ist ein Algorithmus, mit dem Stimmen getrennt werden können, ohne dass Schulungen erforderlich sind." erklärt der Arzt Nima Mesgarani, Autor der von der Zeitschrift Science Advances veröffentlichten Studie.
Wenn Sie sich nicht sicher sind, sehen Sie sich die Demonstration dieser Technologie an: Die Fähigkeit, Stimmen zu isolieren, ist beeindruckend.
Hier ist eine kleine Animation der Columbia University, die zeigt, wie es funktioniert.
Hier ist die Studie: Sprecherunabhängige akustische Aufmerksamkeitsdecodierung ohne Zugriff auf saubere Sprachquellen.