Wenn wir in der Menge sind und versuchen, mit jemandem zu sprechen, tut unser Gehirn alles Mögliche (und es ist nicht einmal schlecht), um dem Tonfall unseres Gesprächspartners zu folgen: Es ist nicht einfach, manchmal muss man ein wenig schreien, aber am Ende oft gelingt es.
Die Sprache ändert sich für Millionen von Menschen mit Problemen, die sie zur Verwendung von Hörgeräten zwingen: So fortschrittlich diese Geräte auch sein mögen, sie können sich nicht auf einen bestimmten Klang konzentrieren, und Sie können von Geräuschen überwältigt werden, die zu Gesprächen führen überfüllte Orte für Menschen mit Hörverlust.
Um sich dem Problem zu stellen Ein Forscherteam der Columbia University hat ein neues Gerät entwickelt, das nur die Stimme identifiziert, auswählt und isoliert, die Sie hören möchten. Die Studie ging von einer ersten Bewertung aus: Die Gehirnwellen des Hörers "synchronisieren" sich tendenziell mit denen des Sprechers.
Aus diesem Grund haben Forscher ein KI-Modell entwickelt, das in der Lage ist, viele in einer Umgebung vorhandene Stimmen zu codieren und zu trennen, das resultierende Stimmmuster mit den Gehirnwellen des Hörers zu vergleichen und nur diejenige zu verstärken, die am besten passt.
"Das Ergebnis ist ein Algorithmus, mit dem Stimmen getrennt werden können, ohne dass Schulungen erforderlich sind." erklärt der Arzt Nima Mesgarani, Autor der von der Zeitschrift Science Advances veröffentlichten Studie.
Wenn Sie sich nicht sicher sind, sehen Sie sich die Demonstration dieser Technologie an: Die Fähigkeit, Stimmen zu isolieren, ist beeindruckend.
Hier ist eine kleine Animation der Columbia University, die zeigt, wie es funktioniert.
Hier ist die Studie: Sprecherunabhängige akustische Aufmerksamkeitsdecodierung ohne Zugriff auf saubere Sprachquellen.