KI mit AR: Facebook arbeitet an Super-Hörgerät

KI mit AR: Facebook arbeitet an Super-Hörgerät

Ingenieure der Facebook Reality Labs legen ein Konzept für AR- und KI-basierte Hörgeräte vor, das unmittelbar der eigenen Forschung zu VR, AR und KI entspringt. Zukunftsmusik oder ein entscheidender Schritt zur Verbesserung von Hörschäden?

Augmented Reality erweitert die Umwelt um digitale Reize. Sie kommt beispielsweise in Datenbrillen zum Einsatz, die eines Tages als alltägliche Helfer das Smartphone ersetzen oder als Bildschirm auf der Nase ergänzen könnten.

In Industrie und Entwicklung legen AR-Brillen wie die Microsoft Hololens 2 (Test) den Fokus auf Produktivität. Sie helfen bei der Visualisierung von 3D-Objekten oder zeigen dem Träger Arbeitsschritte während einer Produktfertigung an.

___STEADY_PAYWALL___

Neben der visuellen lässt sich noch eine weitere Ebene der Realität mit digitalen Superkräften ergänzen: das Gehör. In einer neuen Veröffentlichung beschreiben Forscher der Facebook Reality Labs, wie Augmented Reality (News) zukünftig helfen könnte, Menschen besser hören zu lassen.

Das Cocktail-Party-Problem

Augmented Reality könne laut Konzept Menschen mit beeinträchtigtem Hörvermögen unterstützen, sich in akustisch komplexen Szenarien besser zurechtzufinden.

Als Beispiel führen die Forscher das „Cocktail-Party-Problem“ an, also ein Gespräch in einer lauten Umgebung mit verschiedenen, unterschiedlich verorteten Schallquellen. Das menschliche Gehör ist in der Lage, sich auf eine bestimmte Quelle wie die Stimme des Gesprächspartners zu konzentrieren und Umgebungsgeräusche weitestgehend auszublenden.

Für schwerhörige Menschen ist es jedoch sehr anstrengend, sich auf ein bestimmtes akustisches Signal zu konzentrieren, was zu einer starken kognitiven Belastung und raschen geistigen Ermüdung führen kann.

Aktuelle Hörgeräte seien den Forschern nach zwar in der Lage, Lautstärke individuell anzupassen. Es fehle allerdings die Möglichkeit, relevante Geräusche selektiv zu isolieren und zu verstärken.

Super-Hörgeräte verstehen, was wir hören möchten

Die Forscher sehen die Lösung in einer Kombination aus Beamforming, Deep Learning und Active Noise Cancellation. Diese Aufgaben könne ein einzelnes komplexes Gerät oder mehrere gekoppelte Geräte gemeinsam übernehmen. Eine naheliegende Auswahl wären eine Datenbrille, ein Smartphone und ein Hörgerät.

Der Funktionsablauf könnte folgendermaßen aussehen: Die Datenbrille fängt über ein integriertes Mikrofon-Array Signale ein und schickt sie über das gekoppelte Smartphone in eine Cloud.

Dort werden die Daten analysiert, Hintergrundgeräusche reduziert und relevante Signale identifiziert und isoliert. Das Hörgerät regelt dann nur noch die Lautstärke des aufbereiteten Signals.

AR-Hörgeräte: Ausgebremst vom Stand der Technik

Eye-Tracking in der Datenbrille würde helfen, den Standort der akustischen Quelle, die gehört werden soll, zu lokalisieren. Ein Anblinzeln des Gesprächspartners oder Antippen des Brillenrahmens, während man Augenkontakt herstellt, könnten dem System als Bestätigung dienen. Der Nutzer würde also immer hören, was er sieht.

Forscher von Google zeigten bereits 2018, dass ein entsprechend trainiertes neuronales Netz hilft, den Cocktail-Party-Effekt zu mindern, indem es die Stimmen von Personen im Blickfeld betont und das Stimmgewirr im Hintergrund ausblendet.

Bevor die Umsetzung eines solchen Systems möglich wird, bedarf es dem Forschungsbericht zufolge einer Reifung der Technologien. Das größte Problem liegt wohl in der Datenübertragung. Um flüssige Gespräche zu ermöglichen, brauchen die nötigen Sprachverarbeitungsalgorithmen stabile Cloud-Verbindungen mit Latenzzeiten von weniger als einer Millisekunde. Da kommt selbst 5G an seine Grenzen.

Titelbild & Quelle: Facebook Reality Labs

Weiterlesen über Augmented Reality: