Meta Quest: Entwicklerkit verbessert räumliche Audio-Features

Meta Quest: Entwicklerkit verbessert räumliche Audio-Features

Die neuen Audio-Tools von Meta versprechen einen natürlicheren und besser lokalisierbaren Klang in VR, AR und MR, vom entfernten Schrei bis zum Flüstern neben dem Ohr.

Anzeige
Anzeige

Am 7. Februar hat Meta die eigene "Presence Platform" um immersive Audiofunktionen erweitert. Das neue "XR Audio SDK" soll es Entwickler:innen leicht machen, räumliche, besser ortbare Klänge einzubauen. Vorerst ist es nur für die in VR weit verbreitete Unity Engine verfügbar. Unterstützung für die Unreal Engine, Wwise und FMOD ist geplant.

Die Presence Platform ist eine Sammlung von Entwicklungswerkzeugen und Programmierschnittstellen, die mit Quest 2 und Quest Pro beispielsweise Hand- und Sprachinteraktionen sowie Augmented-Reality-Funktionen ermöglichen.

___STEADY_PAYWALL___

Zu den jüngsten Neuerungen im Juni 2022 gehören die AR-Schnittstellen "Scene Understanding" und "Spatial Anchors". Letztere verankern digitale Objekte dauerhaft im physischen Raum. Die Plattform wurde erstmals im Herbst 2021 vorgestellt.

3D-Klang für Quest 2 und weitere VR-Brillen

Anwendungsgebiete für die neuen immersiven Klangfunktionen sind Virtual Reality, Augmented Reality und Mixed Reality. Für letztere reichern die VR-Brillen Quest 2 und Quest Pro von Meta das Videobild ihrer Frontkameras mit Computergrafik an. Das neue Audio-SDK unterstützt neben Meta-Geräten "nahezu jedes eigenständige mobile VR-Gerät" sowie PC-VR (z.B. Steam VR) und Geräte anderer Hersteller.

Zu den Neuerungen gehört eine bessere Berücksichtigung der Filterwirkung von Kopf, Außenohr und Rumpf, die den Klang in der realen Welt stark beeinflussen: Die so genannte "Head-Related Transfer Function" (HRTF) soll die authentische Wahrnehmung präzise imitieren. Ohne dieses System klingen vor allem Geräusche im Nahbereich unnatürlich.

Die Raumakustik-Simulation profitiert von frühen Schallreflexionen und Nachhall, die von Raumgröße, -form und Materialoberflächen abhängen. Wenn man also ein AR-Spiel in einem leeren Büro startet, können die Geräusche der virtuellen Gegner genauso von den Wänden widerhallen wie die eigene Stimme. Diese Homogenität des Klangs soll das Präsenzgefühl verstärken.

Die Möglichkeiten des "Spatial Audio Rendering" sowie der Raumakustik-Funktionalität bauen auf dem bisherigen "Oculus Spatializer" auf und sollen in Zukunft kontinuierlich erweitert werden. Das System sei deutlich besser für den VR-Einsatz geeignet als eingebaute Audiosysteme in populären Spiele-Engines, die primär auf Konsolen und den PC ausgerichtet sind, so Meta im offiziellen Entwickler-Blog.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 3,50 € / Monat
logo

Akustische Immersion auch für Audio-Laien

Das neue Audio-SDK hingegen biete sowohl Flexibilität als auch einfache Handhabung. Sogar Entwickler:innen mit keinerlei Audioerfahrung ermögliche es eine für die Immersion essenzielle Abmischung.

Als Beispiel präsentierte Meta auf seinem Connect Event im Oktober 2022 bereits den Einsatz in der virtuellen Büro- und Meetinganwendung Horizon Workrooms für Quest 2 und Quest Pro. An deren Konferenztischen kommt es vor allem auf den passenden Klang von Stimmen aus verschiedenen Richtungen an.

Der bisherige "Oculus Spatializer" wird weiterhin in der Unreal Engine, FMOD oder Wwise unterstützt - oder für diejenigen, die eine native API-Lösung wünschen. In diesen Bereichen empfiehlt Meta, noch kein Upgrade durchzuführen.

Für neue Projekte in der Unity Engine empfiehlt Meta, das neue "XR Audio SDK" zu verwenden, um Apps langfristig besser warten zu können oder experimentelle Features auszuprobieren.

Anleitungen und Beispiele finden sich in der offiziellen Dokumentation zum "XR Audio SDK" und im Meta Developer Center.

Quellen: Meta-Quest-Blog