Der Artikel kann nur mit aktiviertem JavaScript dargestellt werden. Bitte aktiviere JavaScript in deinem Browser und lade die Seite neu.
Die neuen Audio-Tools von Meta versprechen einen natürlicheren und besser lokalisierbaren Klang in VR, AR und MR, vom entfernten Schrei bis zum Flüstern neben dem Ohr.
Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen. Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.
Am 7. Februar hat Meta die eigene „Presence Platform“ um immersive Audiofunktionen erweitert. Das neue „XR Audio SDK“ soll es Entwickler:innen leicht machen, räumliche, besser ortbare Klänge einzubauen. Vorerst ist es nur für die in VR weit verbreitete Unity Engine verfügbar. Unterstützung für die Unreal Engine, Wwise und FMOD ist geplant.
Die Presence Platform ist eine Sammlung von Entwicklungswerkzeugen und Programmierschnittstellen, die mit Quest 2 und Quest Pro beispielsweise Hand- und Sprachinteraktionen sowie Augmented-Reality-Funktionen ermöglichen.
Anwendungsgebiete für die neuen immersiven Klangfunktionen sind Virtual Reality, Augmented Reality und Mixed Reality. Für letztere reichern die VR-Brillen Quest 2 und Quest Pro von Meta das Videobild ihrer Frontkameras mit Computergrafik an. Das neue Audio-SDK unterstützt neben Meta-Geräten „nahezu jedes eigenständige mobile VR-Gerät“ sowie PC-VR (z.B. Steam VR) und Geräte anderer Hersteller.
Zu den Neuerungen gehört eine bessere Berücksichtigung der Filterwirkung von Kopf, Außenohr und Rumpf, die den Klang in der realen Welt stark beeinflussen: Die so genannte „Head-Related Transfer Function“ (HRTF) soll die authentische Wahrnehmung präzise imitieren. Ohne dieses System klingen vor allem Geräusche im Nahbereich unnatürlich.
Die Raumakustik-Simulation profitiert von frühen Schallreflexionen und Nachhall, die von Raumgröße, -form und Materialoberflächen abhängen. Wenn man also ein AR-Spiel in einem leeren Büro startet, können die Geräusche der virtuellen Gegner genauso von den Wänden widerhallen wie die eigene Stimme. Diese Homogenität des Klangs soll das Präsenzgefühl verstärken.
Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen. Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.
Die Möglichkeiten des „Spatial Audio Rendering“ sowie der Raumakustik-Funktionalität bauen auf dem bisherigen „Oculus Spatializer“ auf und sollen in Zukunft kontinuierlich erweitert werden. Das System sei deutlich besser für den VR-Einsatz geeignet als eingebaute Audiosysteme in populären Spiele-Engines, die primär auf Konsolen und den PC ausgerichtet sind, so Meta im offiziellen Entwickler-Blog.
Das neue Audio-SDK hingegen biete sowohl Flexibilität als auch einfache Handhabung. Sogar Entwickler:innen mit keinerlei Audioerfahrung ermögliche es eine für die Immersion essenzielle Abmischung.
Als Beispiel präsentierte Meta auf seinem Connect Event im Oktober 2022 bereits den Einsatz in der virtuellen Büro- und Meetinganwendung Horizon Workrooms für Quest 2 und Quest Pro. An deren Konferenztischen kommt es vor allem auf den passenden Klang von Stimmen aus verschiedenen Richtungen an.
Der bisherige „Oculus Spatializer“ wird weiterhin in der Unreal Engine, FMOD oder Wwise unterstützt – oder für diejenigen, die eine native API-Lösung wünschen. In diesen Bereichen empfiehlt Meta, noch kein Upgrade durchzuführen.
Für neue Projekte in der Unity Engine empfiehlt Meta, das neue „XR Audio SDK“ zu verwenden, um Apps langfristig besser warten zu können oder experimentelle Features auszuprobieren.
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.