Apple WWDC Keynote - die wichtigsten AR-Ankündigungen

Apple WWDC Keynote - die wichtigsten AR-Ankündigungen

Apple hat seinen potenziellen Brillen-Prozessor vorgestellt, spricht über Gaming und Raumklang und zeigt, wie wir in Zukunft mit dem Smartphone unsere Umgebung in 3D vermessen können - für bessere AR?

Wie im Vorfeld vermutet, gab es auf Apples WWDC Keynote keine Details zur möglichen Mixed-Reality-Brille. Apples Keynote-Speaker:innen und Chef Tim Cook ließen sich generell nicht dazu hinreißen, über AR und VR zu sprechen. Dennoch gab es einige Ankündigungen, die für Apples zukünftige XR-Strategie relevant sein könnten.

Potenzieller Brillen-Prozessor und Games-Upscaling

Apple enthüllte den M2-Prozessor, der auf hohe Leistung bei möglichst geringem Energieverbrauch optimiert ist. Gerüchteweise soll dieser Prozessor in Apples kommender XR-Brille rechnen, es ist naheliegend. Zunächst kommt der M2 jedoch in Apples neuem MacBook Air und MacBook Pro (13 Zoll) zum Einsatz.

___STEADY_PAYWALL___

Der im 5-Nanometer-Verfahren gefertigte Chip soll laut Apple den M1 um 18 Prozent Leistung pro Watt bei der CPU übertreffen, um 35 Prozent bei der Grafik und um 40 Prozent bei KI-Berechnungen ("Neural Engine"). Er bietet zudem 50 Prozent mehr Speicherbandbreite (100 GB/s) und bis zu 24 GB Unified Memory.

Der Prozessor kann laut Apple gleichzeitige mehrere 4K- und 8K-Videos streamen, was für XR-Video-Übertragungen etwa von Sport-Events interessant sein könnte oder für Office-Arbeit am Mac mit XR-Erweiterungen. Apple soll bereits mit Hollywood-Regisseuren an Video-Content für die Brille arbeiten.

Apple widmete einen Teil der Keynote dem Gaming, traditionell das Hoheitsgebiet von Windows-PCs. Der neue M2-Chip soll aktuelle Games wie Resident Evil 8 hochauflösend und fließend rendern können - auch dank eines neuen Upscaling-Verfahrens für Metal. Dabei setzt Apple auf ein ähnliches Verfahren wie AMD (Spatial Upscaling wie bei Super Resolution) statt auf bislang qualitativ hochwertigeres KI-Upscaling wie Nvidia.

Raumklang und -vermessung

Mit iOS 16 will Apple zudem die Unterstützung von Raumklang verbessern. Dafür können Besitzer:innen aktueller iPhones mit der integrierten TrueDepth-Kamera ihr Ohr scannen.

Auf Basis dieses Ohr-Scans erstellt Apple dann ein invidiuelles Raumklang-Soundprofil für die jeweilige Person. Dieser hochwertige Raumklang könnte zukünftige AR- und VR-Erfahrungen aufwerten.

Die wohl interessantes Ankündigung im AR-Kontext ist "Roomplan". Die Programmierschnittstelle generiert mit Kamera und LiDAR im iPhone und iPad automatisch einen 3D-Plan der Umgebung.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 3,50 € / Monat
logo

Meta bietet bei Quest 2 eine ähnliche Funktion, allerdings nur für den Boden und Wände. Apples Lösung zeichnet jedoch auch charakteristische Gegenstände wie Möbel oder eine Küchenzeile automatisch in die Karte ein. Meta könnte hier mit Cambria nachziehen.

Die 3D-Karte der Umgebung ist eine Grundlage für hochwertige Augmented Reality im eigenen Zuhause. Über diese Karte können Nutzer:innen digitale Objekte wie Bildschirme visuell realistisch, dauerhaft und präzise in der physischen Welt verorten. Entwickler:innen können die 3D-Scans im USD- oder USDZ-Format zudem in anderen Anwendungen weiterverarbeiten.

Weitere AR-Ankündigungen könnten folgen - die WWDC geht noch bis diesen Freitag, den 10. Juni. Am 9. Juni steht insbesondere ein Deep Dive in ARKit 6 auf dem Programm. Apple verspricht 4K-Videoaufnahmen von AR-Erlebnissen, Unterstützung für HDR-Videos und hochauflösende Hintergrundaufnahmen sowie Location Anchors für ARKit 6. Zudem will Apple über Merkmale hochwertiger AR-Apps und über 3D-Scanning sprechen.

Quellen: Roomplan, Apple M2