ARKit 4 schafft die Grundlage für geteilte Augmented Reality, bietet bessere Tiefenerkennung und Gesichtstracking.

Auf die große Bühne schaffte es Augmented Reality bei Apples Entwicklerkonferenz WWDC20 nicht. Erst im Nachgang der Keynote mit zahlreichen Neuankündigungen wie dem 3D-Sound-Upgrade für die Airpods Pro stellte Apple die neueste Version der AR-Entwicklerschnittstelle ARKit 4 vor.

Die bietet “Location Anchors”, mit denen Entwickler AR-Darstellungen über Apple Maps einem realen Ort fix zuordnen können. An diesem Ort angekommen, zückt man das iPhone, richtet es auf die entsprechende Stelle und sieht die Computergrafik. Mehrere Personen können so gemeinsam das gleiche AR-Objekt durch unterschiedliche Displays betrachten.

Location Anchors sind vorerst nur in San Francisco, Los Angeles, New York, Chicago und Miami verfügbar, da laut Apple nur hier das notwendige Bildmaterial zur Verfügung steht, anhand dessen die Software die Umgebung erkennt.

Die Verortung digitaler Objekte in der Realität ist eine wichtige Grundlage für zukünftige Augmented Reality mit einer AR-Cloud wie man sie aus Science-Fiction-Visionen kennt. Google stellte die funktionsgleichen Cloud Anchors für Android Mitte 2018 vor. Microsoft bietet mit den Azure Spatial Anchors eine ähnliche Funktion.

Bessere Tiefenerkennung mit dem LiDAR-Scanner

Erstmals mit ARKit 3.5 führte Apple die durch LiDAR-Technologie verbesserte Szenen- und Tiefenerkennung mit dem iPad Pro ein.

Der Scanner ermöglicht unter anderem eine genauere geometrische Erfassung der Umgebung sowie eine unmittelbare Einbettung von AR-Objekten in die reale Umgebung. Bei rein kamerabasierter AR muss der Nutzer erst eine freie Fläche finden und abscannen.

Mit ARKit 4 liefert Apple jetzt in der Beta-Version die Depth API aus. Die Schnittstelle soll Entwicklern besseren Zugriff auf die Tiefeninformationen des Scanners bieten. Insbesondere die Verdeckung realer durch digitale Objekte soll präziser sein.

Neben dem iPad Pro sollen auch die kommenden Pro-Versionen des iPhones einen LiDAR-Scanner bieten. Gerüchteweise hat Apples AR-Brillenprototyp ebenfalls einen LiDAR-Scanner verbaut. Die Technologie könnte ein wichtiger Baustein für Apples AR-Zukunft werden, da sie die Umgebung in 3D abscannt, ohne dabei die Privatsphäre zu verletzen wie eine herkömmliche Kamera.

Mehr-Gesichter-Tracking und Video-Einbettung

ARKit 4 verbessert außerdem das Gesichtstracking für Apple-Geräte mit mindestens einem A12 Chip inklusive des iPhone X, iPhone XS, iPhone XS Max, iPhone XR, iPad Pro und iPhone SE: Hier können ab sofort mit der Kamera an der Vorderseite drei Gesichter gleichzeitig erfasst werden.

Ebenfalls neu sind Video Textures: Entwickler können ihren AR-Szenen Videos hinzufügen, um beispielsweise Inhalt auf einem digitalen TV zu zeigen.

Mehr Informationen zu ARKit 4 stehen hier.

Weiterlesen über Apple XR:

steady2

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: So steht es um VR-Gaming | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.