Die verbesserte Verdeckungstechnik in iOS 14 integriert digitale Objekte per Augmented Reality noch realistischer in die Umgebung.

Das neue iPad Pro bietet erstmals einen Lidar-Scanner, der den Raum präziser in der Tiefe vermessen kann als herkömmliche Kameras. Der neue Sensor soll auch im kommenden iPhone Pro stecken.

In Kombination mit dem Weit- und Ultraweitwinkelsensor im Kamerasystem ermöglicht das visuell deutlich realistischere Augmented Reality durch den sogenannten Verdeckungseffekt: Digitale Objekte erscheinen vor oder hinter realen Objekten und verdecken sie beziehungsweise umgekehrt.

Das folgende Video veranschaulicht den Effekt: Mit früherer AR-Technik hätte die Hand einfach durch das digitale Objekt hindurchgeschimmert.

iOS 14 und Lidar verbessern Verdeckungseffekte enorm

Die Rendertechnik ist komplex, da das reale Objekt in Bewegung erkannt und genau an der Stelle aus…

MIXED.de Podcast: VR, AR und KI - jede Woche neu

Jetzt reinhören: Alle Folgen


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.