Der Artikel kann nur mit aktiviertem JavaScript dargestellt werden. Bitte aktiviere JavaScript in deinem Browser und lade die Seite neu.
Apple will Lidar-Technik zum neuen Smartphone-AR-Standard machen. Snap, TikTok und Entwickler zeigen, wie die neue Messtechnik 3D-Scanning und AR-Effekte aufwertet.
Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen. Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.
Bei der 3D-Vermessung per Lidar misst das Smartphone, wie lange Lichtsignale zu einem Objekt im Raum wandern und wieder zurück. Anhand der Zeit kann der Abstand des Objekts berechnet und so wiederum dessen Kontur ermittelt werden. Entlang dieser Konturen können dann digitale Objekte glaubhafter in der Realität platziert oder Umgebungen schöner in 3D rekonstruiert werden.
In die iPhone 12 Pros und wohl in die gesamte 13er Serie baut Apple ein besonders präzises Lidar-Verfahren ein: Vergleichbare Android-Sensoren (ToF – Time of Flight) senden nur einzelne Lichtimpulse in die Umgebung, beispielsweise bei einem Foto, während der Apple-Scanner kontinuierlich ein Lichtgitter in die Umgebung projiziert und die Distanzen zu Objekten misst.
___STEADY_PAYWALL___
Das erhöht Abdeckung, Stabilität, Reichweite, bei Apple sind es derzeit mindestens fünf Meter, und Präzision des 3D-Scannings. Einfach gesagt: Der Lidar-Scanner im iPhone Pro 12 ist deutlich besser als bisherige Android-ToF-Scanner. Neue Android-Smartphones sollen 2021 ebenfalls mit besserer Lidar-Technik auf den Markt kommen.
Laut Alban Denoyel, CEO der 3D-Plattform Sketchfab, kann es Lidar-Scanning sogar mit Photogrammetrie aufnehmen. Bei der Photogrammetrie wird anhand zahlreicher Fotos aus unterschiedlichen Perspektiven die Raumtiefe nachträglich rekonstruiert, beim Lidar-Scanning wird sie nativ abgetastet.
Der Lidar-Scan in Denoyels Beispiel hat zwar deutlich weniger Details im Vergleich zur photogrammetrischen Umgebung. Dafür ist der zeitliche und organisatorische Aufwand für den Lidar-Scan im Vergleich zur Photogrammetrie-Szene wesentlich geringer.
Während 3D-Scanning auf absehbare Zeit ein Nischennutzungsszenario bleiben dürfte, werden bessere AR-Filter mit Lidar-Technik von vielen Menschen wahrgenommen werden.
Für Snapchat-AR-Filterentwickler demonstrierte Snap kürzlich einen Lidar-basierten Umgebungsfilter, den Apple bei der Enthüllung des iPhone 12 Pro verwendete, um die neue Technik vorzustellen. Die höhere Präzision und Geschwindigkeit im Vergleich zu rein kamerabasierten Filtern ist gut zu erkennen.
Auch Snap-Konkurrent TikTok zeigt einen ersten Lidar-Effekt: Passend zu Silvester steht der Nutzer in einem Konfettiregen. Die Lidar-Besonderheit: Die digitalen Konfettis fallen physikalisch korrekt auf die Arme des Nutzers und auf die umherstehenden Möbel sowie den Boden und häufen sich dort an.
Nimmt der Nutzer die Arme runter, fallen die restlichen Konfettis auf den Boden. Das gelingt, weil der Lidar-Scanner Person und Umgebung besser als 3D-Modell rekonstruieren kann.
To ring in 2021 we released our first AR effect on the new iPhone 12 Pro, using LiDAR technology which allows us to create effects that interact with your environment – visually bridging the digital and physical worlds. We’re excited to develop more innovative effects in 2021! pic.twitter.com/6yFD2FfHta
Ein App-Entwickler zeigte kürzlich, was Apples Lidar-Scanner für realistische, interaktive Wassereffekte leisten kann. Diese höhere Präzision und Interaktivität dürften zukünftig zum Standard werden bei Lidar-AR mit dem Smartphone.
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.