Augmented Reality: So sieht das iPhone die Umgebung
Ein Video zeigt, wie das iPhone samt ARKit die Umgebung in Echtzeit wahrnimmt. Trotz des fehlenden Tiefenscanners arbeitet das System schnell und präzise.
Die Computer Vision bringt Computern das Sehen bei. Das ist grundlegend für viele neue Mensch-Umwelt-Maschine-Interaktionen, so wie bei Augmented Reality. Erstmals können mit hochwertigen Kameras ausgestattete Geräte wie Smartphones eine Wahrnehmung für ihre Umwelt entwickeln, die über eine reine Standortbestimmung hinausgeht.
Im Jahr 2015 übernahm Apple die Münchner AR-Spezialisten Metaio insbesondere deshalb, um mit deren fortschrittlichen Algorithmen ihre eigenen Computer-Vision-Verfahren zu optimieren. Im folgenden Video sieht man, wie präzise Apples ARKit die Umwelt mit nur einer Kamera abtasten kann.
___STEADY_PAYWALL___Here’s the detected anchor planes and SLAM point cloud that ARKit gives you access to. It’s really rough on the battery 🙁 pic.twitter.com/Bc5rL8Kyyc
— damidamidamidamidami (@damian0815) 6. Juni 2017
Vergleicht man das mit Googles im Mai angekündigtem "Visual Positioning Service" (VPS) - eine Art Computer-Vision-GPS für die Navigation in Gebäuden - wirkt Apples Umgebungsscanning trotz fehlendem 3D-Sensor ähnlich performant.
- MIXED.de ohne Werbebanner
- Zugriff auf mehr als 9.000 Artikel
- Kündigung jederzeit online möglich
Natürlich ist so ein Videovergleich wenig aussagekräftig. Entwickler können detailliertere Erkenntnisse liefern, wenn sie beispielsweise das kommende Asus Zenfone AR 2 mit verbesserter Tango-Technologie direkt mit Apples ARKit vergleichen.
Ein möglicher Nachteil des Apple-Verfahrens ist, dass die aufwendigen Berechnungen stark am Akku saugen. Zumindest vermelden das zwei Entwickler bei Twitter. Bis zur finalen Veröffentlichung von iOS 11 und dem ARKit ist das allerdings nur eine temporäre Feststellung.
Hat Hololens die Nase vorne?
Im Videovergleich wirkt Microsofts Hololens-Scanning fortschrittlicher. Das Gerät hat zwei 3D-Kameras verbaut, basierend auf Intels Realsense-Technologie, die die Umgebung in Echtzeit vermessen und ein digitales Raster darüberlegen. In Relation zu diesem Raster können Entwickler digitale Elemente in der Realität platzieren.
Sowohl Hololens als auch Tango können eine Umgebung auswendig lernen und abspeichern, sodass sich die Geräte nach der ersten Orientierung am gleichen Ort schneller und präziser zurechtfinden. Außerdem können auf diese Art ganze Räume als 3D-Modell erfasst und dauerhaft abgespeichert werden.
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.