Augmented Reality: So sieht das iPhone die Umgebung

Augmented Reality: So sieht das iPhone die Umgebung

Ein Video zeigt, wie das iPhone samt ARKit die Umgebung in Echtzeit wahrnimmt. Trotz des fehlenden Tiefenscanners arbeitet das System schnell und präzise.

Anzeige
Anzeige

Die Computer Vision bringt Computern das Sehen bei. Das ist grundlegend für viele neue Mensch-Umwelt-Maschine-Interaktionen, so wie bei Augmented Reality. Erstmals können mit hochwertigen Kameras ausgestattete Geräte wie Smartphones eine Wahrnehmung für ihre Umwelt entwickeln, die über eine reine Standortbestimmung hinausgeht.

Im Jahr 2015 übernahm Apple die Münchner AR-Spezialisten Metaio insbesondere deshalb, um mit deren fortschrittlichen Algorithmen ihre eigenen Computer-Vision-Verfahren zu optimieren. Im folgenden Video sieht man, wie präzise Apples ARKit die Umwelt mit nur einer Kamera abtasten kann.

___STEADY_PAYWALL___

Vergleicht man das mit Googles im Mai angekündigtem "Visual Positioning Service" (VPS) - eine Art Computer-Vision-GPS für die Navigation in Gebäuden - wirkt Apples Umgebungsscanning trotz fehlendem 3D-Sensor ähnlich performant.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 3,50 € / Monat
logo

Natürlich ist so ein Videovergleich wenig aussagekräftig. Entwickler können detailliertere Erkenntnisse liefern, wenn sie beispielsweise das kommende Asus Zenfone AR 2 mit verbesserter Tango-Technologie direkt mit Apples ARKit vergleichen.

Ein möglicher Nachteil des Apple-Verfahrens ist, dass die aufwendigen Berechnungen stark am Akku saugen. Zumindest vermelden das zwei Entwickler bei Twitter. Bis zur finalen Veröffentlichung von iOS 11 und dem ARKit ist das allerdings nur eine temporäre Feststellung.

Die Entwicklung des selbstfahrenden Autos könnte den Fortschritt der Virtual- und Augmented-Reality-Branche beschleunigen.

Warum das selbstfahrende Auto ein wichtiger Pfeiler der Mixed Reality ist

Hat Hololens die Nase vorne?

Im Videovergleich wirkt Microsofts Hololens-Scanning fortschrittlicher. Das Gerät hat zwei 3D-Kameras verbaut, basierend auf Intels Realsense-Technologie, die die Umgebung in Echtzeit vermessen und ein digitales Raster darüberlegen. In Relation zu diesem Raster können Entwickler digitale Elemente in der Realität platzieren.

Sowohl Hololens als auch Tango können eine Umgebung auswendig lernen und abspeichern, sodass sich die Geräte nach der ersten Orientierung am gleichen Ort schneller und präziser zurechtfinden. Außerdem können auf diese Art ganze Räume als 3D-Modell erfasst und dauerhaft abgespeichert werden.

Oculus' nächster Schritt für Virtual Reality: Die Welt in 3D einscannen

Oculus' nächster Schritt für Virtual Reality: Die Welt in 3D einscannen