iPhone 12 Pro: Wie Apple AR alltäglich machen will

iPhone 12 Pro: Wie Apple AR alltäglich machen will

Seit 2017 arbeitet Apple an Smartphone-AR. Doch kaum jemand nutzt Augmented Reality abseits von Gesichtsfiltern und Pokémon Go. In einem Interview spricht Apples AR-Manager Mike Rockwell über den Lidar-Sensor im iPhone 12 Pro und Apples AR-Strategie.

Anzeige
Anzeige

Der Lidar-Sensor macht das iPhone zu einem 3D-Scanner, der Objekte und Umgebungen erstaunlich schnell und genau einfängt. Trotz dieses neuen und interessanten Anwendungsszenarios gibt es keine offizielle Apple-Anwendung fürs 3D-Scanning. Das Unternehmen überlässt das Feld Entwicklern, die bereitwillig entsprechende Apps programmieren, mit teils beeindruckenden Ergebnissen.

Augmented Reality soll im Alltag helfen

Ein Beispiel dafür sind App Clips: Das sind Mikro-Apps, die ohne vorherige Installation starten, indem man etwa QR-Codes scannt. Sie könnten kontextsensitive AR-Elemente wie virtuelle Menükarten oder erläuternde Animationen in Museen einblenden.

Eine andere Art von Instant-AR wäre in der Navigation und Apples Location Anchors zu finden, einer Technologie, die ortsgebundene AR-Erfahrungen ermöglichT. Hierfür müsste man lediglich die iPhone-Kamera auf die Umgebung richten, um in der physischen Welt verankerte AR-Elemente zu triggern.

Apples Quicklook-Funktion ist eine weitere Strategie, AR zugänglich zu machen. Mit Quick Look können AR-Grafiken direkt aus dem Safari-Browser heraus abgerufen und im Raum platziert werden. Das Feature kann zu Bildungszwecken eingesetzt werden oder im E-Commerce, um Produkte in 3D zu veranschaulichen, indem man sie ins eigene Zimmer holt.

Ein weiter Weg für Smartphone-AR

Mit dem 3D-Scanning des Lidar-Sensor könnten Nutzer statt Fotos machen Objekte im Originalmaßstab einfangen und verschicken oder 3D-Modelle daraus erstellen, um sie für kreative Zwecke einzusetzen. Eine entsprechende Schnittstelle fehlt allerdings noch.

Eine weitere, allgemeine Funktion von Smartphone-AR ist visuelle Assistenz: Der Lidar-Scanner bietet schon jetzt die Funktion eines Blindenstocks, der Sehbehinderte auf Menschen in unmittelbarer Nähe aufmerksam macht. Doch das ist erst der Anfang: Dank maschinellen Sehens könnte die Smartphone-Kamera  helfen, Objekte in der Welt zu erkennen, einzuordnen, zu übersetzen und zu erklären. Google macht es mit Google Lens vor.

All diese Beispiele klingen sinnvoll, sind aber noch weit entfernt, von einer Mehrzeit iPhone-Nutzer im Alltag eingesetzt zu werden. Es bleibt fraglich, ob sie in Form von Smartphone-AR den Mehrwert und die Bedeutung erhalten, die Apple ihnen zumisst oder ob dies erst eine AR-Brille leisten kann.

Mike Rockwell zeigt sich zuversichtlich, vielleicht weil er Apples AR-Fahrplan kennt. "In ein paar Jahren wird AR eines jener Dinge sein, von denen man nicht mehr weiß, wie es war, ohne sie zu leben, so wie das Internet."

Quelle: CNET, Titelbild: Apple

Weiterlesen über Apple AR: