iPhone 12 Pro: Wie Apple AR alltäglich machen will

iPhone 12 Pro: Wie Apple AR alltäglich machen will

Seit 2017 arbeitet Apple an Smartphone-AR. Doch kaum jemand nutzt Augmented Reality abseits von Gesichtsfiltern und Pokémon Go. In einem Interview spricht Apples AR-Manager Mike Rockwell über den Lidar-Sensor im iPhone 12 Pro und Apples AR-Strategie.

Der Lidar-Sensor macht das iPhone zu einem 3D-Scanner, der Objekte und Umgebungen erstaunlich schnell und genau einfängt. Trotz dieses neuen und interessanten Anwendungsszenarios gibt es keine offizielle Apple-Anwendung fürs 3D-Scanning. Das Unternehmen überlässt das Feld Entwicklern, die bereitwillig entsprechende Apps programmieren, mit teils beeindruckenden Ergebnissen.

Dass Apple Entwickler machen lässt, statt mit leuchtendem Beispiel und einer klaren Vision voranzugehen, ist symptomatisch für Apple AR-Strategie und zeigt, dass der Konzern selbst nicht recht weiß, wozu die neue Technologie zu gebrauchen ist.

Bei der Präsentation des iPhone 12 ging Apple nur am Rande auf den Lidar-Sensor und Augmented Reality ein: Der 3D-Scanner ermögliche in manchen Szenarien bessere Fotos sowie eine durchweg schnellere und lebensechtere Augmented Reality. Schenkt man einem Interview mit Apples AR-Chef Mike Rockwell Glauben, ist es genau das, was der Konzern derzeit anstrebt: eine möglichst barrierefreie „Instant-AR„.

Die AR-Puzzlesteine finden

Der Lidar-Sensor hilft bei dieser Aufgabe. Musste man früher mit der Smartphone-Kamera sekundenlang Oberflächen abfahren, bis AR-Objekte perspektivisch korrekt eingeblendet werden konnten, funktioniert das mit dem 3D-Scanner direkt. Doch das ist nur eines von vielen Puzzlesteinen für unkomplizierte AR-Nutzung.

„Wir wussten, dass wir all diese Probleme lösen mussten, damit Augmented Reality eine Mainstream-Erfahrung wird. Ich denke, wir stehen kurz davor, dass AR etwas wird, dass man täglich nutzt“, meint Apples AR-Chef Mike Rockwell im Gespräch mit CNET. „Bei diesen noch am Anfang stehenden Dingen handelt es sich um eine delikate Angelegenheit. Man muss alle Bestandteile beisammen haben, alle Zutaten, um sie zum Erfolg zu führen.“

Derzeit ginge es darum, Smartphone-AR zugänglicher zu machen. Danach könnten sich AR-Anwendungen ergeben, die das Leben der Menschen erleichtern.

Die Zukunft von iPhone-AR seien nicht Apps, sondern Smartphone-Funktionen. „Etwas, das du drei, vier, fünf, sechs Mal am Tag für verschiedene Dinge nutzt und das eine leichte Nutzererfahrung bietet“, meint Rockwell. „Die Killer-App wird sein, dass man AR regelmäßig auf verschiedene Weisen einsetzt, die einem helfen, Dinge schneller und leichter zu verrichten.“

Augmented Reality soll im Alltag helfen

Ein Beispiel dafür sind App Clips: Das sind Mikro-Apps, die ohne vorherige Installation starten, indem man etwa QR-Codes scannt. Sie könnten kontextsensitive AR-Elemente wie virtuelle Menükarten oder erläuternde Animationen in Museen einblenden.

Eine andere Art von Instant-AR wäre in der Navigation und Apples Location Anchors zu finden, einer Technologie, die ortsgebundene AR-Erfahrungen ermöglichT. Hierfür müsste man lediglich die iPhone-Kamera auf die Umgebung richten, um in der physischen Welt verankerte AR-Elemente zu triggern.

Apples Quicklook-Funktion ist eine weitere Strategie, AR zugänglich zu machen. Mit Quick Look können AR-Grafiken direkt aus dem Safari-Browser heraus abgerufen und im Raum platziert werden. Das Feature kann zu Bildungszwecken eingesetzt werden oder im E-Commerce, um Produkte in 3D zu veranschaulichen, indem man sie ins eigene Zimmer holt.

Ein weiter Weg für Smartphone-AR

Mit dem 3D-Scanning des Lidar-Sensor könnten Nutzer statt Fotos machen Objekte im Originalmaßstab einfangen und verschicken oder 3D-Modelle daraus erstellen, um sie für kreative Zwecke einzusetzen. Eine entsprechende Schnittstelle fehlt allerdings noch.

Eine weitere, allgemeine Funktion von Smartphone-AR ist visuelle Assistenz: Der Lidar-Scanner bietet schon jetzt die Funktion eines Blindenstocks, der Sehbehinderte auf Menschen in unmittelbarer Nähe aufmerksam macht. Doch das ist erst der Anfang: Dank maschinellen Sehens könnte die Smartphone-Kamera  helfen, Objekte in der Welt zu erkennen, einzuordnen, zu übersetzen und zu erklären. Google macht es mit Google Lens vor.

All diese Beispiele klingen sinnvoll, sind aber noch weit entfernt, von einer Mehrzeit iPhone-Nutzer im Alltag eingesetzt zu werden. Es bleibt fraglich, ob sie in Form von Smartphone-AR den Mehrwert und die Bedeutung erhalten, die Apple ihnen zumisst oder ob dies erst eine AR-Brille leisten kann.

Mike Rockwell zeigt sich zuversichtlich, vielleicht weil er Apples AR-Fahrplan kennt. „In ein paar Jahren wird AR eines jener Dinge sein, von denen man nicht mehr weiß, wie es war, ohne sie zu leben, so wie das Internet.“

Quelle: CNET, Titelbild: Apple

Weiterlesen über Apple AR: