iPhone 12 Pro: Wie Apple AR alltäglich machen will

Seit 2017 arbeitet Apple an Smartphone-AR. Doch kaum jemand nutzt Augmented Reality abseits von Gesichtsfiltern und Pokémon Go. In einem Interview spricht Apples AR-Manager Mike Rockwell über den Lidar-Sensor im iPhone 12 Pro und Apples AR-Strategie.
Der Lidar-Sensor macht das iPhone zu einem 3D-Scanner, der Objekte und Umgebungen erstaunlich schnell und genau einfängt. Trotz dieses neuen und interessanten Anwendungsszenarios gibt es keine offizielle Apple-Anwendung fürs 3D-Scanning. Das Unternehmen überlässt das Feld Entwicklern, die bereitwillig entsprechende Apps programmieren, mit teils beeindruckenden Ergebnissen.
Recording memories will never be the same.
Die AR-Puzzlesteine finden
Augmented Reality soll im Alltag helfen
Ein Beispiel dafür sind App Clips: Das sind Mikro-Apps, die ohne vorherige Installation starten, indem man etwa QR-Codes scannt. Sie könnten kontextsensitive AR-Elemente wie virtuelle Menükarten oder erläuternde Animationen in Museen einblenden.
Eine andere Art von Instant-AR wäre in der Navigation und Apples Location Anchors zu finden, einer Technologie, die ortsgebundene AR-Erfahrungen ermöglichT. Hierfür müsste man lediglich die iPhone-Kamera auf die Umgebung richten, um in der physischen Welt verankerte AR-Elemente zu triggern.
Apples Quicklook-Funktion ist eine weitere Strategie, AR zugänglich zu machen. Mit Quick Look können AR-Grafiken direkt aus dem Safari-Browser heraus abgerufen und im Raum platziert werden. Das Feature kann zu Bildungszwecken eingesetzt werden oder im E-Commerce, um Produkte in 3D zu veranschaulichen, indem man sie ins eigene Zimmer holt.
Ein weiter Weg für Smartphone-AR
Mit dem 3D-Scanning des Lidar-Sensor könnten Nutzer statt Fotos machen Objekte im Originalmaßstab einfangen und verschicken oder 3D-Modelle daraus erstellen, um sie für kreative Zwecke einzusetzen. Eine entsprechende Schnittstelle fehlt allerdings noch.
Eine weitere, allgemeine Funktion von Smartphone-AR ist visuelle Assistenz: Der Lidar-Scanner bietet schon jetzt die Funktion eines Blindenstocks, der Sehbehinderte auf Menschen in unmittelbarer Nähe aufmerksam macht. Doch das ist erst der Anfang: Dank maschinellen Sehens könnte die Smartphone-Kamera helfen, Objekte in der Welt zu erkennen, einzuordnen, zu übersetzen und zu erklären. Google macht es mit Google Lens vor.
Here’s how people detection works in iOS 14.2 beta - the voiceover support is a tiny bit buggy but still super cool https://t.co/vCyX2wYfx3 pic.twitter.com/e8V4zMeC5C
— Matthew Panzarino (@panzer) October 31, 2020
All diese Beispiele klingen sinnvoll, sind aber noch weit entfernt, von einer Mehrzeit iPhone-Nutzer im Alltag eingesetzt zu werden. Es bleibt fraglich, ob sie in Form von Smartphone-AR den Mehrwert und die Bedeutung erhalten, die Apple ihnen zumisst oder ob dies erst eine AR-Brille leisten kann.
Mike Rockwell zeigt sich zuversichtlich, vielleicht weil er Apples AR-Fahrplan kennt. "In ein paar Jahren wird AR eines jener Dinge sein, von denen man nicht mehr weiß, wie es war, ohne sie zu leben, so wie das Internet."
Quelle: CNET, Titelbild: Apple
Weiterlesen über Apple AR:
- Apple-Chef Tim Cook spricht über “das nächste große Ding”
- Apple-Brille für AR und VR: Zweiter Bericht bestätigt Gerüchte
- 3D-Scans mit dem iPad Pro: ARKit 3.5 bringt neue Funktionen
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.