Googles AR-Software ARCore verwendet jetzt zwei Kameras, um Tiefeninformationen auch ohne Lidar-Sensor auslesen zu können. Unterstützt werden vorerst nur Pixel 4 und Pixel 4 XL.

Google integriert seit Mitte 2019 3D-Modelle in die Google-Suche, die mit AR-Technik in Originalgröße in die Umgebung projiziert werden können. Wer etwa nach einem Pinguin sucht, findet direkt unter den Bildern einen 3D-Pinguin, wer nach einem Dinosaurier sucht, findet den entsprechenden 3D-Dino und so weiter.

Googles Augmented-Reality-Suche umfasst mittlerweile zahlreiche Tiere, Planeten, menschliche Anatomie oder Produkte. Sie setzt auf Googles ARCore und Apples ARKit auf den jeweiligen Smartphones.

ARCore-3D vorerst nur für Google Pixel

Apple setzt seit dem iPhone 12 Pro auf einen Lidar-Sensor im Smartphone für AR-Anwendungen. Der Tiefensensor ermöglicht besonders glaubhafte AR-Projektionen oder detaillierte Umgebungsscans. Gerüchteweise soll der Lidar-Sensor Standard werden in der iPhone-13-Serie.

Googles ARCore unterstützte bisher lediglich eine Kamera und verzichtete so auf die Stereo-Tiefeninformationen, die ein Großteil aktueller Smartphones dank mehrerer Kameras liefern könnten – oder Apples neues iPhone dank Lidar.

Diesen Umstand …

MIXED.de Podcast: VR, AR und KI - jede Woche neu

Jetzt reinhören: Alle Folgen


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.