Augmented Reality: Google verbessert Android-AR

Augmented Reality: Google verbessert Android-AR

Googles AR-Software ARCore verwendet jetzt zwei Kameras, um Tiefeninformationen auch ohne Lidar-Sensor auslesen zu können. Unterstützt werden vorerst nur Pixel 4 und Pixel 4 XL.

Anzeige
Anzeige

Google integriert seit Mitte 2019 3D-Modelle in die Google-Suche, die mit AR-Technik in Originalgröße in die Umgebung projiziert werden können. Wer etwa nach einem Pinguin sucht, findet direkt unter den Bildern einen 3D-Pinguin, wer nach einem Dinosaurier sucht, findet den entsprechenden 3D-Dino und so weiter.

Googles Augmented-Reality-Suche umfasst mittlerweile zahlreiche Tiere, Planeten, menschliche Anatomie oder Produkte. Sie setzt auf Googles ARCore und Apples ARKit auf den jeweiligen Smartphones.

KI plus Kamera vs. Lidar-Sensor

Mit den zusätzlichen 3D-Kamera-Daten könnte die Qualität von Smartphone-AR-Anwendungen deutlich steigen. Auch KI-Fortschritte wie Googles Tensorflow 3D, ein KI-Framework für 3D-Daten, verbessern die 3D-Fähigkeiten von Smartphones. Sie können dann zum Beispiel die Umrisse einzelner Objekte besser vermessen oder sie erkennen.

Ob Google mit Machine Learning und Stereo-Kameras die Ergebnisse der erheblich genaueren Lidar-Technik von Apple reproduzieren kann, ist auch abseits von Smartphone-AR interessant. Besonders prominenter Verfechter des „KI plus Kamera“-Ansatzes ist Tesla-Gründer Elon Musk, der Lidar-Sensoren für autonome Autos als unnötig bezeichnet. Gerüchten zufolge sollen Lidar-Sensoren in Apples autonomen Auto verbaut werden.

Titelbild: Google

Weiterlesen über Augmented Reality: