Augmented Reality: Google verbessert Android-AR

Augmented Reality: Google verbessert Android-AR

Googles AR-Software ARCore verwendet jetzt zwei Kameras, um Tiefeninformationen auch ohne Lidar-Sensor auslesen zu können. Unterstützt werden vorerst nur Pixel 4 und Pixel 4 XL.

Anzeige
Anzeige

Google integriert seit Mitte 2019 3D-Modelle in die Google-Suche, die mit AR-Technik in Originalgröße in die Umgebung projiziert werden können. Wer etwa nach einem Pinguin sucht, findet direkt unter den Bildern einen 3D-Pinguin, wer nach einem Dinosaurier sucht, findet den entsprechenden 3D-Dino und so weiter.

Googles Augmented-Reality-Suche umfasst mittlerweile zahlreiche Tiere, Planeten, menschliche Anatomie oder Produkte. Sie setzt auf Googles ARCore und Apples ARKit auf den jeweiligen Smartphones.

___STEADY_PAYWALL___

ARCore-3D vorerst nur für Google Pixel

Apple setzt seit dem iPhone 12 Pro auf einen Lidar-Sensor im Smartphone für AR-Anwendungen. Der Tiefensensor ermöglicht besonders glaubhafte AR-Projektionen oder detaillierte Umgebungsscans. Gerüchteweise soll der Lidar-Sensor Standard werden in der iPhone-13-Serie.

Googles ARCore unterstützte bisher lediglich eine Kamera und verzichtete so auf die Stereo-Tiefeninformationen, die ein Großteil aktueller Smartphones dank mehrerer Kameras liefern könnten - oder Apples neues iPhone dank Lidar.

Diesen Umstand ändert Google jetzt: Ein Update für ARCore bringt die Funktion „Dual-Kamera-Stereotiefe“ auf unterstütze Geräte, wie Android Police berichtet.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 3,50 € / Monat
logo

Das Feature soll zuerst auf Pixel 4 und Pixel 4 XL erscheinen. Ein entsprechendes Update für die Geräte soll laut Google in den nächsten Wochen verfügbar sein. Googles jüngstes Flaggschiff Pixel 5 wird nicht erwähnt.

KI plus Kamera vs. Lidar-Sensor

Mit den zusätzlichen 3D-Kamera-Daten könnte die Qualität von Smartphone-AR-Anwendungen deutlich steigen. Auch KI-Fortschritte wie Googles Tensorflow 3D, ein KI-Framework für 3D-Daten, verbessern die 3D-Fähigkeiten von Smartphones. Sie können dann zum Beispiel die Umrisse einzelner Objekte besser vermessen oder sie erkennen.

Ob Google mit Machine Learning und Stereo-Kameras die Ergebnisse der erheblich genaueren Lidar-Technik von Apple reproduzieren kann, ist auch abseits von Smartphone-AR interessant. Besonders prominenter Verfechter des „KI plus Kamera“-Ansatzes ist Tesla-Gründer Elon Musk, der Lidar-Sensoren für autonome Autos als unnötig bezeichnet. Gerüchten zufolge sollen Lidar-Sensoren in Apples autonomen Auto verbaut werden.

Titelbild: Google

Weiterlesen über Augmented Reality: