Augmented Reality: Google verbessert Android-AR
Googles AR-Software ARCore verwendet jetzt zwei Kameras, um Tiefeninformationen auch ohne Lidar-Sensor auslesen zu können. Unterstützt werden vorerst nur Pixel 4 und Pixel 4 XL.
Google integriert seit Mitte 2019 3D-Modelle in die Google-Suche, die mit AR-Technik in Originalgröße in die Umgebung projiziert werden können. Wer etwa nach einem Pinguin sucht, findet direkt unter den Bildern einen 3D-Pinguin, wer nach einem Dinosaurier sucht, findet den entsprechenden 3D-Dino und so weiter.
Googles Augmented-Reality-Suche umfasst mittlerweile zahlreiche Tiere, Planeten, menschliche Anatomie oder Produkte. Sie setzt auf Googles ARCore und Apples ARKit auf den jeweiligen Smartphones.
___STEADY_PAYWALL___ARCore-3D vorerst nur für Google Pixel
Apple setzt seit dem iPhone 12 Pro auf einen Lidar-Sensor im Smartphone für AR-Anwendungen. Der Tiefensensor ermöglicht besonders glaubhafte AR-Projektionen oder detaillierte Umgebungsscans. Gerüchteweise soll der Lidar-Sensor Standard werden in der iPhone-13-Serie.
Googles ARCore unterstützte bisher lediglich eine Kamera und verzichtete so auf die Stereo-Tiefeninformationen, die ein Großteil aktueller Smartphones dank mehrerer Kameras liefern könnten - oder Apples neues iPhone dank Lidar.
Diesen Umstand ändert Google jetzt: Ein Update für ARCore bringt die Funktion „Dual-Kamera-Stereotiefe“ auf unterstütze Geräte, wie Android Police berichtet.
- MIXED.de ohne Werbebanner
- Zugriff auf mehr als 9.000 Artikel
- Kündigung jederzeit online möglich
Das Feature soll zuerst auf Pixel 4 und Pixel 4 XL erscheinen. Ein entsprechendes Update für die Geräte soll laut Google in den nächsten Wochen verfügbar sein. Googles jüngstes Flaggschiff Pixel 5 wird nicht erwähnt.
KI plus Kamera vs. Lidar-Sensor
Mit den zusätzlichen 3D-Kamera-Daten könnte die Qualität von Smartphone-AR-Anwendungen deutlich steigen. Auch KI-Fortschritte wie Googles Tensorflow 3D, ein KI-Framework für 3D-Daten, verbessern die 3D-Fähigkeiten von Smartphones. Sie können dann zum Beispiel die Umrisse einzelner Objekte besser vermessen oder sie erkennen.
Ob Google mit Machine Learning und Stereo-Kameras die Ergebnisse der erheblich genaueren Lidar-Technik von Apple reproduzieren kann, ist auch abseits von Smartphone-AR interessant. Besonders prominenter Verfechter des „KI plus Kamera“-Ansatzes ist Tesla-Gründer Elon Musk, der Lidar-Sensoren für autonome Autos als unnötig bezeichnet. Gerüchten zufolge sollen Lidar-Sensoren in Apples autonomen Auto verbaut werden.
Titelbild: Google
Weiterlesen über Augmented Reality:
- Cognixion One: Diese AR-Brille spricht eure Gedanken aus
- Facebook Tech-Brille: Kommt sie mit Gesichtserkennung?
- Scope AR: Browser-basierte AR-Plattform für Unternehmen startet
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.