Das Radar erfasst Reflexionsmuster elektromagnetischer Wellen submillimetergenau, indem es eigene Wellen aussendet und dann misst, wie sie von einem Objekt zurückgeworfen werden. Das soll deutlich präziser funktionieren als zum Beispiel Gestensteuerung per Smartphone-Kamera.
___STEADY_PAYWALL___
Soli kann potenziell noch deutlich mehr: Die Mustererkennung in den Wellen ist so fein, dass sogar einzelne Objekte und deren Beschaffenheit wie Dichte, Form, Oberflächenstruktur und Gewicht identifziert werden können. Ob Soli beim Pixel 4 abseits der Gestensteuerung eine Rolle spielen könnte, ist noch nicht bekannt.
Soli sitzt auf der Vorderseite des Pixel 4. Bild: Google
Der Google Assistant wird schneller
Das Video deutet außerdem eine bessere Sprach-KI für den Google Assistant an, die die Befehlseingabe über mehrere Sätze hinweg flüssig und schnell verarbeitet und dabei parallel auch anspruchsvolle Aufgaben meistern kann wie die Objekterkennung auf Bildern:
Im Beispiel sucht der Nutzer per Spracheingabe nach Aufnahmen aus Tokio, reduziert diese dann auf Bilder mit Essen darauf und versendet sie dann samt Kommentar in einem Messenger. Dass die Bildanalyse mittlerweile recht verlässlich funktioniert, beweist unter anderem Google Lens.
Der neue Assistant läuft lokal auf dem Smartphone und benötigt keine Internetverbindung mehr. Dadurch soll die Reaktionszeit der Sprachsteuerung deutlich schneller sein und laut Google-Chef Sundar Pichai sogar die Touch-Eingabe langsam erscheinen lassen.
Der neue Assistant dürfte über kurz oder lang auch für andere Android-Smartphones zur Verfügung stehen. Wann das Pixel 4 offiziell vorgestellt wird, ist noch nicht bekannt – wahrscheinlich ist es Anfang Oktober soweit.
Have a look on Google Pixel 4 Promo video ……which confirms gesture based navigation with soli sensor.
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.