Google Soli: Weshalb die Gestensteuerung ihr Potenzial (noch) nicht erfüllt

Google Soli: Weshalb die Gestensteuerung ihr Potenzial (noch) nicht erfüllt

Googles Ingenieure sind stolz auf Soli, aber das Potenzial der Radarsteuerung ist lange nicht ausgeschöpft. Weshalb?

Anzeige
Anzeige

Die Soli-Technologie erfasst Reflexionsmuster elektromagnetischer Wellen und das so genau, dass sie Dichte, Form, Oberflächenstruktur und Gewicht einzelner Objekte identifizieren kann. In Vorführungen von Google steuerten Angestellte Audiosysteme mit komplexen Fingerbewegungen. Die Hand des Nutzers wird zum Eingabegerät.

Google Soli-Radarchip sitzt in der ausladenden Oberseite des Pixel-Smartphones. Bild: Google.

Google Soli-Radarchip sitzt in der ausladenden Oberseite des Pixel-Smartphones. Bild: Google.

Nach fünf Jahren Entwicklungszeit landete der Chip dann 2019 im neuen Google-Smartphone Pixel 4 - und enttäuschte: Motion Sense erkennt, wenn der Nutzer das Smartphone in die Hand nimmt. Per Wischgeste kann der nächste Titel im Audioplayer angewählt werden. Seit dem jüngsten Pixel-Update können Nutzer nun die Audiowiedergabe immerhin per Geste starten und stoppen.

Dieses aufwendige Training für verhältnismäßig einfache Gesten ist wichtig, da jeder Nutzer selbst einfache Bewegungen in unzähligen Variationen durchführt. Umso komplexer die Geste, desto größer sind die Abweichungen zwischen einzelnen Nutzern.

Links: Person läuft auf Soli zu. Mitte: Person greift nach dem Smartphone. Rechts: Wischgeste. Person wischt über das Smartphone. Aus diesen komplexen Mustern soll die KI verlässlich passende Aktionen ableiten.

In Soli steckt mehr - aber die Komplexität ist hoch

Der Chip nimmt im alltäglichen Betrieb zusätzlich ununterbrochen Bewegungen wahr, die den gelernten Gesten ähneln können. Hinzu kommt: Der Sensor hat keine Möglichkeit, festzustellen, ob sich das Smartphone oder die Welt bewegt. War das eine Wischgeste - oder wurde das Smartphone nur an einer Hand vorbeigeführt?

Diese Hürden machen deutlich, weshalb Googles Radarsteuerung bisher nur einfache Gesten unterstützt und selbst hier immer wieder Fehler macht. Letztlich scheitert das System noch an fehlenden Daten für das KI-Training, die die Gestenerkennung stabil und verlässlich genug machen für sämtliche Echtwelt-Szenarien. Entwickler autonomer Autos oder Roboter kennen Varianten diese Geschichte.

Die Google-Forscher sehen die Soli-Implementierung dennoch als Erfolg an und wollen die Radarsteuerung weiterentwickeln. Ob es in Zukunft komplexere Gesten für Pixel-Smartphones geben wird, verraten sie nicht.

Quelle: Google

Weiterlesen über Google: