Google Soli: Weshalb die Gestensteuerung ihr Potenzial (noch) nicht erfüllt
Googles Ingenieure sind stolz auf Soli, aber das Potenzial der Radarsteuerung ist lange nicht ausgeschöpft. Weshalb?
Die Soli-Technologie erfasst Reflexionsmuster elektromagnetischer Wellen und das so genau, dass sie Dichte, Form, Oberflächenstruktur und Gewicht einzelner Objekte identifizieren kann. In Vorführungen von Google steuerten Angestellte Audiosysteme mit komplexen Fingerbewegungen. Die Hand des Nutzers wird zum Eingabegerät.
Nach fünf Jahren Entwicklungszeit landete der Chip dann 2019 im neuen Google-Smartphone Pixel 4 - und enttäuschte: Motion Sense erkennt, wenn der Nutzer das Smartphone in die Hand nimmt. Per Wischgeste kann der nächste Titel im Audioplayer angewählt werden. Seit dem jüngsten Pixel-Update können Nutzer nun die Audiowiedergabe immerhin per Geste starten und stoppen.
___STEADY_PAYWALL___Das war's allerdings schon. So viel Hype für so wenig Funktion?
Googles ursprüngliche Demos waren viel spektakulärer: Fingerreiben ersetzt den Lautstärkeregler. Tippt man die Finger aufeinander, aktiviert das einen Knopf. Weshalb blieben diese tollen Steuerungsgesten auf der Strecke?
Umfassende Radardaten für das KI-Training
In einem neuen Blog-Eintrag gibt Google einen Einblick in die Herausforderungen der Soli-Implementierung für Pixel-Smartphones. Der eingeschränkte Funktionsumfang ist der Komplexität menschlicher Bewegungen geschuldet. Denn technisch wäre der Miniradar sehr wohl zu mehr in der Lage.
Der Soli-Chip verarbeitet bis zu 18.000 Bilder pro Sekunde. Damit diese Informationen sinnvoll für Nutzeraktionen verarbeitet werden können, setzt Google auf Künstliche Intelligenz. Die klassifiziert die Radarsignale visuell in vortrainierte Gesten – etwa ein Wischen.
Jede dieser Gesten trainierte Google mit Millionen Beispielgesten tausender Google-Freiwilliger und hunderten Stunden an Radaraufnahmen alltäglicher Bewegungen vor dem Chip.
- MIXED.de ohne Werbebanner
- Zugriff auf mehr als 9.000 Artikel
- Kündigung jederzeit online möglich
Dieses aufwendige Training für verhältnismäßig einfache Gesten ist wichtig, da jeder Nutzer selbst einfache Bewegungen in unzähligen Variationen durchführt. Umso komplexer die Geste, desto größer sind die Abweichungen zwischen einzelnen Nutzern.
Links: Person läuft auf Soli zu. Mitte: Person greift nach dem Smartphone. Rechts: Wischgeste. Person wischt über das Smartphone. Aus diesen komplexen Mustern soll die KI verlässlich passende Aktionen ableiten.
In Soli steckt mehr - aber die Komplexität ist hoch
Der Chip nimmt im alltäglichen Betrieb zusätzlich ununterbrochen Bewegungen wahr, die den gelernten Gesten ähneln können. Hinzu kommt: Der Sensor hat keine Möglichkeit, festzustellen, ob sich das Smartphone oder die Welt bewegt. War das eine Wischgeste - oder wurde das Smartphone nur an einer Hand vorbeigeführt?
Diese Hürden machen deutlich, weshalb Googles Radarsteuerung bisher nur einfache Gesten unterstützt und selbst hier immer wieder Fehler macht. Letztlich scheitert das System noch an fehlenden Daten für das KI-Training, die die Gestenerkennung stabil und verlässlich genug machen für sämtliche Echtwelt-Szenarien. Entwickler autonomer Autos oder Roboter kennen Varianten diese Geschichte.
Die Google-Forscher sehen die Soli-Implementierung dennoch als Erfolg an und wollen die Radarsteuerung weiterentwickeln. Ob es in Zukunft komplexere Gesten für Pixel-Smartphones geben wird, verraten sie nicht.
Quelle: Google
Weiterlesen über Google:
- Google integriert Lens in Google Maps
- Autoflip: Google will mit KI Videobearbeitung erleichtern
- Wegen Coronavirus: Google sagt wichtige Entwicklerkonferenz ab
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.