Motion Sense: Google zeigt Radar-Gestensteuerung für Pixel-4-Smartphones

Motion Sense: Google zeigt Radar-Gestensteuerung für Pixel-4-Smartphones

Aus Project Soli wird Motion Sense: Google stellte heute die neue Gestensteuerung für Pixel-4-Smartphones offiziell vor. Sie soll der Anfang einer neuen Art von Interface werden.

Fünf Jahre forschte Googles ATAP-Team, um die radarbasierte Technologie auf die Größe eines winzigen Chips zu miniaturisieren. Motion Sense erscheint nun als Erstes für Googles Pixel-4-Smartphones.

Zu Beginn bietet die Technologie drei neue Funktionen: Der Chip registriert den Nutzer dank Radarwellen innerhalb eines Abstands von circa einem halben Meter und kann so das Display abschalten, wenn man sich entfernt.

___STEADY_PAYWALL___

Motion Sense kann zudem erfassen, wenn man nach dem Smartphone greift und aktiviert dabei das Display und die Gesichtserkennungssensoren.

Die prominenteste Funktion ist die Übersetzung einfacher Wischgesten in Befehle. So kann man Telefonanrufe ablehnen, den Alarm abschalten oder Tracks wechseln, ohne dass man das Smartphone berührt.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 3,50 € / Monat
logo

Eine technische Meisterleistung

Ähnliche Funktionen gab es schon früher, aber sie waren kamerabasiert. Der Vorteil des Radarchips ist, dass er sehr wenig Energie verbraucht, allerfeinste Bewegungen erkennt und durch Materialien hindurch funktioniert, den Nutzer also nicht sehen muss.

Motion Sense kann jederzeit abgeschaltet werden und alle Gestenerkennung wird lokal auf dem Smartphone ausgeführt, ohne dass Google sie in der Cloud bearbeitet oder gar speichert.

Project_Soli_Evolution

Google gelang es, das Radar auf einen winzigen Chip zu reduzieren. BILD: Google

Motion Sense geht mit einem eingeschränkten Funktionsumfang an den Start. Der Grund: Google will die Nutzer mit dem neuen Interface nicht überfordern und stattdessen schrittweise an die Möglichkeiten der Technologie heranführen.

Für die Gestenerkennung hat Google künstliche neuronale Netze trainiert. Eines der größten Probleme neben der Minitiaturisierung war, dass Menschen unterschiedliche Wischgesten machen. Die KI muss zudem zwischen ähnlichen Gesten unterscheiden können, sodass Motion Sense nicht unabsichtlich aktiviert wird.

Titelbild: Google, Quelle: The Verge 1 & 2

Weiterlesen über Gestensteuerung: