Wenn sich Roboter Bewegungen einfach in Videos abschauen könnten, würde das die Entwicklung deutlich vereinfachen. Google AI testet eine mögliche Methode für die Bewegungsübertragung am Beispiel eines Hunderoboters.

Boston Dynamics Hunderoboter Spot oder das humanoide Modell Atlas sind in den letzten Jahren viel beweglicher und mobiler geworden. Konnte beispielsweise Atlas am Anfang kaum einen Fuß vor den anderen setzen, springt er jetzt wie ein begabter Turner über Hindernisse hinweg.

So beeindruckend dieser Fortschritt ist, so aufwendig ist er auch: Boston Dynamics Software-Ingenieure mussten über Jahre hinweg viele Zeilen Code schreiben, löschen und neu schreiben, bis sie diesen Grad an maschineller Beweglichkeit erreicht hatten.

Einfacher wäre es, der Roboter würde sich, ähnlich wie ein Mensch, Bewegungen abschauen, nachahmen und dann feinjustieren.

Googles Hunderoboter lernt von Hundevideos

Gemeinsam mit der Universität Berkeley entwickelte Google AI einen automatisierten Ansatz, um Robotern realistische Bewegungen beizubringen: Die Bewegungsdaten aus Hundevideos übertrugen sie auf ein virtuelles Hundemodell, das dann an die Proportionen und Funktionen des Hunderoboters…

MIXED.de Podcast: VR, AR und KI - jede Woche neu

Jetzt reinhören: Alle Folgen


Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.