Eine neue KI-Videoanalyse von IBM läuft auch auf schwacher Hardware wie einem Smartphone. Das erlaubt etwa Echtzeit-Gestenerkennung mit günstigen Prozessoren.

Mächtige Text-KIs wie OpenAIs GPT-2 und Nvidias Megatron, Bilderkennungs-KIs, die Krebserkrankungen Jahre im Voraus analysieren, autonome Autos sehen lassen oder Gesichter scannen, sie alle haben eine Sache gemeinsam: Sie funktionieren dank riesiger Datenmengen und massig Rechenleistung.

Das hat zwei wesentliche Nachteile: Der CO2-Fußabdruck allein für das Training der KI-Systeme ist groß. Hinzu kommt, dass solche Riesen nur in der Cloud laufen. Auf dem Weg zu autonomen Drohnen, smarten Assistenten oder dem fahrerlosen Fahrzeug braucht es aber effiziente KIs, die mit wenig Rechenleistung, geringem Energieverbrauch und sogar ohne Internetverbindung ihre Arbeit verrichten.

Google rollt seinen effzienterten Offline-Assistenten aus

Dass das möglich ist, zeigt etwa Googles Next-Gen-Assistant, der lokal auf den neuen Pixel-Smartphones läuft. Von 100 Gigabyte reduzierte Google die Software auf 0,5 Gigabyte. Eine andere Forschergruppe schrumpfte kürzlich die Sprach-KI BERT: “DistilBERT” ist 60 Prozent kleiner, schneller und nahezu genauso leistungsstark. Die Beispiele zeigen: KI kann effizienter werden.

Nun haben Forscher des MIT-IBM Watson Forschungslabors leistungsstarke Videoanalyse-KIs auf vergleichsweise schwacher Smartphone-Hardware zum Laufen gebracht.

Das funktioniert so: Normalerweise verarbeiten Videoanalyse-KIs Bild für Bild. Dafür teilt die KI das Video zunächst in seine Einzelbil…

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: So steht es um VR-Gaming | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.