Auf der hauseigenen Entwicklerkonferenz SPS 2020 kündigte Snap eine Vielzahl Snapchat-Neuerungen an. Ich stelle euch die wichtigsten drei neuen AR-Funktionen vor.

Augmented Reality ist ein wichtiger Pfeiler des Unternehmens und Snap untermauert diesen Umstand mit Nutzerstatistiken.

Mittlerweile sollen mehr als 170 Millionen Snapchat-Nutzer die AR-Funktionen täglich nutzen (Erhebungszeitraum: 1. Januar bis 25. Mai 2020) und zwar etwa 30 Mal am Tag. Zudem stieg die Anzahl von unabhängigen Entwicklern kreierter AR-Linsen auf eine Million. Vor zwei Jahren waren es noch 100.000 AR-Linsen.

Neue Spectacles zeigte das Unternehmen zwar nicht, jedoch eine Vielzahl neuer Software-Funktionen, die für eine kommende AR-Brille unentbehrlich sein dürften.

SnapML

Die erste große Ankündigung in Sachen Augmented Reality betrifft Lens Studio, Snaps Desktop-Linseneditor. Das Programm bietet jetzt die Möglichkeit, Machine-Learning-Modelle für AR-Linsen einzusetzen. Damit erhalten Entwickler ein mächtiges Werkzeug an die Hand, mit dem sie besonders beliebte und fortschrittliche AR-Linsen wie Snaps Baby-, Time Machine- und Genderswap-Filter kreieren können.

Snap schuf in Zusammenarbeit mit Wannaby, Prisma, CV2020 und einer Reihe unabhängiger Entwickler Beispiele für SnapML-basierte AR-Linsen, die in folgendem Video zu sehen sind. Wer selbst mit Lens Studio experimentieren will, kann das Programm auf der offiziellen Internetseite kostenlos herunterladen.

Local Lenses

Mit der AR-Funktion “Landmarkers” erweiterte Snapchat Sehenswürdigkeiten wie den Eiffelturm und das Brandenburger Tor um außergewöhnliche AR-Effekte. Mit der AR-Funktion Local Lenses geht Snap einen Schritt weiter und erlaubt Entwicklern und Nutzern AR-Spielereien mit herkömmlichen Umgebungen.

Grundlage der AR-Erweiterungen sind 3D-Rekonstruktionen realer Orte, die Snap mit Hilfe von 360-Grad-Aufnahmen und Schnappschüssen von Snapchat-Nutzern erstellt. Dank der automatisierten 3D-Kartografierung kann sich die Snapchat-Kamera präzise im Raum verorten, kennt die Größenverhältnisse und räumliche Position von Gebäuden und kann sie so um AR-Effekte erweitern. Die sind für mehrere Nutzer gleichzeitig sichtbar und bleiben dauerhaft in der Welt.

Mit den Local Lenses macht Snap den ersten Schritt Richtung AR-Cloud und folgt damit Unternehmen wie Google, Facebook, Apple, Magic Leap und Niantic,

Sprach- und Objekterkennung

Mit der KI-basierten Spracherkennungsfunktion Voice Scan können Nutzer AR-Linsen durch Sprachbefehle aktivieren. Wer zum Beispiel seine Haare digital färben will, braucht Snapchat in Zukunft nur noch dazu auffordern.

Voice Scan ist zum Launch eine reine Komfortfunktion. Das könnte sich in Zukunft ändern: Das Unternehmen erforscht mit Voice Scan zum ersten Mal ein sprachgesteuertes Interface, das theoretisch zu einem KI-Assistenten ausgebaut werden könnte. Dieser wiederum könnte ein wichtiger Bestandteil einer AR-Brille Marke Snap werden.

In diese Richtung geht auch der Ausbau der Objekterkennung: Snapchat kann jetzt dank neuer Partnerschaften 90 Prozent aller bekannten Pflanzen und Bäume identifizieren und fast 400 verschiedene Hunderassen erkennen. Später in diesem Jahr soll es außerdem möglich sein, Lebensmittel zu analysieren, indem man das Etikett einscannt. Die Funktionen erinnern an Googles mächtige Objekterkennungs-App Google Lens.

Die vollständige Snap-Konferenz könnt ihr im folgenden Video ansehen.

Titelbild: Snap

Weiterlesen über Snap AR:

steady2

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: OpenXR, Oculus Half Dome und Fake-Holodecks | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.