WWDC 2021: Eine Apple-News macht AR-Fans Hoffnung

WWDC 2021: Eine Apple-News macht AR-Fans Hoffnung

Apples alljährliche Entwicklerkonferenz hat begonnen. Welche Neuigkeiten in Sachen Augmented Reality und Künstliche Intelligenz gab es auf der Keynote der WWDC 2021? Wir fassen die wichtigsten Ankündigungen zusammen - besonders "Object Capture" könnte als Hinweis verstanden werden auf Apples mögliche 3D-Zukunft.

ARKit 5 & RealityKit 2

Das ARKit 4 brachte 2020 sogenannte Locations Anchors. Damit können Entwickler AR-Darstellungen über Apple Maps einem realen Ort fix zuordnen. An diesem Ort angekommen, zückt man das iPhone, richtet es auf die entsprechende Stelle und sieht die Computergrafik.

Mehrere Personen können so gemeinsam das gleiche AR-Objekt durch unterschiedliche Displays betrachten. Die fünfte Version von Apples AR-Schnittstelle bringt dieses Feature nach London und mehr US-Städte. ARKit 5 bringt außerdem Verbesserungen für Bewegungstracking.

___STEADY_PAYWALL___

Mit dem RealityKit 2 erscheint eine weiterentwickelte Version von Apples Framework für Highend-AR-Erfahrungen. Zu den neuen Features gehören unter anderem Object Capture (siehe unten), Custom Shaders für realistische Oberflächen und Post-Processing-Effekte.

Spatial Audio & Voice Isolation für FaceTime

Apple bringt ein Raumklang-Feature für FaceTime, mithilfe dessen Stimmen in einem Anruf so klingen, als kämen sie von dort, wo die Person auf dem Bildschirm positioniert ist. Spatial Audio ist ein wichtiger Baustein für VR- und AR, man denke an immersive AR-Konferenzen oder Zusammenarbeit in VR. Facebook etwa forscht derzeit an 3D-Raumklang für VR-Kollaboration.

Conversation Boost & Announce Notifications für Airpods Pro

Conversation Boost nutzt die Beamforming-Technologie der Airpods Pro sowie KI-Tricks, um die Stimme derjenigen Person zu verstärken, die direkt vor einem steht. Nebengeräusche werden reduziert. Facebook arbeitet an ähnlichen Audio-Funktionen für seine AR-Brille.

Siri soll in Zukunft in der Lage sein, zeit- und ortssensitive Benachrichtigungen vorzulesen. Geht man etwa in einen Supermarkt, liest Siri automatisch die Einkaufliste vor. Solche kontextsensitive KI-Features werden eines Tages essenziell sein für AR-Brillen.

Live Text, Visual Look Up

Dank KI erkennt iOS 15 Texte in Fotos, sodass sie vom Nutzer markiert, kopiert und in andere Apps eingefügt werden können. Das gilt auch für Texte in deutscher Sprache. Dank dieses Features können Fotos neu nach Texten durchsucht werden.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 3,50 € / Monat
logo

Dank dem ebenfalls neuen KI-basierten Feature Visual Look Up identifiziert das Betriebssystem laut Apple Kunstwerke, Sehenswürdigkeiten, Pflanzen, Tiere, Bücher und andere Objekte. Sowohl Live Text als auch Visual Look Up kennt man in ähnlicher Form von Google Lens.

AR-Navigation in Apple Maps

Apple hat eine neue Version seines Kartendiensts mit detaillierten 3D-Karten angekündigt, allerdings (noch) nicht für Deutschland. Der Konzern startet außerdem mit einer AR-Navigation in ausgewählten Städten. Das neue Apple Maps soll damit Gebäudefassaden erkennen, daraus die exakte Position des Nutzers ermitteln und perspektivisch korrekt AR-Navigationselemente einblenden. Google bietet ein ähnliches Feature namens Live View seit Jahren für Google Maps.

Object Capture

Object Capture ist ein Photogrammetrie-basiertes 3D-Scanning-Tool für MacOS. Nutzer mit iPhone oder iPad fotografieren ein Objekt aus verschiedenen Perspektiven, woraus anschließend ein 3D-Modell des fotografierten Objekts berechnet wird. Dieses kann dann per Augmented Reality in die Umgebung projiziert werden. Wayfair ist eines der ersten Unternehmen, dass das Tool nutzt, um seine Produkte zu digitalisieren und Käufern als AR-Objekte zur Verfügung zu stellen. Mit Blick auf eine Tech-Zukunft mit AR und VR ist eine Funktion wie Object Capture grundlegend für nutzergenerierte Inhalte.

Siri funktioniert jetzt ohne Internetverbindung

Ab iOS 15 läuft Siris Spracherkennung standardmäßig nur noch lokal. Das macht den KI-Assistenten schneller und sicherer in Sachen Datenschutz, da Aufnahmen nicht mehr das Gerät verlassen. Wer auf die Internetverbindung verzichtet, kann Siri nicht mehr im Netz suchen lassen oder andere webbasierte Funktionen nutzen.

Titelbild: Apple

Weiterlesen über Apple XR: