Apple Vision Pro: Positive Reaktionen von Entwicklern
Apple lässt Entwickelnde mit Vision Pro experimentieren. Deren Eindrücke sind positiv.
Apple veranstaltet seit Anfang August eintägige Treffen mit Entwickler:innen, die an Apps für Vision Pro arbeiten. Im Rahmen der Vision Pro Developer Labs können sie die Hardware in Apple-Büros ausprobieren und ihre Apps auf dem Gerät testen. Dabei werden sie von Apple-Angestellten betreut.
Die Developer Labs finden in London, München, Shanghai, Singapur, Tokyo und Cupertino statt. In einer Pressemitteilung greift Apple mehrerer Entwickler heraus und schildert ihre Erfahrung.
Eine neue Erfahrung für Entwickler
Michael Simmons ist CEO von Flexibits, das die erfolgreiche Kalender-App Fantastical für Apple-Geräte entwickelt. Simmons sei überrascht gewesen, als er die Apps zum ersten Mal auf Vision Pro erlebte.
"Ein umrandeter Bildschirm kann einschränkend sein. Sicher, man kann scrollen oder mehrere Monitore haben, aber im Allgemeinen ist man auf die Ränder beschränkt", sagt Simmons. "Mit Apple Vision Pro und Spatial Computing habe ich gesehen, wie man für die grenzenlose Leinwand entwickeln kann, wie man aufhört, darüber nachzudenken, was auf einen Bildschirm passt. Und das wird uns helfen, bessere Apps zu entwickeln."
Ein anderer Entwickler, der von Apple eingeladen wurde, ist David Smith. Er arbeitet an einer Vision-Pro-Version seiner iOS-App Widgetsmith. Dafür nutzte er den visionOS Simulator. Die App auf der Hardware selbst zu sehen, war eine neue Erfahrung für ihn, die ihn hörbar nach Luft schnappen ließ. Die Arbeit mit dem Gerät sei unverzichtbar und habe ihm neue Ideen gegeben.
Ein konservativer Ansatz
Apple schilderte weitere Beispiele. Interessanterweise handelt es sich bei allen Fällen um Vision-Pro-Adaptionen bestehender 2D-Apps. Exklusive und experimentellere Apps oder Portierungen bekannter VR- oder AR-Apps sucht man vergeblich.
- MIXED.de ohne Werbebanner
- Zugriff auf mehr als 9.000 Artikel
- Kündigung jederzeit online möglich
Dies untermauert Apples konservativen Ansatz. In diesem frühen Stadium des Spatial Computing geht es Apple vor allem um eines: das Schließen der Paradigmenlücke, also einen möglichst nahtlosen Übergang zwischen traditioneller und räumlicher Datenverarbeitung, bestehendem und neuem App-Ökosystem. Eine völlige Neuerfindung des Computermediums steht nicht auf dem Plan.
Apple versteht, dass die Menschen schrittweise und mit Vorsicht an die neue Technologie herangeführt und erst einmal gewisse Grundlagen geschaffen werden müssen.
An EyeSight wird noch gearbeitet
Einige Entwickler:innen haben unter strengen Sicherheitsauflagen Developer Kits erhalten. Laut Techjournalist Alex Heath wurden AirTags an den Geräten befestigt, damit man ihren Standort mitverfolgen kann und eine Vorrichtung verhindert, dass man die Headsets öffnen und das Innenleben der Hardware innen inspizieren kann. Trotzdem sind hier und da schon unautorisierte Eindrücke des Geräts durchgesickert.
Heath sprach mit einem Entwickler, der ein Developer Kit erhalten hat. Der habe ihm bestätigt, dass EyeSight noch nicht funktionsfähig ist. Damit ist das Feature gemeint, das das Gesicht von Nutzer:innen auf der Außenseite des Headsets zeigt, Dies erkläre auch, weshalb sich Apple-Führungskräfte bislang nicht mit Vision Pro fotografieren ließen.
Der offizielle Launch des Headsets ist für Anfang 2024 angesetzt.
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.