Apple Vision Pro kann vielleicht eure Gedanken lesen

Apple Vision Pro kann vielleicht eure Gedanken lesen

Ein ehemaliger Mitarbeiter gibt Einblicke in die Entwicklung der Apple Vision Pro und spricht von Gedankenlesen durch KI.

Sterling Crispin war eigenen Angaben zufolge Forscher für Neurotechnologie-Prototyping in der Technologieentwicklungsgruppe bei Apple und maßgeblich an der Entwicklung der erst kürzlich angekündigten VR/AR-Brille Vision Pro beteiligt. Unter anderem habe er an einer Technologie zur Vorhersage des Nutzerverhaltens mittels Künstlicher Intelligenz gearbeitet.

Laut Crispin unterliegen viele der Technologien, die während seiner Zeit bei Apple entwickelt wurden, der Geheimhaltung. Da einige Aspekte seiner Arbeit jedoch durch Patente öffentlich wurden, dürfe er nun darüber sprechen. „Im Großen und Ganzen ging es bei meiner Arbeit darum, den mentalen Zustand von Nutzern anhand von Körper- und Hirndaten zu erkennen, während sie sich in einem immersiven Erlebnis befanden“, schreibt Crispin auf Twitter.

Vision Pro-Entwicklung: Gedankenlesen durch KI?

Gemessen würden diese Zustände anhand von Augenbewegungen, elektrischen Aktivitäten im Gehirn, Herzschlag und -rhythmus, Muskelaktivität, Blutdichte im Gehirn, Blutdruck, Hautleitwert und mehr. „KI-Modelle versuchen vorherzusagen, ob er [der Nutzer – Anm. d. Red.] neugierig ist, seine Gedanken schweifen lässt, Angst hat, aufmerksam ist, sich an ein vergangenes Erlebnis erinnert oder einen anderen kognitiven Zustand hat“, so Crispin.

Während einer solchen KI-Analyse von Nutzer:innen in Mixed-Reality- oder Virtual-Reality-Anwendungen sollen neben emotionalen Zuständen auch kognitive Absichten erkannt werden. In seinem Thread verrät der Forscher, dass er an Technologien wie der Vorhersage von Nutzerentscheidungen – einer Art Gedankenlesen durch KI – beteiligt war.

„Deine Pupille reagiert, bevor du etwas anklickst, auch weil du erwartest, dass nach dem Anklicken etwas passiert. Man kann also ein Biofeedback mit dem Gehirn des Benutzers erzeugen, indem man sein Augenverhalten beobachtet und die Benutzeroberfläche in Echtzeit so umgestaltet, dass diese vorausschauende Pupillenreaktion verstärkt wird“, beschreibt Crispin. Es sei wie eine Gehirn-Computer-Schnittstelle, die nur über die Messung der Augen funktioniere.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 3,50 € / Monat
logo

Weiß Vision Pro, wie konzentriert ihr arbeitet?

Crispin arbeitete auch an der Vorhersage des Konzentrations- oder Entspannungszustands von Nutzer:innen. Durch maschinelles Lernen und die Analyse von Körper- und Gehirnsignalen könne man vorhersagen, wie konzentriert oder entspannt jemand sei oder wie intensiv er oder sie gerade lerne, beschreibt Crispin. Diese Erkenntnisse könnten vor allem in Apples immersives Büro oder Meditations-Umgebungen geflossen sein.

Laut Crispin können virtuelle Umgebungen auf Basis dieser Daten in Echtzeit aktualisiert werden, um die Konzentration zu unterstützen. „Man stelle sich eine adaptive, immersive Umgebung vor, die einem beim Lernen, Arbeiten oder Entspannen hilft, indem sie verändert, was man im Hintergrund sieht und hört.“ Bislang stellte Apple lediglich ein Drehrad am Rahmen des Headsets vor, mit dem Nutzer:innen den Grad an Immersion selbst einstellen können.

Wie viele der beschriebenen Technologien es tatsächlich und in welchem Umfang in die Apple Vision Pro geschafft haben, weiß Crispin nicht: „Ich bin wirklich gespannt, was es in die Auswahl geschafft hat und was vielleicht später veröffentlicht wird.“ Crispin schied Ende 2021 aus dem Unternehmen aus.

Quellen: Twitter