Virtual Reality: Neue Methode um überzeugende VR-Videos zu filmen

Virtual Reality: Neue Methode um überzeugende VR-Videos zu filmen

Mixed-Reality-Videos geben Außenstehenden einen Einblick in die Virtual Reality und den faszinierenden VR-Welten, die sonst nur der Brillenträger sieht. Owlchemy Labs, die Entwickler des VR-Hits Job Simulator, haben eine verbesserte Methode für die Produktion solcher Videos vorgestellt. Diese lässt Realität und virtuelle Welt noch enger miteinander verschmelzen.

Setzt man sich eine VR-Brille auf, so nimmt man nichts mehr von der Außenwelt wahr. Umgekehrt gilt dasselbe: Die Außenwelt kann nicht wahrnehmen, was man unter der VR-Brille sieht. Auf diese Weise wirkt die Virtual Reality in beide Richtungen ausschließend. Für den VR-Nutzer ist das ein gewünschter Effekt, für andere Personen eher befremdlich.

Da wir längst noch nicht so weit sind, dass alle eine VR-Brille tragen und sich in der Virtual Reality treffen können, um gemeinsam räumliche Inhalte anzuschauen, braucht es übergangsweise Methoden, um den VR-Inhalt ergänzend auf einem flachen Monitor darzustellen. Eine Möglichkeit ist das sogenannte Mixed-Reality-Video.

___STEADY_PAYWALL___

Neugierig machen auf Virtual Reality

Im Unterschied zu einem reinen Mitschnitt des Videosignals geben Mixed-Reality-Videos nicht nur die wacklige und hektische Ego-Perspektive des Brillenträgers wieder, sondern zeigen den kompletten Menschen in der Virtual Reality.

Das ist wichtig, um bei Zuschauern ein besseres Verständnis dafür zu wecken, was unter der VR-Brille passiert. Gerade im Gaming-Bereich, beispielsweise im Einsatz bei bekannten YouTube-Stars, haben solche Videos das Potenzial, mehr Hardware zu verkaufen.

Die ersten Mixed-Reality-Videos wurden von Colin und Sarah Northway, den Machern des VR-Games Fantastic Contraption, erstellt. Das Studio Owlchemy Labs verfeinert die Methode nun.

logo
  • checkMIXED.de ohne Werbebanner
  • checkZugriff auf mehr als 9.000 Artikel
  • checkKündigung jederzeit online möglich
ab 3,50 € / Monat
logo

Beispielsweise leuchten virtuelle Lichtquellen auch den realen Menschen glaubhaft aus und Transparenzen können korrekt dargestellt werden. Die Besonderheit: Die Effekte werden nicht nachträglich hinzugefügt, sondern sollen in Echtzeit während der Aufnahme sichtbar sein. Bislang waren solche Effekte nur in aufwendiger Handarbeit bei der Nachbearbeitung des Videomaterials möglich.

Owlchemy Labs verspricht, dass die Mixed-Reality-Videos universell mit allen 3D-Anwendungen kompatibel sind, die mit Unity umgesetzt wurden. Eine aufwendige Integration pro Anwendung soll nicht notwendig sein.

Owlchemy Labs möchte die neuen Features zuerst in einer geschlossenen Beta ausprobieren. Anschließend startet das Studio ein Lizenzmodell. Mehr Informationen zur Methode und die Möglichkeit, sich für die Beta anzumelden, gibt es im offiziellen Blog.

Wie sehen Let's Plays aus, wenn Virtual Reality der neue Spielestandard wird?

Virtual Reality: Sieht so das Let's Play der Zukunft aus?

| Featured Image: Owlchemy Labs