Der Artikel kann nur mit aktiviertem JavaScript dargestellt werden. Bitte aktiviere JavaScript in deinem Browser und lade die Seite neu.
Augmented Reality könnte das Filmemachen revolutionieren. Nämlich dann, wenn Setdesigner, Kameramänner und Regisseure mit der Technologie Filmsets in Echtzeit digital modifizieren können. Wie das geht, zeigte das zur Filmakademie Baden-Württemberg gehörende Animationsinstitut auf der Siggraph-Konferenz.
Mit Werbeeinnahmen bezahlen wir unsere Redakteur:innen. Mit einem MIXED-Abo kannst Du unsere Seite werbefrei lesen.
Die Forscher entwickelten auf Basis von Apples ARKit die kostenlose AR-App „VPET“ (Virtual Production Editing Tools), mit der Filmsets passgenau um digitale Objekte erweitert werden können.
In einer für die Siggraph vorbereiteten wissenschaftlichen Publikation erklären die Projektleiter Simon Spielmann und Volker Helzle an einem Beispiel, wie die Software funktioniert.
___STEADY_PAYWALL___
Das Filmset wurde zuerst im Computer entworfen und danach maßstabsgetreu in einem Filmstudio aufgebaut. Aus den Computerdaten wurde eine digitale Version des Sets erstellt, an der sich die AR-Einblendungen orientieren.
Um das reale und das digitale Set zu synchronisieren, muss der Nutzer lediglich einen Ankerpunkt festlegen (siehe Youtube-Video unten). Danach können digitale Objekte nahtlos in die reale Szene eingefügt werden: zum Beispiel ein weiterer Stock oder ganze Straßenzüge.
Technologie wird erschwinglich
Für das Filmteam hat die Technologie gleich mehrere Vorteile: Der Setdesigner, Kameramann und Regisseur können sich während der Planungsphase einen Eindruck vom fertigen Filmset machen oder mit dessen Erscheinungsbild experimentieren, indem sie Requisiten oder ganze Setstücke digital hinzufügen.
Wird das Filmset erst im Computer vervollständigt, kann sich die Filmcrew samt Schauspieler beim Dreh einen Eindruck vom fertigen Schauplatz machen, wie er im Film zu sehen sein wird.
Professionelle Lösungen, die präziser arbeiten, gäbe es zwar schon auf dem Markt. Mit ARKit und erschwinglichen Geräten wie dem iPad könnten jedoch ähnliche Resultate erzielt werden, ohne dass man teure und sperrige Ausrüstung an den Drehort bringen muss.
Das Forschungsprojekt des Animationsinstituts ist von der EU finanziert und wird als Open-Source-Projekt weiterentwickelt. Den Programmcode findet man bei Github.
| Featured Image and Source: Animationsinstitut / Filmakademie Baden-Württemberg
Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.