Künstliche Intelligenz kann digitale Welten verschönern bei einem geringeren Rechenaufwand im Vergleich zu herkömmlichen Renderverfahren. Voraussetzung: Die KI hat ausreichend Trainingsmaterial.

Bei Nvidias DLSS lernt eine KI anhand von Spielebildern mit niedrig aufgelöster, kantiger Grafik und deren bereinigter Idealversion den Unterschied kennen zwischen für Menschen hässlichen und schönen Pixelmustern. Dann trainiert die KI, zusätzliche Pixel so ins Bild einzublenden, dass unschöne Kanten und Treppchenffekte (Aliasing) verschwinden.

Trainiert wird das KI-Modell auf einem Supercomputer. Den Trainingsvorgang muss Nvidia spezifisch pro Spiel durchlaufen. Anschließend kann das Modell mit einem Bruchteil des Rechenaufwands lokal auf einer RTX-Grafikkarte ausgeführt werden.

Mit einem ähnlichen KI-Verfahren generierte Nvidia eine HD-Version des Spieleklassikers Zelda mit deutlich aufgewerteten Texturen.

Der Supercomputer schläft nie

So gut das KI-Rendering in der Theorie klingt, in der Praxis ist es noch nicht da, wo Spieler und Nvidia es gerne hätten.

Bei den wenigen unterstützten Spielen gibt es gerade bei niedrigeren Auflösungen in 1080p und 1440p Beschwerden, dass die von Künstlicher Intelligenz berechneten Bilder weniger scharf sind als die herkömmlich gerenderte Grafik.

Im Unternehmensblog verspricht Andrew Edelsten, Director of Deep Learning bei Nvidia, Verbesserungen bei der von DLSS erzeugten Bildqualität: Derzeit variiere sie, da jedes Spiel unterschiedliche Charakteristiken habe, basierend a…

MIXED.de XR-Podcast - jetzt reinhören

Aktuell: Radioaktive Daten und VR Auferstehung | Alle Folgen



Hinweis: Links auf Online-Shops in Artikeln können sogenannte Affiliate-Links sein. Wenn ihr über diesen Link einkauft, erhält MIXED.de vom Anbieter eine Provision. Für euch verändert sich der Preis nicht.