Direct X 12: Mit Raytracing zu fotorealistischer Grafik

      Direct X 12: Mit Raytracing zu fotorealistischer Grafik

      Direct 12 ist nicht gerade neu, dennoch ist es gerade erst wirklich als erwachsener Standard angekommen. Auf der Game Developer Conference GDC hat man nun verkündet, dass man Direct X 12 um Raytracing-Unterstützung erweitert. Die Grafikqualität bei künftigen Spielegenerationen dürfte damit erheblich zunehmen.

      Raytracing an sich ist auch keine neue Technologie. Schon seit Jahren wird sie beispielsweise in großen Filmproduktionen für CGI genutzt, auch Cinematic Trailer von Spielen setzen teilweise darauf – oder ganz schlicht der Ikea Katalog. Doch der Hardware-Aufwand ist enorm, an Echtzeit-Rendering kaum zu denken. Mit der Integration in Direct X könnte sich das nun ändern, denn dadurch ermöglicht es Microsoft den Spieleentwicklern, die nötige Hardware direkt anzusprechen.

      Microsoft hatte bereits bei der Präsentation der xBox One X klar gemacht, dass das Auslagern komplexer Prozessor auf exakt dafür ausgelegte Hardware die Zukunft sein wird. Allein durch die Integration eines dedizierten DX12 Chips in die xBox One X ließ sich die CPU- und GPU-Last signifikant senken. Beim Raytracing soll genau dieser Ansatz zum Tragen kommen. Mit der DXR getauften Schnittstelle bietet DX12 jetzt die Möglichkeit, diese dedizierte Hardware auch direkt anzusprechen.

      Doch was ist das überhaupt, Raytracing? Prinzipiell ist es eine Rendertechnik die an der Funktionsweise des menschlichen Auges angelehnt ist. Beim Raytracing verfolgt man quasi den Weg des natürlichen Lichts. Es ist damit möglich zu berechnen, wo der Blick auf ein Objekt trifft, wie das Licht dabei gebrochen wird und wie und wohin es abgelenkt wird. Der enorme Hardware-Aufwand resultiert hierbei daraus, dass diese Berechnung für jeden einzelnen Pixel im Bild mehrfach durchgeführt werden muss. Jeder Pixel wird also auf eintreffendes Licht, Lichtbrechung, Reflexion, usw. hin berechnet. Durch diesen enormen Rechenaufwand waren bislang Echtzeitanwendungen kaum möglich.

      NVidia hat allerding bereits eine entsprechende Hardware-Plattform im Gepäck: nVidia RTX. Diese wird derzeit nur von GPUs der Volta Architektur unterstützt – beispielsweise der mit über 3000 Euro doch recht teuren Titan V. Auf der GDC hat Nvidia in Zusammenarbeit mit Epic Games allerdings schon ein funktionierendes System dabei, um Echtzeit-Raytracing auf bereits verfügbarer Hardware zu demonstrieren. Zum Einsatz kam die NVidia DGX Station, ein System aus insgesamt vier Tesla V100 Rechenkarten. Das Ergebnis kann sich sehen lassen:

      https://www.youtube-nocookie.com/watch?v=J3ue35ago3Y

      Möglich ist das wie erwähnt durch die DXR API innerhalb DX12, die die insgesamt 2560 Tensor Cores zur Hardware-Beschleunigung direkt ansprechen kann. Die Demo wurde übrigens mit der Unreal Engine 4 umgesetzt – auch die Spieleentwickler sind also schon mit im Boot.

      Bis ihr die Technik allerdings im Wohnzimmer stehen haben werdet, wird noch etwas Zeit vergehen. Die NVidia DGX Station schlägt derzeit noch mit 69.000 US-Dollar zu Buche. Und falls ihr euch eine einzelne Tesla V100 GPU Rechenkarte zulegen wollt: Bei rund 10.000 Euro seid ihr aktuell dabei.

      Softwareseitig wird NVidia nach eigenen Angaben aber noch dieses Jahr Raytraced Ambient Occlusion, Raytracing Area Shadows und Glossy Reflections unterstützen. Auch erste Spiele, die diese Technologien unterstützten sollen wir dieses Jahr zu sehen bekommen. Ob auch eine entsprechende (bezahlbare) Gaming-Grafikkarte dazu kommt, ließ NVidia offen.

      AMD hielt sich insgesamt noch bedeckt bei dem Thema und verwies lediglich auf einen wohl bald erscheinenden DXR Treiber. Hardware-Unterstützung bietet man bislang auch im Pro-Sektor nicht.

      Insgesamt aber eine extrem spannende Entwicklung. In wenigen Jahren wäre es damit denkbar, dass Spiele auf fotorealistische Grafik zurückgreifen können.

      Das könnte dich auch interessieren