DirectX 12 va recevoir une technologie qui change radicalement la manière de calculer des scènes en 3D et NVIDIA confirme son support.
La trace de ray
Ça n’a pas l’air comme ça, mais une petite révolution est en train de se produire à la GDC 2018. Ce n’est pas encore 100% au point, mais ça promet de jolies choses pour l’avenir de la 3D.
Microsoft a annoncé hier une future fonctionnalité pour son API graphique DirectX 12. Nommée DXR pour DirectX Raytracing, cette technologie permet de calculer une scène en 3D via une technique de raytracing plutôt que l’éternel technique de rastérisation que nos cartes graphiques s’évertuent à utiliser depuis très longtemps.
Cependant, le raytracing n’est pas une technique “révolutionnaire” et bien loin d’être nouvelle (c’est même la première technique découverte). Plutôt que de garder en mémoire la forme vectorielle des objets 3D et d’aplatir l’image à partir du point de vue de la caméra, cette dernière émet de fins “rayons” et détecte s’ils viennent percuter un obstacle, tout en appliquant des lois réalistes du comportement de la lumière. Cela permet d’obtenir des objets infiniment mieux définis, qui ne sont pas obligés d’êtres formés à partir de polygones tout carré, et des rendus bien plus photoréalistes, au sens propre du terme. Elle est souvent utilisée dans tout ce qui est rendu 3D professionnel, comme dans les films, par exemple.
Le souci était que, jusqu’à aujourd’hui, cette technique était trop lourde en termes de calculs pour s’amuser à rendre des scènes en temps réel. Avec le progrès de la puissance informatique, et l’introduction récente du deep learning qui arrive à donner un coup de pouce au processus, il est dorénavant envisageable d’utiliser un paradigme de raytracing pour rendre une scène, tout en ayant la possibilité de bouger librement le point de vue, et en temps réel. Microsoft a travaillé avec quelques studios pour évaluer la viabilité de la technologie et les choses sympathiques que l’on peut faire avec. Le DXR serait compatible avec toutes les cartes graphiques récentes, mais la firme de Redmond ne donne pas plus de détails, invitant les curieux à se renseigner auprès des marques de leur carte graphique.
Project PICA PICA par SEED et financé par Electronic Arts
Par-dessus ça, NVIDIA indique rejoindre l’initiative avec RTX (Ray Tracing gameworX), une surcouche Gameworks comme la marque au caméléon sait bien le faire, destinée à être utilisée par dessus DXR. Cette technologie n’est pour l’instant compatible qu’avec les puces Volta qui équipent actuellement la Tesla V100 et la Titan V, qui semblent avoir été taillées en secret pour (mais très loin de toutes les bourses).
Scène rendue avec RTX d’NVIDIA et élaborée par Remedy
AMD n’est pas en reste puisque le possesseur de Radeon avait déjà commencé à explorer les possibilités du raytracing avec ProRender basé sur Vulkan, déjà à l’oeuvre . La prochaine version permettra d’allier le confort technologique de la rastérisation avec le gain de photoréalisme du raytracing, les deux en temps réel. Quant au support de DXR par les cartes graphiques de la marque, rien n’a encore été annoncé.
Real Time Ray Tracing par AMD
Les deux innovateurs graphiques ont cependant chacun révélé qu’ils possédaient encore d’autres annonces pour la GDC dans leur manche.
Suivons le trait de lumière
Alors, le raytracing, c’est cool, c’est beau, c’est impressionnant, mais ça change complètement la façon de faire des jeux et des scènes 3D. Si la technologie est au point du côté recherche et développement, ce n’est pas demain la veille que les développeurs, les cartes graphiques de monsieur Tout-le-Monde, et les consoles grand public pourront supporter un tel changement de paradigme.
Cela dit, la puissance de calcul des dernières cartes graphiques allant toujours vers le haut et de manière constante, avec l’appuie du deep learning qui devient de plus en plus généralisé, il se pourrait bien que le raytracing devienne le nouveau standard de rendu 3D un jour. Attendons les prochaines annonces que les constructeurs nous réservent à la GDC pour tirer de nouvelles conclusions.
lecture interressante de 1990
https://link.springer.com/article/10.1007/BF01911003
de 2001
https://pdfs.semanticscholar.org/3813/a049fb8a08c18ec9a1999a3aa2b93e4e6db5.pdf
de 2006
https://static1.squarespace.com/static/54864055e4b028fe51392c01/t/548654b5e4b014f9b7f705f8/1418089653679/AnalGPURT.pdf
C’etait pas nvidia et quake qui en parlaient dans les années 199x ?