@Work
Avec Turing, NVidia transforme les usages des GPU
Par Laurent Delattre, publié le 21 août 2018
Avec l’introduction de l’architecture « Turing » par NVidia, les GPU ne seront plus tout à fait les mêmes et leurs usages vont encore un peu plus se diversifier tout en proposant de nouvelles expériences aux utilisateurs…
NVidia a profité du Siggraph 2018 pour introduire sa toute nouvelle génération de GPU à architecture Turing. Elle succède à l’architecture Pascal qui avait notamment permis d’introduire dans les ultrabooks des performances graphiques dignes des stations graphiques et PC de gamers fixes.
Et le constructeur annonce la couleur : « Turing représente le saut technologique le plus important depuis l’introduction de CUDA en 2006 ». Un slogan marketing qui n’est pourtant pas dénué de fondement, chose rare. Car avec Turing, NVidia touche enfin le Graal de l’univers infographique : le ray-tracing en temps réel.
Du ray-tracing vivant
Avec ces nouveaux GPU professionnels « Quadro RTX 8000 », « Quadro RTX 6000 » et « Quadro RTX 5000 », et en attendant l’annonce des éditions grand public « Geforce RTX 2080 » cette semaine lors de la Gamescom, NVidia introduit de nouveaux « cœurs RT » dédiés au ray-tracing capables de générer 10 Gigarays par seconde pour afficher des objets et des environnements comportant des ombres et surtout des effets de reflets, de réfraction et d’illumination globale parfaitement réalistes (et physiquement justes). Si ces nouveaux cœurs RT permettront aux infographistes de produire plus rapidement des scènes 3D d’une qualité maximale (à condition que les logiciels soient adaptés pour cette nouvelle génération de GPUs), ils permettront également de générer des hologrammes plus réalistes et trouveront donc une application directe dans les casques de réalité mixte (même s’il n’est pas encore question d’embarquer de tels processeurs dans des lunettes autonomes comme les Hololens de Microsoft). La mise en œuvre de ces nouveaux cœurs est d’ailleurs simplifiée par l’introduction de commandes de ray-tracing dans DirectX (via le jeu d’API DXR introduit en mars 2018 et qui trouve enfin ici toute son utilité). Ces nouveaux GPU NVidia sont déjà pris en compte par une trentaine d’applications d’images de synthèse dont Adobe Dimension CC, Altair Thea Render, Autodesk, Dassault Systèmes CATIA et Solidworks, Pixar Renderman et même le logiciel de rendu 3D open source Blender !
Tout pour l’IA
Au-delà de l’image de synthèse, ces nouveaux GPU NVidia veulent aussi s’imposer dans l’univers de l’intelligence artificielle. Outre les cœurs RT et cœurs CUDA, ils embarquent également jusqu’à 576 « Tensor Core » dédiés à l’accélération des phases d’apprentissage et d’inférence des moteurs de Deep Learning. Ces cœurs IA sont apparemment identiques à ceux des accélérateurs Tesla V100 de NVidia (les GPU qui équipent notamment les serveurs DGX-1 et DGX-2 dédiés à l’IA de NVidia, cf “des infrastructures dédiées à l’IA”). Rappelons qu’un GPU Tesla V100 embarque, quant à lui, 610 « Tensor Cores ». L’accélération procurée par ces coeurs GPU est aujourd’hui supportée par les moteurs de Deep Learning les plus populaires tels que Tensorflow, Caffe2, MXNet et CNTK ainsi que les moteurs d’exécution de modèles comme Windows ML (intégré dans Windows 10).
La concrétisation des workstations 3D virtuelles
Profitant du potentiel de ces nouveaux processeurs, et dans la lignée de ce qu’il avait fait avec ses Tesla V100 (en lançant ses serveurs « IA » DGX-1 et DGX-2), le constructeur en a profité pour annoncer un nouveau serveur dédié, le Quadro RTX Server (basé sur les GPU Quadro RTX), dédié à la génération d’images de synthèse et au support de stations graphiques virtuelles par le biais de son logiciel Quadro Infinity permettant de partager un même GPU entre plusieurs postes VDI dédiés à la 3D. De quoi concrétiser enfin des scénarios dans lesquels les infographistes freelances travaillant sur un film ou les ingénieurs externes travaillant sur un nouvel avion peuvent accéder pleinement, via de simples postes distants, aux logiciels de conception 3D et projets de l’entreprise sans avoir à faire sortir les données du datacenter.
Bref, cette nouvelle génération marque donc une importante et logique évolution du rôle des GPU au sein des postes de travail et des stations graphiques afin de contribuer à multiplier et diversifier les usages de l’intelligence artificielle et de la réalité mixte dans nos ordinateurs quotidiens.