Sommaire :
Page 1 : Introduction & Comment ça marche ? [Vous êtes ici] Page 2 : Comment ça fonctionne ? Page 3 : Le mot de la fin
L’annonce a commencé au CES, il y a près de 12 mois. NVIDIA a annoncé GeForce Experience, une solution logicielle pour le problème du choix des paramètres graphiques optimales pour votre PC dans les jeux auquel vous jouez. Avec des jeux issus de la console, le développeur a déjà sélectionné ce qu’il estime être le juste équilibre entre la qualité visuelle et la fréquence d’image. Sur le PC, ces décisions sont laissées à l’utilisateur final. Nous avons vu quelques jeux essayer de résoudre le problème en limitant le nombre d’options graphiques disponibles. Après tout, les joueurs PC sont connus pour bidouiller les paramètres – c’est juste un élément attendu de l’expérience. Dans une tentative d’élargir la base d’utilisateurs de jeu PC (probablement peu motivé par un manque de console next-gen). NVIDIA teste déjà un grand nombre de jeux à travers un large éventail de matériel NVIDIA, il a donc une bonne idée de ce que les meilleurs réglages peuvent être pour chaque combinaison jeu / PC.
Également au CES 2013 NVIDIA a annoncé Project Shield, rebaptisé juste Shield . Le système de jeu Android propose une autre fonction: il peut être utilisé pour jouer à des jeux PC sur votre TV, le streaming directement depuis votre PC.
Enfin NVIDIA a été en prise avec Valve et son Steam OS et sa Steam Machines.
NVIDIA essaie de mettre les aspects de la console de jeu pour PC. Vous pouvez aller plus loin et dire que NVIDIA semble être très motivés pour améliorer le jeu et pousser des graphismes de qualité et des fréquences d’images plus élevées.
Tout cela a un sens, après tout. Avec ATI et AMD pleinement intégrés, et Intel s’est finalement mis sérieusement à la partie graphique (un peu), NVIDIA doit faire beaucoup plus pour dominer dans l’industrie à l’avenir. Il suffit de mettre les bons GPU.
La dernière tentative de NVIDIA est G-Sync, une solution matérielle pour les écrans qui permet un taux de rafraîchissement semi-variable entraînée par une carte graphique pris en charge par NVIDIA. Le principe est assez simple à comprendre. Le GPU affiche et met à jour le contenu de manière asynchrone. Un écran d’affichage se met à jour à intervalle fixe (son taux de rafraîchissement), habituellement 60 fois par seconde (60 Hz) pour la majorité des écrans. La spécificité du gaming pourrait soutenir des taux de rafraîchissement élevés de 120Hz ou 144Hz.
Lorsque vous avez une image qui arrive au milieu d’un rafraîchissement, l’écran finit l’affichage de plusieurs images sur l’écran en même temps. L’affichage des parties de plusieurs images en même temps peut entraîner des artefacts visuels, la séparation des images individuelles. Vous remarquerez que la déchirure (tearing: saccade de l’image) (saccade) des lignes / objets horizontales qui semblent défiler sur l’écran. Il peut être incroyablement distrayant.
Vous pouvez éviter la déchirure (tearing: saccade de l’image) en gardant le GPU et l’affichage en totale synchronisation. L’activation vsync fait juste cela. Le GPU sera le seul contrôle hors de l’écran en synchronisation avec la fréquence de rafraîchissement. La déchirure (tearing: saccade de l’image) s’en va, mais vous obtenez un nouvel artefact: le scintillement (stuttering: micro-saccade).
Parce que le contenu de chaque affichage d’un jeu peut varier énormément, la vitesse de défilement du GPU peut être tout aussi variable. Une fois de plus nous nous trouvons dans une situation où le GPU veut présenter un affichage de synchronisation avec l’écran. Avec vsync activé, le GPU va attendre pour délivrer l’image jusqu’à la prochaine période de rafraîchissement. Tant que vous avez un taux de rafraîchissement qui n’est pas parfaitement aligné avec votre taux de rafraîchissement, vous verrez un scintillement (stuttering: micro-saccade).
G-Sync vise à offrir le meilleur des deux mondes. Pas de déchirure (tearing: saccade de l’image), pas de scintillement (stuttering: micro-saccade) (stuttering: micro-saccade). Et bien sûr, uniquement disponible sur les GPU NVIDIA avec un écran G-Sync.
Comment ça marche?
G-Sync fonctionne en manipulant le VBLANK de l’écran. VBLANK est la période de temps entre l’affichage de la dernière ligne d’image actuel et l’image de la première ligne de la ligne suivante. C’est ce qu’on appelle un intervalle parce que pendant ce laps de temps aucune mise à jour de l’écran ne se produit, l’affichage reste statique, affiche l’image en cours avant de traiter la suivante. VBLANK est un vestige de l’époque CRT où il était nécessaire pour lancer la numérisation en haut de l’écran une fois de plus. L’intervalle reste aujourd’hui dans les écrans plats LCD, même si elle est techniquement inutile. Le module G-Sync à l’intérieur de l’écran modifie le VBLANK pour provoquer l’affichage et tenir l’image actuelle jusqu’à ce que le GPU soit prêt à livrer de nouveau l’image suivante.
Dans les implémentations actuelles, la plus longue de chez NVIDIA peut contenir une seule image de 33.3ms (30 Hz). Si l’image suivante n’est pas prêt d’ici là, le module G-Sync indique à l’affichage de régénérer la dernière image. Limité par l’écran / TCON, le seule moniteur G-Sync disponible aujourd’hui à aller aussi haut est de 6.94ms (144Hz). NVIDIA a mentionner que la limitation de 144Hz n’est pas une limite G-Sync, mais une limite de l’écran.
La carte mère G-Sync elle-même dispose d’un FPGA de 768 Mo de mémoire DDR3. NVIDIA affirme que la DRAM embarquée n’est guère plus grande que ce que vous trouverez généralement dans un scaler. La DRAM ajoutée est partiellement nécessaire pour permettre d’avoir plus de bande passante mémoire (appareils supplémentaires DRAM physique). NVIDIA utilise la mémoire pour un certain nombre d’éléments, dont l’un consiste à stocker l’image précédente de sorte qu’elle puisse être comparée à l’image entrante pour les calculs de surmultiplication.
Le premier module G-Sync prend en charge que la sortie du DisplayPort 1.2, mais rien n’empêche techniquement NVIDIA de rajouter un support pour HDMI / DVI dans les futures versions. De même, la carte mère actuel G-Sync ne fonctionne pas avec l’audio mais NVIDIA prétend qu’il pourrait être ajoutée dans les futures versions (la pensée de NVIDIA ici est que la plupart des joueurs veulent autre chose que des haut-parleurs intégrés dans ses écrans). La dernière limite de la première mise en œuvre du G-Sync est qu’il ne peut se connecter à des écrans LVDS. NVIDIA prévoit l’activation du support V-by-One dans la prochaine version du module G-Sync.
L’activation de G-Sync a un faible mais mesurable impact sur les performances. Après que le GPU ai rendu une image avec le G-Sync d’activée, il va commencer à scruté l’écran pour voir si elle est dans une période VBLANK. Le balayage prend environ 1 ms, ce qui correspond à 3 – 5% sur les performances par rapport à la v-sync d’activée. NVIDIA travaille sur l’élimination du scan entièrement, mais pour l’instant c’est comme ça que cela fonctionne.
NVIDIA a modernisé un écran ASUS VG248QE avec sa première génération G-Sync. Le V248QE est un écran 144Hz 24″ 1080p affichage TN, un bon choix pour les joueurs. Compte tenu de son prix actuel ($ 250 – $ 280) et se concentre sur un taux de rafraîchissement très élevé, il y a forcément des compromis (le manque d’une dalle IPS étant le premier ici). Malgré le premier choix de NVIDIA c’est un écran TN, G-Sync fonctionne très bien avec une dalle IPS et je m’attends à voir de nouvelles expositions G-Sync annoncées dans un avenir proche. Aussi, rien n’empêche un fabricant d’écran de construire un affichage 4K en G-Sync. DisplayPort 1.2 est entièrement compatible, aussi le 4K/60Hz est le max que vous pourrez obtenir. Cela étant dit, je pense qu’il est beaucoup plus probable que nous verrons un écran IPS 2560 x 1440 avec G-Sync plutôt qu’un modèle 4K à court terme.
Naturellement, je démonte le VG248QE pour obtenir un visuel de G-Sync. Heureusement, démonter l’écran est assez simple. Après avoir dévissé la monture VESA, j’ai juste eu à soulever la lunette arrière de l’écran. Avec le moniteur sur le dos, j’ai utilisé un tournevis à tête plate pour commencer la séparation de la matière plastique en utilisant les deux découpes sur le bord inférieur de l’écran. Je suis ensuite allé le long du bord de l’écran, séparé de la lunette arrière jusqu’à décroché tous les verrous. C’était vraiment très facile à démonter.
Une fois à l’intérieur, c’est juste une question de déconnexion de certains câbles et dévisser quelques vis. Je ne suis pas sûr de ce a quoi l’VG248QE ressemble normalement, mais à l’intérieur de la version modifiée du G-Sync la cage métallique qui abrite la carte principale est tout simplement scotché à l’arrière de l’écran d’affichage. Vous pouvez aussi voir que NVIDIA a laissé intact les haut-parleurs, il n’y a tout simplement pas de place pour les connecter.
Nvidia a fait son propre PCB et a ainsi monté le module G-Sync dessus.
Le module G-Sync ressemble à ce que NVIDIA a inclus dans ses matériaux de presse. Les dispositifs 3 x 2 Go DDR3 sont clairement visibles, tandis que le FPGA est caché derrière un radiateur. le retrait du dissipateur révèle ce qui semble être un FPGA Altera Arria GX V.
Le FPGA inclut une interface LVDS intégré, ce qui le rend parfait pour son rôle ici.
Sommaire :
Page 1 : Introduction & Comment ça marche ? [Vous êtes ici] Page 2 : Comment ça fonctionne ? Page 3 : Le mot de la fin
je pense que sa va révolutionner le monde du gaming :D
J’ai bien envie de test ça ! :D