Choisir la meilleure TV pour le gaming
Les sigles des téléviseurs sont parfois confus. Pourtant, ils sont là pour déterminer quelle TV est la plus adaptée à votre utilisation.
Le FULL HD, c’est du passé ?
Le Full HD est la définition la plus répandue sur nos téléviseurs et même sur les écrans d’ordinateur. Elle est indispensable pour afficher du contenu au format 1920 x 1080. Il s’agit de la définition standard depuis quelques années, et encore pour longtemps.
La plupart des contenus (vidéo, jeux, etc.) étant dans ce format, la résolution Full HD est le minimum que vous devez vous imposer pour profiter d’une bonne qualité. Une question peut toutefois survenir : est-ce plus intéressant de choisir du 4K plutôt que du Full HD ?
La résolution Full HD est le minimum que vous devez vous imposer.
La 4K (4 096 x 2 160) permet une définition encore plus précise que la Full HD à condition que votre média soit compatible. Par exemple, si vous possédez un écran 4K, mais que vous branchez une Xbox 360, qui n’est pas compatible, la définition sera celle de la console, à savoir HD ou Full HD. En revanche, si vous branchez une PS4 Pro, qui est compatible 4K, vous pourrez profiter d’un meilleur rendu. Il en est de même avec les films.
Il peut arriver que vous croisiez la dénomination “4K Ultra HD”. La vérité étant que les téléviseurs grands publics se vantent d’être compatibles 4K (4 096 x 2 160) alors que leur définition réelle est de 3840 x 2160 pixels. C’est cette différence qui leur vaut l’appellation UHD (Ultra HD), car il ne s’agit pas d’une vraie 4K.
On retrouve plus communément de la vraie 4K au cinéma car elle permet un affichage optimal sur les toiles puisque plus étiré sur les côtés.
Alors, faut-il craquer pour la 4K ? Si vous possédez une console compatible, il serait dommage de ne pas en profiter.
Il faut savoir tout de même qu’une définition si grande compressée dans un trop petit écran ne sera pas flagrante. C’est pourquoi les téléviseurs de plus de 90 cm (35 pouces) sont à privilégier. C’est d’ailleurs au-delà de cette taille que le Full HD atteint ses limites.
Si vous vous posez des questions sur la 8K, qui crée une image deux fois plus définie que la 4K, sachez qu’elle existe déjà depuis quelques années, mais n’est pas encore prête pour le grand public.
Les jeux ne sont d’ailleurs pas encore développés pour de la 8K. Dès 2022, le Japon devrait cependant commencer à commercialiser les premiers téléviseurs 8K. Ces derniers permettront d’admirer une définition ultra précise sur des programmes TV principalement.
On retrouve aussi la 8K dans le milieu professionnel. Lorsqu’il s’agit d’afficher des publicités sur des écrans gigantesques, les annonceurs choisissent cette définition pour garder une image nette.
En ce qui concerne la 16k (et nous n’irons pas plus loin, car nous n’en sommes pas encore capables), elle existe aussi dans le milieu de la télévision pour des retransmissions d’événements sportifs par exemple. La caméra filme en 16K, mais retransmet du Full HD ou de la 4K.
Une image d’une taille si grande permet par exemple de zoomer sur un joueur de tennis sans perdre en qualité et sans même que le spectateur ne s’en rende compte.
[Pour profiter pleinement de la 4K], les téléviseurs de plus de 150 cm (59 pouces) sont à privilégier.
LED, LCD, OLED, QLED, à l’aide !
Avant toute chose, les écrans LED n’existent pas.
Les LED sont de petites diodes électroluminescentes à l’intérieur de la dalle du téléviseur qui s’allument, s’éteignent et changent de couleur pour afficher une image.
L’appellation LED désigne donc un système d’éclairage et non pas une technologie d’affichage. Il s’agit donc d’un abus de langage.
Un écran LED est en vérité un écran LCD avec une technique d’éclairage différente.
Un écran LED est en vérité un écran LCD avec une technique d’éclairage différente.
Là où l’écran LCD va afficher une image par rétroéclairage, l’écran LCD LED lui, va projeter de la lumière sur un certain nombre de pixel via une diode luminescente.
Ces deux techniques d’affichage présentent chacune des avantages et des inconvénients :
Aujourd’hui, même si la technologie LCD est maîtrisée et se produit facilement, les téléviseurs dits “LED” sont plus aboutis, car ils compensent les faiblesses de leur prédécesseur.
Choisir un écran LCD ne sera pas une erreur, mais au vu des tarifs appliqués sur les deux types de téléviseurs, il serait plus judicieux d’opter pour un écran LCD LED. En revanche, si votre budget vous le permet, vous pouvez monter d’un cran et jeter votre dévolu sur un autre type de téléviseur : la TV OLED.
Nous venons de voir que les TV LED permettaient un affichage amélioré, car l’éclairage de la dalle est plus localisé et donc plus précis. Les écrans OLED, eux, permettent d’obtenir une image encore plus précise grâce à une technologie d’affiche plus sophistiquée.
Chaque pixel de l’écran est géré individuellement par une diode qui peut s’allumer, s’éteindre ou changer de couleur sans dépendre ni des autres ni d’un rétroéclairage. L’OLED possède des avantages que les écrans LCD ne peuvent égaler :
- Des noirs infinis (puisque la diode n’a qu’à s’éteindre pour obtenir un noir parfait)
- Des contrastes plus naturels
- Un écran ultra fin et plus léger (plus besoin de dalle rétroéclairée)
- Une consommation d’énergie plus faible
L’inconvénient de ce type d’écran c’est que toutes ces prouesses ont un prix. La production étant plus complexe, le marché ouvre les portes de l’OLED autour des 1000€.
Le marché ouvre les portes de l’OLED autour des 1000€.
L’OLED n’est pas à confondre avec le QLED, qui se résume au LCD équipé d’une dalle rétroéclairante. Finalement, l’intérêt face à la technologie OLED n’est que minime. Bien qu’elle offre techniquement une plus grande luminosité et un espace colorimétrique plus large, elle n’en demeure pas moins inférieure à l’OLED pour les raisons citées plus haut.
Des blancs plus blancs que blancs
Si vous avez déjà fait votre choix quant au type de dalle que vous souhaitez, reste un énième sigle sur le téléviseur qui pourrait créer de nouvelles interrogations : le HDR.
Le HDR, c’est le High Dynamic Range. Le terme HDR sans autres indications n’est en fait qu’un terme générique qui définit un traitement numérique de l’image. Il permet de déboucher les tons sombres et améliorer les zones plus lumineuses.
Les téléviseurs équipés de cette technologie affichent généralement une image plus riche en couleur. Pour profiter du HDR, il suffit que ce dernier soit d’office compatible ou qu’il subisse une mise à jour le rendant compatible. Le HDR ne dépend pas de pièce électronique, mais d’algorithme spécialement conçu.
En jeu, cela se traduit par des lumières plus réalistes et des noirs encre plus profonds. Des jeux comme Ghost Recon: Wildlands, Horizon: Zero Dawn ou encore No Man’s Sky s’en voient sublimés. Évidemment, le HDR n’a pas de réelle utilité dans les jeux compétitifs.
Le HDR se décline communément sous la forme de la norme HDR10. Il s’agit du traitement grand public, que l’on peut croiser à la TV, sur des services de streaming comme Netflix ou la plupart des jeux “compatibles HDR”. Toutes les normes HDR incluent d’office au minimum le HDR10.
Techniquement, les calculs opérés par l’algorithme du HDR10 déterminent le pic le plus sombre et le pic le plus lumineux, en font une moyenne et optimisent le spectre lumineux.
D’autres types de HDR travaillent plus précisément sur ces écarts, c’est le cas du Dolby Vision et du HDR10+ qui ne déterminent pas ces pics sur toute la durée du média, mais qui les traitent en temps réel, plan par plan. Ces technologies ne sont cependant pas encore disponibles sur nos jeux à l’heure actuelle. La Xbox One est en passe d’être compatible avec le Dolby Vision, mais uniquement pour le streaming vidéo. Sony devrait suivre naturellement cette voie, jusqu’à la compatibilité sur les jeux dans un futur plus ou moins proche.
Pour profiter pleinement du HDR, il vous faut donc un téléviseur compatible HDR, une console compatible (la PS4, PS4 Pro, la Xbox One X ainsi que la Xbox One S le sont) et un jeu compatible.
Un maximum de frags par seconde
Le sigle FPS signifie Frame Per Second. C’est le nombre d’images affichées chaque seconde. 30fps signifie que 30 images sont affichées en une seconde. Plus ce nombre est élevé, plus le rendu sera fluide. Communément, c’est le 24 images par secondes qui prédomine. C’est celui de la plupart des films ou des vidéos que vous regardez au cinéma, en streaming sur YouTube ou Netflix.
Dans les jeux vidéo, mais aussi pour certaines vidéos sur le web, il est possible de monter jusqu’à 60 images par seconde. Le rendu est alors plus réaliste, les mouvements sont beaucoup plus perceptibles même à haute vitesse. C’est d’ailleurs le standard de bien des joueurs PC qui préfèrent ne pas aller sous la barre des 60fps afin ne pas altérer leur expérience de jeu. C’est d’autant plus important que dans les jeux compétitifs, plus de FPS signifie plus de clarté dans les actions (gunfight, team fight, etc.).
Les consoles ne sont malheureusement pas toujours capables d’atteindre les 60fps. Elles le peuvent techniquement, mais le jeu doit être compatible. En règle générale, les jeux consoles tournent autour des 30fps, mais certains titres sont disponibles en 60fps comme DOOM, inFAMOUS Second Son ou encore Gear of War 5.
Pour obtenir les 60fps ou un entre-deux (certains jeux compatibles 60fps oscillent en fait entre 45 et 60fps), le téléviseur que vous choisirez doit avoir une fréquence de rafraîchissement de 60hz. C’est le cas de beaucoup de modèles bien que certains dépassent les 100hz permettant logiquement d’atteindre plus de 100fps (si vous branchez la TV sur un PC bien entendu, car une console ne peut pas dépasser les 60fps).
Les consoles ne sont malheureusement pas toujours capables d’atteindre les 60fps
Le taux de rafraîchissement est en fait le nombre de fois par seconde qu’un téléviseur va renouveler l’image affichée. Si vous souhaitez que votre TV affiche du 60fps, elle doit être capable de rafraîchir son image 60 fois par seconde. Ainsi, vous jouirez d’une fluidité optimale, surtout si votre TV a un input lag faible.
Action, réaction !
L’input lag peut devenir une tannée, surtout si vous jouez sur des jeux compétitifs et/ou exigeants.
Il s’agit en fait d’un retard d’affichage entre la source (ici une console de jeu) et la TV. Par exemple, en appuyant sur une touche pour faire une action, au lieu que celle-ci soit instantanée, il va y avoir quelques millisecondes de retard.
En jouant à un jeu à 60fps, une image s’affiche toutes les 16ms et si vous téléviseur est doté d’un input lag de moins de 16ms, vous ne verrez pas de différence, car ce retard ne serait que d’une image. A 32ms, c’est deux images de retard que vous constateriez, ce qui n’est toujours pas gênant. Prévoyez donc un téléviseur qui ne dépasse pas les 50ms sauf pour les plus compétitifs d’entre vous qui devront alors viser les 20ms. Cette valeur n’est pas indiquée dans la fiche technique par les constructeurs et se trouve généralement en effectuant des tests.
Prévoyez donc un téléviseur qui ne dépasse pas les 50ms sauf pour les plus compétitifs d’entre vous
Vous lirez souvent une valeur exprimée en milliseconde elle aussi, mais il s’agit là du temps de réponse, qui est une caractéristique différente. Le temps de réponse, c’est le temps que met l’écran à passer d’une image à l’autre en allumant ou éteignant des “pixels”. Idéalement, le temps de réponse, aussi appelé temps de rémanence, ne devrait pas excéder les 5ms avant de se faire remarquer par les plus pointilleux des joueurs. Au-delà, on peut constater des effets de rémanence : les pixels mettant trop de temps à s’éteindre créent des sortes de traînées lumineuses derrière les objets en mouvement.
L’input lag et le temps de réponse sont donc deux valeurs très liées. Si un ennemi surgit sur le côté, le temps de réponse rapide va vous permettre de le distinguer rapidement tandis qu’un input lag faible va transformer votre appui sur la gâchette en réaction quasi instantanée.
Chacun sa route, chacun son écran
La définition d’un bon écran va dépendre de votre profil de joueur. Vous l’aurez compris, si vous jouez à des jeux compétitifs, il faudra prioriser l’input lag, le temps de réponse et la fréquence de rafraîchissement pour un résultat parfaitement fluide et réactif. Si vous êtes un joueur de jeux solo et que l’immersion est votre objectif, le rendu sera plus important et des caractéristiques comme le HDR seront plus adéquats.
Il ne faut pas oublier que la 4K n’est pas en phase de devenir un standard pour le moment et le Full HD a de longues années devant lui, tout comme l’OLED qui devrait se démocratiser au fil du temps avec des prix de plus en plus bas, espérons-le. D’autant plus que ces deux dernières caractéristiques (HDR inclus) sont de réels atouts pour profiter pleinement d’une séance cinéma.