Débattre sur la présence de DLC dans un jeu, c’est tellement 20XX ! En 201X, le nouvel objet de scandale qui fait rager, ce sont ces jeux qui ont l’outrecuidance de ne pas être en 60 FPS et 1080p sur consoles !Éléments de réponse.

Pour 100 images par seconde, t’as plus rien

Allez, souvenez-vous de vos cours d’optique au collège. Vous le savez, mais c’est bon de le rappeler, quand vous regardez une vidéo ou un jeu, vous ne regardez pas vraiment une image en mouvement mais en fait plein d’images fixes diffusées très vite les unes à la suite des autres. Ça va alors trop vite pour votre cerveau qui se fait hacker et a l’impression qu’il s’agit en fait d’une image en mouvement : on explique ça par l’effet phi (et non par la persistance rétinienne comme on a dû pourtant vous le dire).

En gros, quand vous regardez quelque chose, votre cerveau est bombardé par un flux continu de stimulations visuelles (la réalité n’est pas divisée “image par image”, elle) mais pour rendre ça gérable, votre système visuel fait, pour le dire simplement, la synthèse de tous les changements visuels qui se sont produits pendant le dernier dixième de seconde avant de vous en rendre compte.

C’est ce qui explique qu’on puisse créer l’illusion du mouvement en enchaînant des images fixes, et pas forcément à 24 images par secondes comme on vous l’a toujours dit à cause du cinéma. L’impression de mouvement peut en effet avoir lieu dès 5 ou 6 images par seconde et on peut avoir quelque chose de fluide dès 10 images par seconde, c’est pourquoi la plupart des dessins animés sont bien en-dessous des 24 images par seconde, qui n’est qu’une norme arbitraire. Si elle a été adoptée et imposée par l’industrie du cinéma, c’est simplement car c’était celle qui se prêtait le mieux à la projection en salles obscures tout en restant la plus économique (la pellicule, c’est de l’argent !).

Bref, ce qu’il faut retenir, c’est qu’il n’y a pas de “règle” générale ou de nombre d’images par seconde parfaitement optimal et ce n’est pas parce que le taux d’images par seconde est faible que le rendu sera forcément de mauvaise qualité.

Ma télé va craquer

Le truc, c’est que le jeu vidéo est un peu différent du cinéma, pour plusieurs raisons. D’abord, parce qu’il ne s’agit pas de prises de vue (on ne filme pas avec une caméra qui prend X photos par seconde une bonne fois pour toutes) mais d’images générées par un ordinateur ; ensuite, parce qu’il se pratique sur des télés (ou plutôt, des écrans électroniques). Ces dernières rafraîchissent leur image 50, 60, 100 ou 120 fois par seconde : ce sont les fameux Hertz (Hz). Un jeu vidéo, à la différence d’un film, calcule une par une les images à afficher (une image étant appelée “une frame”), puis les affiche, et c’est ce qui nous permet de voir Pac-Man avancer dans son labyrinthe ou le Master Chief se prendre une grosse bastos dans la tronche. Vous aurez donc compris qu’un jeu en 30 FPS sortira 30 frames en une seconde et qu’en 60 FPS, il proposera 60 frames pendant la même seconde. L’image sera mieux décomposée et le rendu à l’écran plus fluide. Les écrans modernes, eux, s’adaptent.

Concrètement, qu’est-ce que ça change ? En fait, ça dépend. Prenons des exemples. D’abord, un jeu de tir très nerveux, genre Call of Duty. On voit à travers les yeux du personnage, on va très vite et quand on déplace la caméra et on veut tout de suite pouvoir faire mouche avec flingue dont le réticule apparaît à l’écran. Bref, plus le jeu va être fluide, plus on va pouvoir être précis. A 30 images par seconde, on va être un peu juste. A 60 FPS, tout est bien, d’autant que le jeu a été pensé pour cette vitesse.

Prenons maintenant un Assassin’s Creed, récemment au coeur du scandale. C’est un jeu d’action, certes, mais à la troisième personne, où les déplacements de caméra sont plutôt lents, où les actions sont contextuelles et le ciblage automatisé. Bref, c’est moins une histoire de réflexes. Le jeu est en plus gorgé d’effets, et notamment de flou cinétique (que vous connaissez sûrement mieux sous le nom de motion blur). Le flou cinétique existe déjà au cinéma et en photo : quand on prend un cliché d’un objet en mouvement, il est flou car il s’imprime dans la pellicule à plusieurs endroits en même temps. Dans la réalité, “rien” n’est flou quand il se déplace : si quelque chose est trop rapide, on ne le voit juste plus ou en continu, pensez à une hélice par exemple. Mais le flou cinétique, c’est très classe et c’est ce qui représente le mouvement dans nos têtes. C’est pourquoi, la plupart des jeux en 3D en comportent aujourd’hui, ce qui “compense” l’animation moins décomposée en 30 plutôt qu’en 60 FPS. Ce GIF à 25 images par secondes vous montre bien de quoi il s’agit.

Choisir, c’est renoncer

Vous me direz “mais pourquoi ne pas tout faire à 60 FPS ou plus ?” Eh bien, parce que calculer ce qu’il y a sur une image, c’est compliqué, surtout quand il faut en sortir 60 dans la seconde et qu’il y a beaucoup de choses sur l’écran donc beaucoup de choses à calculer. C’est là qu’arrivent les saccades, les ralentissements, les “chutes de framerate”. Si le jeu n’arrive plus à calculer autant d’images que nécessaire et qu’on passe d’un coup de 60 images par secondes à 20, là oui, ça se voit. C’est pourquoi les développeurs peuvent prendre la décision d’être moins ambitieux, et de vouloir offrir 30 belles images par seconde quoiqu’il arrive que de prendre le risque d’afficher 60 images par seconde par moments et (beaucoup) moins lors qu’un passage comporte trop d’effets à calculer. Sur PC en tout cas, chaque joueur prend ses responsabilités vis à vis du rendu en modifiant ses options comme il souhaite par rapport à sa machine. Sur console, le dev’ sait à l’avance comment se comportera le jeu (le hardware est fixe), il doit donc les régler une fois pour toutes, et donc opter pour des paramètres qui feront loi pour tous.

Bref, ce qu’il faut comprendre, c’est que 60 images par seconde ne sont pas forcément la panacée, surtout si le jeu est lent et le point de vue externe. Le gain en détails et en fluidité peut être très limité par rapport à un travail technique colossal à produire. Les développeurs devant sortir des jeux régulièrement s’ils veulent gagner leur vie, ils ne vont pas forcément chercher la prouesse technique mais le rendu final. Et il peut s’avérer parfois plus simple de viser un beau 30 FPS dans un jeu pensé pour que cette vitesse d’affichage ne pose pas problème. Ubisoft à propos d’Assassin’s Creed Unity ou Bethesda à propos de The Evil Within n’avaient donc pas tout à fait tort en expliquant que c’était un choix artistique.

Pour aller plus loin dans ces explications, ce site vous permet d’essayer plein de situations de vitesses de défilement et de nombres d’images par seconde. Gardez bien en tête que vous essayez de voir la différence en vous concentrant sur des objets très simples, ce qui n’est pas du tout le cas pendant une partie où vous êtes concentrés sur plein de choses à la fois…

Deux autres dossiers assez éclairants sur le sujet : celui de NoFrag et celui de GrosPixels.

1080p : la bonne résolution ?

Les débats ont également fait rage récemment quant au rendu en 1080p ou non d’un jeu. Assassin’s Creed Unity sera par exemple bloqué à 900p ! Scandale ! Les choses sont un peu plus simples que pour le framerate, mais les idées sont un peu brouillées dans nos têtes car il y a eu, cette dernière décennie, toute une guerre du lexique dans l’univers des télés et des écrans. HD, THD, Ultra HD, 2K, 4K, 1080i, 1080p… Beaucoup d’appellations parfois tordues un peu n’importe comment pour faire du marketing.

Ce qu’on entend par écran 1080p, c’est qu’il y a 1080 lignes de pixels entre le haut et le bas de l’écran. Combien y a-t-il de colonnes de pixels ? Ca dépend de s’il s’agit d’un écran 16/9 ou 16/10. Le cas standard est le 16/9, soit 1920×1080 pixels (soit près de 2,1 millions de pixels). Un “jeu 1080p” est donc capable de sortir ses images avec une résolution équivalente, A titre de comparaison, 720p désigne une résolution de 1280×720 pixels en 16/9 et nos télévisions cathodiques étaient, elles, en 720×576.

Qu’est-ce qu’une résolution ? C’est simplement le nombre de pixels qui composeront l’image (de votre jeu). Plus ce nombre est grand, plus l’image sera précise et détaillée, mais aussi plus le jeu aura de calculs à effectuer pour indiquer ce que doit afficher chaque pixel. Pour les mêmes raisons techniques que tout à l’heure, si le joueur PC pourra généralement pousser comme il veut les manettes, le joueur console, lui, doit avoir une expérience optimale. Et parfois, pour éviter les ralentissements, on décide d’afficher un peu moins de pixels.

Là aussi, les télévisions modernes s’adaptent pour qu’un rendu en 720p sur une télé 1080p soit adouci. Le résultat concret est que plusieurs pixels de l’écran vont partager le même rendu alors qu’ils pourraient afficher des choses différentes : on va avoir un effet d’escalier, plus ou moins prononcé selon la résolution source et l’écran et plus ou moins visible selon la distance où l’on se trouve. Maintenant, il ne faut pas oublier que cela se joue en finesse, au niveau des contours des éléments à l’écran, que l’on n’est pas forcément focalisé dessus et que les téléviseurs compensent cela.

Un rendu 900p, la solution intermédiaire choisie par Ubisoft pour Assassin’s Creed Unity sur consoles, correspond à 1600×900 pixels. Soit environ 31% de pixels en moins… Ça paraît beaucoup, mais passé un mètre de distance avec l’écran, la perte de détails n’est plus visible à l’œil nu. Là aussi, les joueurs se sont peut-être emparé d’un débat qui pose moins problème sur console que sur PC, où l’on joue tout près de son écran…