Oui, aujourd'hui j'ai envie de parler de caméra, mais surtout des gens derrière cette caméra. Un metteur en scène, s'il fait bien son boulot, peut faire d'une histoire simple un grand moment plein d'émotions et de puissance narrative. Un metteur en scène qui ne branle rien, au contraire, peut faire du meilleur des scénarii le plus gros nanard de l'histoire de l'humanité. Et dans les jeux vidéos, c'est pareil. Le problème c'est que trop souvent, et souvent sans raison, on nous donne à nous, joueurs, la responsabilité du cadre. Est ce pertinent? Intelligent? Ou juste l'exemple flagrant de pures feignasses de la caméra? 

Afin d'appuyer ma critique, je vais prendre comme fil rouge la série des Final Fantasy, qui va condenser en un seul univers toute la thématique de ce billet. En prenant les épisodes sortis sur PSX, puis sur PS2, et enfin PS3 et 360, je vais tenter d'expliquer qu'une caméra mobile doit avoir un intérêt dans le gameplay, sinon elle n'est pas justifiée, et revient à dire aux joueurs "bon, on avait la flemme de la mettre en scène, donc démerde toi". Et je note trop souvent que c'est le cas, et que les joueurs l'acceptent sans broncher. 

Il est déjà intéressant de noter, lorsqu'on s'attarde sur la série des FF, qu'à l'ère de la 3D, Squaresoft privilégia une série de caméras fixes, comme son compère Capcom avec la série des Resident Evil. D'une époque où les joueurs n'avaient pas forcément une dualshock, il était de bon ton d'éviter de se priver d'une partie de l'audience en imposant un contrôle de la caméra. Ces premiers pas de la 3D furent le terreau de nombreuses tentatives pour contrôler cette caméra. Caméra fixe on l'a dit, mais aussi la fameuse touche qui replace la caméra derrière le personnage, grand classique qu'on retrouva sur nombre de titres Dreamcast notamment, puisque la manette n'avait qu'un seul stick. Mais même sur Playstation, avec un titre en full 3D comme Ape Escape par exemple, alors que le jeu se jouait uniquement à la dualshock, le deuxième stick ne servait pas à contrôler la caméra, mais le filet à papillon du personnage. Pour les Final Fantasy de cette génération, le jeu était une succession de tableaux 2D tous plus beaux les uns que les autres, où nos personnages en 3D pouvaient se déplacer dans des couloirs camouflés. Ainsi, Squaresoft mettait déjà en scène son univers, son scénario, en proposant un montage naturel au joueur, qui savait toujours ce qu'il devait regarder, puisque le plan était fixe. Par la suite Square s'amusa à intégrer à ces plans des animations en images de synthèse afin d'apporter plus de dynamisme et de mouvement à une mise en scène qui commençait à perdre de sa fraicheur. A la même époque, Konami utilisa une mise en scène novatrice sur Metal Gear Solid, où le joueur n'avait pas à contrôler directement la caméra, mais se voyait offrir différents outils afin de toujours avoir une vue claire de son environnement 3D. Que ce soit la caméra qui change d'angle automatiquement lorsqu'on se plaque contre le coin d'un mur, où qui passe à la première personne lorsqu'on rentre dans un endroit confiné.. Tout ça ajouté au radar Soliton, faisait qu'on ne souffrait pas de ne pas contrôler la caméra (et on verra que par la suite ce n'était plus vraiment le cas). 

 

C'est donc après cette génération de caméras indépendantes, même sur les jeux de plateforme comme Crash Bandicoot ou Pandemonium, que le problème survint. Avec des machines comme la N64 ou la Dreamcast, les développeurs en sont venus à nous faire émuler un deuxième stick avec des boutons. De manière assez intelligente sur Nintendo avec par exemple les quatre boutons C, ou bien de manière plus foireuse sur Dreamcast, en utilisant les quatre boutons de la manette pour bouger le personnage ou la caméra, ne laissant au joueur que les deux gachettes et les fleches (les joueurs PSP savent bien de quoi je parle.). Ce procédé avait lieu la plupart du temps sur des FPS, il faut bien le dire, et heureusement, car émuler un stick avec des boutons, c'est vraiment une grosse connerie. Fort heureusement, la plupart du temps, la fameuse gachette qui recentre la vue était de mise. Et sur cette génération de console, sur Playstation 2 plus précisément, un nouvel épisode de Final Fantasy sortit, et avec lui une nouvelle manière d'utiliser la caméra.

L'arrivée de FFX fut l'occasion de voir ce que pouvait donner une mise en scène de caméra. Grâce à des décors cette fois-ci intégralement en 3D, SquareSoft pouvait se permettre de faire bouger sa caméra, avec des travelings, des mouvements de grue, etc... La mise en scène n'était plus figée, et on gagnait en dynamisme ce qu'on perdait en qualité de détails. Un Mal pour un Bien en somme. Finalement cette nouveauté était bien utilisée, même si pour le coup, il était un peu idiot de laisser une mini map à l'écran, car on restait dans un système de couloirs, avec vraiment peu de risque de se perdre... Mais, bon, soit. Ce qu'il est intéressant de noter, c'est que sur l'épisode d'après, Final Fantasy XII, la direction de la caméra était donnée au joueur, car cette fois-ci les environnements étaient bien plus ouverts, ce qui déjà donnait un intérêt à la map, et imposait à SquareEnix de modifier sa mise en scène. Il était évident qu'on ne pouvait diriger de la même manière un jeu linéaire et un jeu ouvert, SE l'avait bien compris. Bien évidemment on peut s'imaginer un système qui permettrait d'avoir une caméra mise en scène dans un vaste environnement 3D, mais il faudrait prévoir un nombre hallucinant de plans afin d'apporter une réponse à chaque action du joueur dans cet univers. Dans ce cas-là, l'utilisation de la caméra mobile s'avère parfaitement pertinente. Du côté de Capcom, le remake de Resident Evil, puis Resident Evil 0, ont montré ce que pouvait donner la même mise en scène figée, avec les outils de son époque. Avec les décors précalculés parmi les plus splendides de notre histoire, blindés d'animations, Capcom a montré qu'il était encore intéressant d'utiliser ce système, en ayant bien sûr conscience que ça ralentissait le rythme du jeu vis à vis d'une caméra en mouvement (même si pour le cas de RE, cela se prêtait parfaitement à l'ambiance pesante du titre). Et du côté de Konami avec la série Metal Gear Solid, on a pu remarquer que malgré les nouveautés comme la vue fps disponible à tout moment, le système de caméra de la série commençait vraiment à trouver ses limites. On a pu le constater sur Metal Gear Solid 3 qui était assez punitif sur ce point, du simple fait que la caméra n'avait pas évolué avec le gameplay. 

 

Autour de ça, cette génération de console fut le point de départ d'un caméra laissée à disposition du joueur. Que ce soit sur des Jak & Daxter, Tomb Raider ou tout autre titre à la troisième personne : Au Joueur le Contrôle. De leur côté les FPS ont bien sûr accueilli l'arrivée d'un deuxième stick avec vénération, et enfin on a commencé à prendre du plaisir sur des FPS consoles. Et puis un jour, en 2005, Sony proposa God of War, un titre à la troisième personne, mais là le stick droit ne servait pas à diriger la caméra, mais à esquiver... Car dans God of War, SantaMonica a mis l'action en scène sur toute l'aventure. Le jeu étant une succession de couloirs et d'arènes, ce qui pouvait se rapprocher du level design de Final Fantasy X, en tout cas assez pour qu'on tente de mettre ainsi en scène un jeu d'action. Là où la caméra de FFX accompagnait le sentiment de voyage et la découverte d'un univers que ressentaient à la fois notre personnage et nous-mêmes; God of War s'est servi de cet outil pour transcender le grand spectacle, l'explosion épique nécessaire à un tel projet. Et le moins que l'on puisse dire, pour l'un comme pour l'autre, c'est que ça marche, et pas qu'un peu ! 

C'est avec l'arrivée de notre génération de consoles qu'on était en droit d'attendre plus de jeux de ce type, tirant partie des avancées techniques afin d'apporter un supplément d'immersion et de mise en scène à un média bouillonnant. Car il ne faut pas oublier que dans un jeu où l'on contrôle la caméra, nous sommes la plupart du temps confronté à l'arrière train de notre personnage, et ne pouvons apprécier la modélisation de son visage qu'en le plaquant contre un mur afin de bloquer la caméra (qui n'a jamais fait ça franchement?). Et malheureusement trop peu de développeurs prennent le temps de mettre en scène leur jeu. C'est déjà une erreur vis à vis de la modélisation des personnages qui ne sont que trop peu montrés (je repense au visage expressif de Lara Croft dans Tomb Raider Underworld que je ne voyais presque jamais), mais surtout une stagnation de la mise en scène qui amène de temps en temps le joueur à rater un évènement intéressant tout simplement parce qu'il "regardait ailleurs". Et si nous reprenons nos différents exemples, Final Fantasy en tête, on peut constater un véritable soucis. 

Final Fantasy XIII a un level design en majorité similaire à celui de FFX, tout en ayant une partie plus proche du système de FFXII. Malheureusement SquareEnix a choisi de conserver la caméra mobile plutôt que de reprendre une caméra mise en scène comme ce fut le cas sur le dixième opus. C'est à mon sens une erreur, car ça n'a aucune pertinence. Comme j'ai essayé de le montrer précédemment, la responsabilité de la caméra est un outil indispensable à la bonne tenue de la narration; donner cette responsabilité au joueur ne doit pas être une décision légère, mais doit trouver une justification via le gameplay du jeu. Or dans FFXIII, on circule en grande majorité dans des couloirs étroits, avec une mini-map de série (à retirer le plus tôt possible), et avec la gestion de la caméra. C'est à mon sens la plus mauvaise combinaison possible pour un jeu. Dans un titre d'action comme Gears of War ou Uncharted, la gestion de la caméra trouve son utilité dans la base même du jeu, le shooter. Mais dans un RPG, sérieusement, mais quelle idée!?! Pourquoi? Pourquoi ne pas avoir repris le système de mise en scène de FFX pour le pousser plus avant grâce à la technologie? SquareEnix a expliqué son choix de faire un jeu plus linéaire par sa volonté d'approfondir l'histoire, l'immersion, l'émotion (même si pour le coup j'ai jamais avalé cette explication)... Très bien, mais alors pourquoi avoir laissé au joueur le soin de mettre en scène le jeu? C'est incohérent et ça nuit à cette fameuse immersion tant recherchée par le développeur.

 

Ce sentiment est exacerbé par les sorties de God of War 3 et Heavy Rain, entre autres; puisque ces jeux ont montré une mise en scène de caméra particulièrement soignée, voir brillante. GoW3, qui reprend le même système que ses prédécesseurs, et donc le même que FFX, montre à quel point la maîtrise du développeur sur sa mise en scène emplifie l'immersion et la puissance narrative d'un titre. Et si on s'attarde quelques instants sur Heavy Rain, on peut tout à fait faire un parallèle avec la série des Resident Evil. Aujourd'hui la gestion de la caméra dans les RE s'apparente plus à celle d'un shooter, Capcom ayant abandonné sa mise en scène statique; mais si le développeur japonais s'inspirait de la mise en scène ingame d'un Heavy Rain, constitué de nombreux plans fixes et mobiles, la sauce prendrait immédiatement car l'outil se prête parfaitement au gameplay et à la narration des premiers RE. Et pour finir sur ces évolutions, il est intéressant de noter que pour Metal Gear Solid 4, Kojima a repris ce qu'il avait déjà entrepris sur MGS3: Subsistance, à savoir ouvrir l'environnement à une caméra mobile pour un plus grand confort du joueur. Un choix particulièrement sage compte tenu de l'orientation du jeu en terme de gameplay. 

Et c'est sans doute pour ça que j'ai intitulé ce billet "Les Feignasses de la Caméra", car comme l'ont souligné Santa Monica Studio, mettre en scène la caméra prend plus de temps et d'investissement "artistique" de la part du développeur, alors que la laisser au joueur est bien plus simple. Voilà pourquoi j'ai trop souvent le sentiment que le développeur me demande de faire son boulot, parce qu'il en avait tout simplement la flemme. Et c'est ce genre de mauvaises habitudes qu'on accepte sans y penser, et qui ne servent pas le média. On peut nous illuminer avec 50 minutes de cinématiques à tomber par terre, dotées d'une mise en scène ultra soignée... Mais on nous laisse la caméra les 10 heures restantes. Pour le coup c'est comme si on allait voir un film en performance capture, mais où chaque spectateur aurait une tablette dans les mains pour bouger lui-même la caméra de son propre écran. Pour moi c'est un manque de conscience artistique, lorsque ça n'a aucune justification (comme je le précise tout au long de ce billet). Qu'on puisse contrôler la caméra dans un shooter, c'est normal. Dans un Environnement ouvert qui se prête à l'exploration, je le comprends tout à fait. Mais lorsqu'on titre se veut linéaire pour maîtriser sa narration et sa mise en scène, alors là, donner la responsabilité de la caméra au joueur est à mon sens une idiotie. 

L'industrie vidéoludique a cet avantage insolent de n'avoir aucun soucis physique pour user de plans hallucinants dans ses oeuvres. Aujourd'hui grâce à la performance capture, l'industrie du cinéma se voit offrir ce même outil miraculeux, et entre les mains de grands réalisateurs comme Spielberg, Zemeckis, Cameron ou Jackson; cette technique a montré que sa seule limite vient du talent artistique et technique de son metteur en scène. Et c'est sans doute cela qui fait cruellement défaut à notre média, son manque flagrant de metteur en scène. Aujourd'hui la mise en scène des jeux se fait essentiellement via des scripts qui apparaissent "devant nous", ou bien par l'apparition d'une touche à l'écran pour que la caméra s'oriente automatiquement vers un évènement que le développeur veut nous montrer. On notera qu'on donne le choix au joueur d'assister ou non à un évènement narratif... Mais l'espoir d'assiter à plus de tentatives et d'investissement comme j'ai pu le voir sur un God of War, Heavy Rain ou le récent Uncharted 3 (tous des jeux Sony étonnemment) n'est pas mort; et j'espère le retrouver sur des titres qui s'y pretent comme Alan Wake, Final Fantasy ou Resident Evil.. Et tant d'autres!