La synthèse des mouvements est un élément essentiel du cinéma de science- fiction. En effet, c’est la finesse de cette animation qui permet au spectateur de s’identifier aux personnages non-humains.

Ces dernières années, les films de science-fiction ont le vent en poupe. Cela s’explique, en premier lieu, par l’accès de plus en plus facile aux technologies liées aux effets spéciaux. Intéressons-nous ici en particulier à la synthèse des mouvements des protagonistes : surhumains, cyborgs, robots, avatars et autres créatures peuplant le monde de la science-fiction.

Humaniser les créatures

Il est intéressant de remarquer que la plupart des réalisateurs de films de science- fiction choisissent d’appliquer aux protagonistes des gestuelles humaines. Si cela s’explique d’un point de vue technologique, l’idée de créer un rapport étroit – de participation et d’identification – entre le spectateur et les personnages d’un film est également un processus récurrent utilisé par les scénaristes. Le psychologue Albert Michotte explique ainsi « que les phénomènes d’empathie se manifestent lorsque le spectateur d’une action exécutée par une autre personne la ‹ vit › lui-même ». Plus précisément, il existe un processus d’identification lié à l’interprétation de la correspondance entre les mouvements et les expressions affectives d’un acteur avec celle du spectateur. Par ailleurs, il a été montré par différentes études que l’humain a de fortes aptitudes à différencier un mouvement naturel d’un faux et même de reconnaître son propre mouvement dénué de toute information morphologique ou symbolique.

Ainsi, il paraît crucial pour les réalisateurs de reproduire sur les créatures et autres avatars des mouvements crédibles d’abord, mais enrichis d’émotions et de style également.

D’un point de vue historique, l’acteur réel a toujours été utilisé comme guide pour l’animation de comédiens virtuels (ou avatars). Même si les premières formes d’effets spéciaux (en 1933 pour le film King Kong) sont le fruit de la superposition de séquences filmées, les premières techniques de capture de mouvement apparaissent d’abord dans les dessins animés de Walt Disney, avant d’être utilisées dans les films de science-fiction.

Premières révolutions

Le procédé, appelé rotoscoping, est encore fortement utilisé aujourd’hui. Il s’agit d’ex- traire les silhouettes de vrais acteurs filmés, puis de s’en servir comme guides pour les dessinateurs/animateurs qui créent le mouvement image par image. Accompagnées de la technique d’animatronique (marionnettes mécaniques), les premières révolutions numériques concernent les films Star Wars et Tron. Le premier (1977) intègre des images de synthèse pour, par exemple, ajouter les rayons laser dans les scènes (Z-6PO et R2-D2 sont interprétés par des acteurs). Le second, réalisé en 1982, projette des acteurs réels dans des mondes virtuels de jeux vidéos. Ces premiers films qui, finalement, jouent sur des techniques d’incrustation, sont dépassés, en 1989 et en 1991, avec Abyss et Terminator 2. Ainsi, James Cameron montre qu’il est possible de synthétiser de l’animation faciale (au bout d’un tentacule d’eau), puis d’enrichir le mouvement d’un cyborg joué par un humain avec du métal liquide. Cette fois, il s’agit de mêler le réel et le synthétique non seulement spatialement, mais aussi temporellement. L’image de synthèse se « démocratise » ensuite et, avec Jurassic Park en 1993, Steven Spielberg propose une nouvelle avancée en ayant recours à des animateurs 3D pour créer numériquement de toutes pièces l’animation de dinosaures.

Evolutions techniques

La capture de mouvements (ou mocap) apparaît au milieu des années 1990. L’objectif est de restituer virtuellement le mouvement d’un acteur, capturé dans un contexte réel. La mocap optique, technique la plus répandue dans l’industrie pour sa fiabilité et sa précision, mesure le déplacement de marqueurs réfléchissants dans l’espace et dans le temps avec des caméras infrarouges. Plus précisément, à partir des trajectoires de marqueurs capturées, les centres articulaires d’un squelette sont reconstitués géométriquement. Chaque articulation est ensuite associée à une liste de rotations évoluant dans le temps. La dernière étape consiste à lier un maillage, conçu par un infographiste, avec le squelette pour restituer un mouvement réaliste à l’écran. Les premières applications concernent le « re-jeu » simple de mouvements. C’est par exemple le cas des films Batman Forever et Batman & Robin en 1995 et 1997, qui l’utilisent, par moments, pour remplacer les acteurs par des gymnastes capturés. Mais, à ce stade, il existe plusieurs limites.

La première concerne le transfert d’animation d’un acteur réel sur une morphologie atypique. La question, encore aujourd’hui partiellement en suspens d’un point de vue algorithmique, est palliée par l’intervention d’infographistes déformant le mouvement pour l’adapter à l’avatar ciblé. La seconde touche à l’animation du visage, incontournable pour rendre la scène crédible. En 2001, dans Final Fantasy, le premier long métrage réalisé en mocap, l’absence de visages expressifs et d’animation du regard montre bien que ces informations jouent un rôle important dans la transmission des messages. La prouesse revient au Seigneur des Anneaux (2002), avec l’animation de Golum, qui a le corps capturé et l’animation du visage réalisée par des infographistes. Enfin, le troisième point concerne l’animation des mains, qui est un véritable casse-tête à capturer du fait de la proximité des marqueurs, des nombreux recouvrements entre les mains de l’acteur, ainsi que des diverses interactions avec les autres acteurs et l’environnement.

Finalement, les deux dernières limites ont été résolues par l’introduction de la performance capture, qui prend en compte, en plus des mouvements corporels généraux, des mouvements plus subtils comme les expressions faciales ou les mouvements des mains. C’est Robert Zemeckis qui en est l’investigateur, avec le film Le Pôle Express en 2004. Cela s’explique par l’évolution de la technologie à la fois du point de vue hardware – caméras et puissance de calcul des ordinateurs – mais également du point de vue software, grâce aux nombreuses recherches qui ont été menées, en particulier dans le mapping des marqueurs (placés sur le visage) avec la déformation de maillage. Parallèlement à l’animation faciale, l’extension des méthodes de machine learning permettent, à partir d’un apprentissage méticuleux, de synthétiser des mouvements riches avec peu d’informations de contrôle. Du côté de la science-fiction, tous les derniers grands films, comme Avatar (2009), La Planète des Singes (2011) ou John Carter (2012), reprennent cette technique.

Immersion totale

Toutefois, avec Avatar, James Cameron réalise un nouveau pas considérable, avec l’introduction de la capture de visage sans marqueur, la camera fusion et le cinéma virtuel. Il ne s’agit plus d’améliorer la synthèse des mouvements, mais plutôt d’immerger davantage non seulement le spectateur, mais également l’acteur. Ainsi, la camera fusion (qui permet la 3D stéréoscopique) restitue l’effet de relief, tel que le perçoit l’œil humain lorsqu’il observe son environnement. Le second concept concerne le confort de réalisation du film. En effet, la technologie permet aujourd’hui non seulement de capturer et de visualiser simultanément les acteurs, mais aussi de les immerger dans des décors virtuels, ce qui leur donne davantage l’impression de tourner au plus proche de la réalité ou des objectifs de tournage.

Finalement, les dernières sources d’innovation sont pleinement orientées vers le tournage en réalité virtuelle, avec l’objectif de créer des animations toujours plus proches de l’humain. Il semblerait donc que les réalisateurs de science-fiction se soient obstinés à reproduire le mouvement du réel.

L’auteur, Thibaut Le Naour, est maître-assistant au Département de médecine, spécialisé dans l’étude de l’interaction de l’humain en réalité virtuelle. Contact: thibaut.lenaour@unifr.ch

Cet article a été publié dans la revue Universitas.