Chaque semaine nous apporte son lot de nouveautés dans l’univers des IA Génératives. Toutefois, dénicher des artistes créatifs n’est pas si courant. L’OVNI se nomme Sergey Likharyev (@ceregamst sur Instagram). Il est l’artiste qui se cache derrière le clip « Tout est vrai » de MC★Solaar. Dans cet article, il nous dévoile les coulisses du la création du clip animé.
Une direction artistique inspirée des géants de l’animation
Pour relever ce défi, la direction artistique a pris racine dans des références bien connues du grand public. Pixar, Disney, DreamWorks, ces grands noms de l’animation ont servi de base pour créer une esthétique unique. Mais comment s’assurer que cette inspiration ne devienne pas une simple imitation ?
Très simplement. Un moodboard a été constitué, regroupant des images issues de films et de comics pour nourrir cette vision. À l’aide de Midjourney, l’intelligence artificielle spécialisée dans la création d’images, des keyframes ont été conçues. Ces premières ébauches ont permis de visualiser le rendu potentiel et de valider la direction artistique avec le client.
Une narration visuelle construite image par image
Une fois l’esthétique validée, il était temps de passer à l’étape de la narration. Comment traduire cette histoire d’amour entre une femme paisible et un braqueur ambitieux en une suite d’images percutantes ?
La première étape a donc été la création d’un storyboard, réalisé à la main sur Adobe Photoshop. Ces petits croquis simples servaient à définir la mise en scène et le cadrage. La palette chromatique s’est construite autour de tons bleus et oranges, où le bleu représentait l’homme et l’orange, la femme, comme deux pôles opposés, mais complémentaires. Un jeu subtil de contrastes a marqué les retrouvailles des deux protagonistes, avec un changement radical de l’ambiance et de la colorimétrie pour symboliser une rupture avec leur passé.
La production des images : IA, test et correction
Le projet étant structuré, le véritable travail de production a commencé avec comme leitmotiv conserver l’atmosphère souhaitée tout en s’appuyant sur l’IA pour générer les images finales.
Chaque keyframe issue du storyboard a été recréée avec Midjourney. Pourtant, la puissance de cet outil n’a pas épargné l’équipe des retouches incessantes. La modélisation des mains, des yeux, ou d’autres détails des personnages nécessitait parfois de nombreux ajustements. Combien de tests sont nécessaires pour obtenir un rendu parfait ? Souvent, il a fallu retravailler manuellement ces imperfections dans Adobe Photoshop pour atteindre le résultat escompté.
Enfin, la vidéo, comment animer ces images fixes ?
Une fois les images fixes validées, l’étape suivante consistait à les transformer en vidéos. Pour ce faire, des outils comme Luma AI et Runway ont été utilisés avec la fonctionnalité image-to-video. Là encore, les imperfections étaient omniprésentes, forçant à relancer le processus de nombreuses fois pour chaque keyframe. 10 à 20 tentatives étaient souvent nécessaires avant d’obtenir une séquence fluide et exempte d’hallucinations.
Comment peaufiner la dernière touche ?
La post-production, phase incontournable, a consisté à monter l’ensemble sur Adobe Premiere Pro. Des ajustements colorimétriques ont permis d’harmoniser les séquences entre elles, et de corriger les dernières imperfections.
Après trois semaines de travail intense, le projet est enfin sorti. Mais la question demeure : jusqu’où l’intelligence artificielle est-elle prête à nous emmener dans le processus créatif, et jusqu’à quel point devons-nous encore intervenir pour maîtriser le résultat final ?