Laurie Zingaretti
Pour ceux qui ne me connaissent pas encore, je suis Directrice Artistique au sein de l’agence Adrénaline, où je me consacre également aux veilles, recherches et tests des technologies IA génératives appliquées au design. Mon quotidien consiste à explorer les nouvelles IA, affiner le workflow des designers en fonction des problématiques rencontrées et partager mes découvertes tant sur le Discord de GeniArt que sur mon LinkedIn.
Avec plus de 10 ans d’expérience dans le branding et la conception de sites web (UI et UX design), il était évident que les mots « concours », « publicité » et « IA » allaient immédiatement capter mon attention lorsque j’ai vu le post de Curious Refuge sur LinkedIn. J’aime la compétition, même si je prétends parfois le contraire.
Ce concours représentait non seulement un défi personnel, mais aussi une occasion de me mesurer à d’autres talents dans le domaine de l’IA et de montrer ce que l’agence Adrénaline pouvait offrir en termes de compétences en IA. Pari réussi : ma publication a récolté de nombreux retours positifs.
« AI ADVERTISING CONTEST »
Le concours de publicité 100 % IA, organisé par Curious Refuge et Vica, est une initiative pionnière dans le domaine de la création publicitaire. L’objectif est de promouvoir et d’évaluer les capacités créatives de l’intelligence artificielle en défiant les participants à concevoir des publicités entièrement générées par IA. Chaque élément visuel doit être produit ou modifié par des outils d’IA, sans recourir à des technologies en version bêta privée (comme Sora).
Les participants peuvent choisir parmi plusieurs marques partenaires et doivent faire preuve de créativité et d’originalité. Trois marques étaient proposées :
- Culture Pop Soda: une marque de soda à base de vrai jus de fruits.
- Path Water: une marque de bouteille d’eau rechargeable et recyclable en aluminium.
- Whipnotic : une marque de crème fouettée, saine pour la santé.
J’ai opté pour le thème de la nourriture et donc pour la crème fouettée (même si je regrette de ne pas avoir reçu d’échantillons. Chaque marque fournissait des assets tels que la charte photographique et graphique, des patterns, des typographies, etc. C’était comme travailler pour un vrai client, avec des contraintes professionnelles, ce qui est rare dans les concours fictifs IA.
Les designers IA ont jusqu’au 30 août pour soumettre leur création, qui sera jugée sur la créativité, le respect des exigences techniques, et l’impact global. Les résultats seront annoncés le 19 septembre 2024.
L’envers du décor
Tout comme à l’agence Adrénaline, la première étape a été celle de la réflexion et du concept. Cette partie a été entièrement réalisée par moi-même, sans l’aide d’une IA.
Pourquoi ? Parce qu’il y a un risque avec les IA génératives de contenu texte, comme ChatGPT d’OpenAI, que l’idée soit déjà exploitée ou communiquée à un concurrent. De plus, j’adore cette partie du processus.
Voici le workflow que j’ai mis en place pour surmonter les différentes problématiques liées au sujet :
- Création d’images : J’ai utilisé Midjourney, le plus efficace dans ce cas. Il m’a permis d’incorporer facilement des images de référence, de créer des personnages récurrents, des décors, et bien sûr, de mettre en scène la tarte avec la crème fouettée, élément central de ma proposition publicitaire. J’ai utilisé l’option –q 2 en version 6.2 pour obtenir un maximum de détails.
- Upscale des images générées : J’ai opté pour Leonardo.ai, un outil peu coûteux et suffisant pour le format imposé de 1920 x 1080 px.
- Animation vidéo : La plupart de mes plans étaient fixes, ce qui m’a permis de ne pas avoir à utiliser la fonctionnalité des keyframes sur Luma. Kling est très bien, mais force est de constater qu’il se révèle encore un peu instable pour être pleinement utilisé. Mon choix s’est donc porté sur Runway Gen-3 (le nouveau modèle), idéal pour tester sans crainte de perdre des crédits avec des prompts non optimisés.
- Voix : J’ai trouvé facilement une voix américaine très expressive pour jouer la « Queen » avec Elevenlabs, puis je l’ai synchronisée avec la fonctionnalité « LipSync » de Runway.
- Création de la musique : J’ai utilisé Suno avec deux prompts simples pour obtenir la musique parfaite (Pour la première partie : « Baroque music from the 18th century played on the piano forte in C major ». Pour la seconde partie : « pop music, dynamic, happy, funk »).
Les défis à surmonter
Les principaux défis ont concerné la génération d’images et la vidéo :
- Récurrence du personnage de la « Queen » : Le paramètre Character Reference (–cref) dans Midjourney ne donne pas exactement le même personnage à chaque fois. Il m’a fallu plusieurs itérations pour obtenir une cohérence, et j’ai utilisé un logiciel de Deepfake pour maintenir la consistance.
- Récurrence du décor : J’ai utilisé une image de référence intégrée dans mes prompts Midjourney pour garder le même fond tout au long de la vidéo.
- Intégration du produit : Réaliser une publicité pour une crème chantilly sans montrer le packaging et la texture aurait été compliqué. J’ai donc intégré le produit directement sur Photoshop, en ajustant les couleurs et les ombres pour une intégration parfaite.
- Respect de la charte graphique et des couleurs : il existe des astuces pour aider Midjourney à sortir les bonnes couleurs (comme donner le nom des couleurs, mais chut ça reste entre nous). Ici, je n’ai pas eu besoin de cette technique, le packaging et les patterns fournis dans le dossier, appliqués en image de référence, suffisaient.
Les défis vidéo
J’ai rencontré deux défis majeurs :
- Caméra fixe : La caméra se déplaçait automatiquement vers le personnage dans Gen-3. J’ai finalement découvert que le mot-clé « static camera » était la solution.
- Faire manger la « Queen » : J’en ai usé des prompts sur cette scène. Ci-dessous, une des premières itérations que j’ai pu obtenir. Alors ok la crème fouettée Whiptonic à l’air vraiment bonne, mais de là à en oublier les bonnes manières… J’ai dû ajouter dans mon prompt le fait qu’elle devait manger doucement et surtout DÉLICATEMENT.
Une belle aventure
Cette expérience a confirmé que nous avons fait d’énormes progrès dans la génération vidéo, qui peut désormais être utilisée pour créer des publicités professionnelles.
Mon workflow a complètement changé : je n’ai pas eu besoin de banque d’images ou de vidéos, ni d’autres logiciels Adobe que Photoshop, mis à part pour quelques retouches légères.
Enfin, le délai de production s’est considérablement raccourci : seulement 3 jours pour réaliser une publicité de 30 secondes où j’ai pu maîtriser chaque aspect visuel.
Toujours convaincus que l’IA ne nous donne aucun contrôle ?
Si mon travail vous a plu, n’hésitez pas à voter pour ma création directement sur la plateforme via ce lien pour soutenir mon travail et mes recherches :
https://woobox.com/7e25kg/gallery/ungiP2Hr6kk
Laurie ZINGARETTI