Des avatars déjà dans la campagne
Pendant la campagne européenne de 2024, deux comptes TikTok baptisés Amandine Le Pen et Léna Maréchal Le Pen ont multiplié les vidéos pro-Rassemblement national en mode selfie. Deux jeunes femmes blondes, souriantes, sexualisées, jouant les influenceuses patriotes. En réalité, aucun être humain derrière : des visages synthétiques créés par intelligence artificielle, des voix et des gestes calculés pour flatter un électorat jeune. Les comptes ont été suspendus, Jordan Bardella a juré que le RN n’était pas impliqué, mais le mal était fait. Des centaines de milliers de vues, des partages, une confusion entretenue. La politique française venait de voir ses premiers avatars militants.
Depuis, les essais se multiplient. À l’extrême droite, les visuels générés par IA se comptent déjà par dizaines, montrant la France en proie au chaos migratoire, à l’insécurité ou à la ruine agricole. Les images sont fausses, mais leur pouvoir émotionnel, lui, est bien réel. Chez Reconquête, un chatbot baptisé ChatZ répond déjà automatiquement aux internautes en imitant le ton d’Éric Zemmour. Le discours idéologique devient un flux automatisé, continu, calibré pour les réseaux sociaux.
Jordan Bardella, lui, a choisi une stratégie différente, mais tout aussi industrielle : saturer TikTok. Deux millions d’abonnés, une avalanche de vidéos verticales, un ton détendu, un visage omniprésent. L’arène politique s’est déplacée du JT vers le flux infini des réseaux. Bardella n’affronte plus Attal à BFM TV, mais dans le for you page des 15-25 ans. Et il y gagne.
L’illusion du réel
La démonstration la plus frappante de la banalisation du clonage est venue du Sénat. En avril 2024, deux journalistes ont projeté en séance une vidéo où leurs doubles numériques parlaient avec les voix de Jean-Luc Mélenchon, de Gabriel Attal, de la chanteuse Angèle et même d’un sénateur présent. Deux minutes d’archives audio suffisaient, quinze minutes de traitement, et la voix du ministre était reproduite avec un réalisme troublant. L’illusion ne coûte presque rien, ne prend presque pas de temps, et échappe à tout contrôle.
Quelques semaines plus tôt, un faux reportage de France 24 annonçant une tentative d’assassinat contre Emmanuel Macron avait circulé sur les réseaux, fabriqué dans la sphère pro-russe. Le mensonge y prenait les codes visuels du journalisme, logo compris. Ce n’était pas une farce : c’était une opération d’influence politique.
En un an, la France a donc tout connu : le clone sexy, le bot militant, la voix d’un ministre copiée, le faux reportage d’État. Les élus ne découvrent plus le deepfake dans les colonnes de la presse. Ils en ont été les cibles, parfois à visage découvert.
Vers l’avatar politique officiel
Pourquoi les partis français s’intéressent-ils tant à cette technologie ? D’abord pour des raisons pratiques. Un avatar IA peut répondre jour et nuit, sourire, improviser, commenter l’actualité sans fatigue ni agenda télé. Là où un ministre doit gérer des plateaux, un clone numérique diffuse vingt stories par jour. C’est la promesse d’une omniprésence gratuite.
Ensuite, pour des raisons industrielles. Reconquête a déjà automatisé une partie de son discours via ChatZ. Passer du texte à l’image animée ne demande qu’un petit saut technique. Le Sénat l’a constaté : une voix crédible se clone en quinze minutes (avec une solution comme Avatar IV de Heygen par exemple). On entre dans une communication de série, où chaque message devient un produit réplicable.
Mais la tentation est surtout émotionnelle. Les campagnes étrangères montrent la voie. En Indonésie, un candidat autoritaire a redéfini son image grâce à un double numérique paternel et apaisant. En France, le principe séduit : le RN cherche à paraître cool malgré son passif xénophobe, la macronie veut conserver une image de compétence malgré l’usure du pouvoir, la gauche radicale veut rester flamboyante sans paraître menaçante. Un clone IA bien réglé offre à chaque camp la possibilité de doser son émotion publique.
Enfin, il y a le confort politique. Un avatar « validé par l’équipe » peut tester une ligne dure ou un ton risqué. Si ça choque, on parle de simulation. Si ça marche, on endosse. C’est la nouvelle frontière de la communication : dire sans vraiment dire, exister sans se montrer.
Le cadre légal et la peur du retour de flamme
Le droit français, pour l’instant, freine la généralisation. La loi SREN de 2024 sanctionne sévèrement la diffusion de deepfakes non consentis. Un an de prison et 15 000 euros d’amende, doublés si le contenu est publié en ligne. Trois ans et 75 000 euros en cas de contenu sexuel synthétique. L’Europe, avec l’AI Act entré en vigueur le 1er août 2024, impose la transparence : tout contenu généré artificiellement doit être signalé comme tel. L’ambiguïté volontaire devient donc risquée juridiquement.
Les régulateurs veillent. L’Arcom, chargée d’appliquer le Digital Services Act, surveille les plateformes comme un terrain électoral. Les géants du web doivent désormais retirer rapidement les contenus trompeurs. TikTok, YouTube, Instagram ne sont plus des zones grises.
Mais la sanction la plus redoutée n’est pas judiciaire. Elle est symbolique. Les faux profils « nièces Le Pen » ont provoqué un effet boomerang instantané. Découverts, dénoncés, supprimés, ils ont forcé le RN à se défendre. L’opération s’est retournée contre ses instigateurs, réels ou supposés. En politique, le ridicule numérique reste une arme.
S’ajoute la culture française du contrôle de l’image. L’Élysée maîtrise chaque apparition présidentielle comme un événement. Imaginer un clone officiel parlant à la place du chef revient à diluer cette maîtrise. La présidence ne veut pas perdre la main sur son propre visage, surtout depuis les campagnes de désinformation étrangères.
Le prochain virage
Malgré ces freins, le scénario se dessine. Les équipes politiques envisagent des avatars officiels, clairement étiquetés « version IA validée ». Une façon de rester dans la légalité tout en affichant un chef moderne, accessible et omniprésent. Techniquement, l’opération est à la portée de n’importe quelle agence. Quinze minutes de voix, quelques heures de modélisation, et le clone parle, cligne des yeux, répond en selfie.
Le pas suivant, déjà dans les cartons, consiste à installer ces clones dans les messageries privées. « Parle à Gabriel Attal » ou « discute avec Jordan Bardella » deviendront des expériences interactives sur TikTok, Snapchat ou WhatsApp. Le citoyen posera une question et recevra une vidéo personnalisée. Ce canal privé contournera les contraintes médiatiques classiques et entretiendra une illusion de proximité directe avec le pouvoir.
Les formations « antisystème » et les partis qui ciblent les jeunes seront les premiers à s’en emparer. Ils ont le public, la flexibilité et moins à perdre en cas de scandale. Les avatars deviendront aussi des paratonnerres politiques. Si un discours choque, on dira que c’était une expérimentation IA. Si le public applaudit, on revendiquera la ligne. C’est le liar’s dividend, le dividende du menteur : dès que tout peut être faux, tout devient discutable.
Les premières expérimentations publiques devraient apparaître avant les municipales de 2026, portées par des candidats locaux cherchant un coup d’éclat à bas coût. Si la formule fonctionne, 2027 verra sans doute des clones officiels participer à la campagne présidentielle, affichés comme des outils conformes à la loi et validés par les états-majors.
La tentation du double
La France a déjà flirté avec la dématérialisation politique. En 2017, Jean-Luc Mélenchon se démultipliait en hologrammes sur les estrades. Ce qui se prépare va plus loin : on passe du spectacle collectif au lien intime, du meeting à la messagerie privée. Le corps politique se virtualise. Il se glisse dans la poche de l’électeur, prêt à lui parler, à le séduire, à le rassurer, sans jamais dormir.
La technologie promet l’ubiquité, mais introduit une ambiguïté vertigineuse. Si tout le monde peut parler avec le visage du pouvoir, qui parle encore vraiment ? Derrière l’innovation, la question reste politique : à qui appartiendra la parole quand même le visage sera copiable ?
Augustin GARCIA























