L’influence sans limite
Un avatar IA ne dort pas, ne doute pas, ne s’énerve pas. Il publie 24 heures sur 24, répond à tout le monde, ajuste son ton selon le public. C’est l’arme rêvée pour arroser TikTok, Instagram Reels, YouTube Shorts, WhatsApp et Telegram, là où les moins de 25 ans passent leurs journées et où les plateaux télé n’existent plus. En Indonésie, le président Prabowo Subianto a utilisé cette stratégie pour transformer son image d’ex-général violent en grand-père rassurant. Son double numérique, conçu comme une figure bienveillante, a largement contribué à son succès électoral.
La leçon est claire : un visage artificiel peut corriger un passé réel. Les communicants européens l’ont vu, compris et noté.
Parler toutes les langues, être partout
En Inde, les équipes de campagne ont franchi une autre étape. Elles ont généré des discours du candidat dans plusieurs langues régionales, avec la même voix clonée. Chaque électeur entendait le leader s’exprimer dans sa langue maternelle. Résultat, une illusion d’intimité politique à l’échelle d’un continent. Le clonage vocal et visuel efface les barrières géographiques et culturelles, casse le monopole des barons locaux et rend inutiles des semaines de tournées.
Ce pouvoir de démultiplication donne aux dirigeants une arme logistique sans précédent. Avec un double numérique, un responsable politique reste « présent » partout, même en cas d’absence forcée. Pendant la campagne indienne de 2024, un chef d’opposition a continué à s’adresser à ses électeurs depuis sa cellule grâce à des vidéos générées par IA. Message implicite : on ne me fera pas taire.
L’avatar devient donc le garant d’une continuité symbolique, une version toujours disponible du pouvoir.
La relation politique automatisée
Le Royaume-Uni a déjà expérimenté cette logique. Le clone numérique du Premier ministre Keir Starmer sert d’interface interactive avec les citoyens, les lobbyistes ou les diplomates. L’idée est simple : un responsable politique qui ne se rend plus disponible physiquement reste accessible virtuellement. Plus besoin d’attendre un rendez-vous, la machine répond tout de suite, poliment, efficacement.
C’est une industrialisation du lien citoyen. Une manière d’afficher de l’écoute sans s’y épuiser. Et politiquement, c’est redoutable : un chef toujours disponible semble plus humain qu’un ministre débordé. Le paradoxe, c’est que plus l’interaction est artificielle, plus elle donne l’illusion d’une proximité réelle.
Le revers du miroir
Derrière cette fascination se cache un risque majeur : l’effondrement de la confiance. Dès que tout peut être truqué, tout devient niable. Les juristes américains parlent du liar’s dividend, le « dividende du menteur ». Dans une démocratie saturée d’images, il suffit de dire « c’est un deepfake » pour échapper à la responsabilité. Même quand c’est vrai. L’affaire du faux Joe Biden, où une imitation vocale a servi à dissuader des électeurs d’aller voter, a montré à quel point cette ambiguïté pouvait peser sur le processus démocratique.
Le doute permanent sert les cyniques. Il délégitime les preuves, les témoignages, les images. La parole politique, déjà fragilisée, devient suspecte par défaut.
Le risque juridique et la peur du scandale
L’Europe encadre désormais strictement les contenus générés par IA. L’AI Act, en vigueur depuis le 1er août 2024, impose une obligation de transparence : toute vidéo, toute voix synthétique destinée au public doit être clairement signalée comme artificielle. Certains États vont encore plus loin. L’Espagne a prévu jusqu’à 35 millions d’euros d’amende ou 7 % du chiffre d’affaires mondial pour une entreprise qui diffuserait du contenu IA non étiqueté.
Pour un ministre ou un candidat européen, le faux pas serait immédiat : un avatar « propre », mais sans mention explicite tomberait sous le coup du droit pénal. Pas un simple bad buzz, un délit.
Le danger médiatique est tout aussi fort. En Indonésie, la résurrection holographique de l’ex-dictateur Suharto a provoqué un scandale national. En Europe, imaginer un ancien président « revenu d’entre les morts » pour valider un programme serait une folie politique. Et la machine peut aussi se retourner contre son créateur. Les deepfakes d’adversaires — comme les faux appels de Joe Biden — servent déjà à manipuler les électeurs, brouiller le débat, saboter la confiance.
Celui qui lance un avatar officiel ouvre mécaniquement la porte à une armée de faux clones incontrôlables.
Un terrain de plus en plus instable
Les plateformes deviennent nerveuses. Le nouveau cadre européen sur la publicité politique impose un étiquetage strict, interdit le microciblage et multiplie les obligations de transparence. Face au risque juridique, Meta a annoncé l’arrêt des pubs politiques payantes dans toute l’Union européenne à partir d’octobre 2025. Conséquence directe : les partis vont se rabattre sur le contenu organique, donc sur leurs propres avatars IA. Et ce terrain, moins encadré, floute encore davantage la frontière entre communication et propagande.
Dans un avenir si proche…
Trois tendances s’installent. D’abord, l’avatar assumé et labellisé. Le cofondateur de LinkedIn, Reid Hoffman, a déjà lancé « Reid AI », un double numérique chargé de donner des conférences et de répondre aux questions en plusieurs langues. Il affiche clairement sa nature artificielle. Transposé à un ministre ou à un maire européen, le modèle est prêt : « Ceci est la version IA de moi, message validé par mon équipe. »
Ensuite, le chatbot visage + voix du candidat. En Indonésie, des bots de campagne ont déjà servi de hotline pour les jeunes électeurs. Rien n’empêche un député européen d’ouvrir un canal WhatsApp ou TikTok où son clone vidéo répond en langage familier. La seule contrainte sérieuse sera l’étiquetage exigé par l’AI Act et ses déclinaisons nationales.
Enfin, la délégation d’image. L’avatar prend les risques, fait de l’humour, teste des angles, humanise le chef. En Europe, ce procédé séduira les candidats fragilisés par un passif judiciaire ou une réputation toxique. L’IA devient un outil de blanchiment émotionnel.
Le verrou qui craque
Les dirigeants installés vont avancer avec prudence, coincés entre les règles européennes et la peur du scandale. Mais les partis périphériques, les mouvements populistes et les jeunes candidats n’attendront pas. L’avatar IA offre une présence massive, personnalisée, émotionnelle, à coût quasi nul.
La traduction brute est là : oui, les politiques sont prêts. Certains s’y sont déjà mis. Le verrou n’est plus technologique. Il est juridique et moral. Et ce verrou, lentement, commence à céder.
Augustin GARCIA
Où en sont vraiment les avatars politiques dans la sphère publique ?
Indonésie, février 2024. Prabowo Subianto, ex-chef des forces spéciales accusé d’exactions, a troqué son passé pour un corps de papi rondouillard façon peluche. Sa campagne a inondé TikTok d’un avatar cartoon, adorable et docile, calibré pour séduire les jeunes. Le dispositif allait plus loin avec des chatbots pour répondre aux électeurs et des montages IA pour réécrire sa biographie en conte attendrissant.
Même équipe, autre coup. Faire parler le dictateur Suharto, mort depuis 2008. Un fantôme numérique exhortant à voter. Ils ont aussi glissé des enfants générés par IA dans un spot télé, histoire de contourner l’interdiction d’utiliser de vrais mineurs.
Inde, avril à juin 2024. Voix clonées, deepfakes, vidéos truquées à la chaîne. Des partis ont multiplié les versions IA de leurs leaders, traduites dans chaque langue régionale. Certains ont diffusé des messages où des responsables politiques (vivants ou morts) semblaient apporter leur soutien. Plus personne ne savait ce qui relevait du vrai ou du faux.
La frontière entre communication et manipulation s’est évaporée
États-Unis, janvier 2024 puis 2025. Un consultant politique a diffusé un faux message de Joe Biden. La voix clonée du président appelait les électeurs du New Hampshire à rester chez eux. Une tentative assumée de sabotage du vote. La commission fédérale des communications a réagi avec une amende record et l’interdiction des voix clonées dans les appels automatisés.
Les clones vocaux parlent déjà à la place d’un président, sans son accord
Royaume-Uni, mai 2025. Nostrada, une startup londonienne, a lancé des avatars interactifs des 650 députés, y compris celui du Premier ministre Keir Starmer. Chaque double virtuel répond aux questions du public, imite le ton, les tics et les éléments de langage. Une promesse de « dialogue direct » entre citoyens et dirigeants, sans humain derrière l’écran.
Autrement dit, on discute déjà avec le pouvoir… sans qu’il soit là. La réponse à « sont-ils prêts ? » : oui. Pas tous, pas partout, mais le verrou mental a sauté.
… et sont même nommés ministres !
Albanie, septembre 2025. Le Premier ministre Edi Rama a nommé Diella, une intelligence artificielle, au rang de ministre chargée des marchés publics. Un avatar à visage humain, sans corps ni fonction physique, censé rendre les appels d’offres « 100 % transparents ». Le pouvoir s’est donc offert son propre membre virtuel, présenté comme incorruptible. L’opposition y voit une mise en scène technologique, un écran de fumée numérique pour masquer l’opacité réelle du système.






















