Le phénomène a changé d’échelle à une vitesse brutale. Jean-Marc Manach, journaliste d’investigation, affirme être passé « de près de 1 000 à 10 000 sites d’actu en français générés par IA » en un an. Il précise lui-même n’avoir recensé que la partie la plus visible du phénomène, celle qui génère déjà le plus de trafic. Autrement dit, le paysage réel dépasse sans doute encore ce chiffre.
Le plus inquiétant ne tient pas seulement au volume. Il tient à la qualité de l’imitation. Ces sites ne ressemblent plus à des brouillons mal rédigés. Ils reprennent les réflexes visuels et éditoriaux de la presse, avec une efficacité redoutable. Le texte semble sérieux. La photo rassure. Le ton reste neutre. L’ensemble suffit à franchir le premier seuil de confiance.
Une chaîne de production, pas une rédaction
Derrière cette façade, le travail journalistique disparaît peu à peu. Pas d’enquête. Peu ou pas de vérification. Peu ou pas de hiérarchie éditoriale. La logique dominante relève du recyclage. Des contenus publiés ailleurs sont aspirés, reformulés, raccourcis, traduits parfois, puis remis en circulation sous une apparence présentable. L’objectif n’est pas d’informer mieux. L’objectif tient dans la cadence.
Le lecteur, lui, voit un article. Il ne voit pas la chaîne de fabrication. Il ne voit pas non plus l’effacement progressif de tout ce qui donne sa valeur au journalisme. Vérifier un fait, recouper une information, attribuer une source, relire une formulation, assumer une erreur. Toute production industrielle cherche à réduire ces frottements. Dans l’information, leur disparition ne produit pas un journalisme plus rapide. Elle produit autre chose, un simulacre de presse, habillé comme elle, vidé de ses contraintes.
Le danger commence là. Non dans l’existence d’outils d’écriture automatisée, mais dans leur usage pour singer une activité éditoriale sans en respecter les règles. La forme journalistique reste visible. La méthode, elle, s’efface.
Le flux a remplacé la marque
La progression de ces faux sites ne s’explique pas seulement par leur nombre. Elle s’explique par leur mode de diffusion. Une part croissante de la consommation d’information passe aujourd’hui par les recommandations sur mobile. Le lecteur n’entre plus forcément par la page d’accueil d’un journal qu’il connaît. Il entre par un titre poussé sous ses yeux.
Dans cet univers, la marque éditoriale perd du poids. L’image compte davantage. L’accroche passe avant la source. Le nom de domaine arrive souvent trop tard. Pour les producteurs de contenus automatisés, l’aubaine est immense. Ils n’ont pas besoin de construire une relation durable avec leurs lecteurs. Ils doivent seulement se glisser dans le flux, avec assez d’efficacité pour obtenir le clic.
Le rôle de Google apparaît ici central. Selon l’observatoire publié par le Geste, Médiamétrie et Next, un corpus de 251 sites identifiés parmi les plus recommandés par Google Discover totalise 15,7 millions de visiteurs uniques mensuels, soit près d’un quart de la population française. Plus des trois quarts des visites vers ces sites viennent de Google. Leur public apparaît aussi plus âgé que celui des sites d’information traditionnels, avec une forte présence des 50 ans et plus.
Le chiffre donne l’ampleur du phénomène. Il ne s’agit plus d’une pollution marginale du web. Il s’agit d’un pan entier de l’accès à l’information, déjà massivement fréquenté.
Le pillage comme modèle
Le cœur du système reste d’une grande simplicité. Produire à très bas coût. Publier en masse. Multiplier les surfaces publicitaires. Monétiser le trafic. Dans cette économie, la qualité journalistique ne disparaît pas complètement. Elle change de fonction. Elle ne sert plus à informer rigoureusement. Elle sert à paraître assez crédible pour retenir l’attention quelques secondes.
Le modèle économique repose donc sur un détournement. Des rédactions financent encore des reportages, des enquêtes, des correspondants, des correcteurs, des avocats, des abonnements à des agences. D’autres récupèrent ensuite cette matière, la mâchent à la chaîne et la republient sous une forme dégradée, mais rentable. Les premiers assument les coûts du réel. Les seconds captent une part de la valeur grâce au volume et à la distribution.
Next ajoute un autre indicateur frappant. Sur le seul mois d’octobre 2025, dix sites GenAI ont enregistré entre 1 et 4 millions de visiteurs uniques. L’échantillon analysé ne couvre pourtant que 251 sites, issus de 85 éditeurs différents, certains administrant encore des dizaines d’autres domaines comparables.
Le pillage n’emprunte pas toujours la voie grossière du copier-coller. Il passe aussi par la paraphrase, l’agrégation, la traduction et le lissage. Le résultat économique reste le même. Le travail journalistique devient une mine. L’IA, un outil d’extraction.
Pourquoi le public se fait-il prendre ?
Accuser les lecteurs de naïveté serait une erreur commode. Le problème tient moins à une faiblesse individuelle qu’à l’environnement de lecture lui-même. Sur mobile, la consultation est rapide, discontinue, saturée de signaux visuels. Peu de gens inspectent méthodiquement le nom du site, les mentions légales, la biographie du signataire ou la politique de correction avant d’ouvrir un article. Presque tout le monde juge d’abord à la surface.
Or cette surface, les sites générés par IA la reproduisent très bien. Voilà pourquoi leur essor inquiète autant. Ils ne prospèrent pas contre les usages ordinaires de lecture. Ils prospèrent grâce à eux.
Le préjudice dépasse d’ailleurs la seule question des erreurs factuelles. Bien sûr, ces contenus charrient des approximations, des maladresses et des contresens. Mais le dommage principal tient dans la confusion générale qu’ils installent. Lorsqu’un lecteur tombe sur un article douteux, il ne distingue pas toujours un faux média d’une rédaction réelle. La défiance finit alors par se diffuser à l’ensemble du paysage médiatique. La contrefaçon abîme jusqu’à l’idée même de journalisme.
La loi arrive, avec une faille déjà visible
L’Union européenne a tenté d’anticiper cette dérive. L’article 50 du règlement européen sur l’intelligence artificielle entrera en application le 2 août 2026. Il prévoit des obligations de transparence pour certains contenus générés ou manipulés par IA. Le principe semble sain. Le public devrait savoir quand il lit un texte produit par un système automatisé.
Mais une subtilité majeure apparaît déjà dans le texte. Cette obligation ne s’applique pas lorsque le contenu a fait l’objet d’un examen humain ou d’un contrôle éditorial, et qu’une personne physique ou morale assume la responsabilité éditoriale de sa publication.
Tout se jouera donc dans l’épaisseur réelle de ce contrôle humain. Entre une relecture sérieuse, avec vérification des faits et arbitrage éditorial, et une validation à la chaîne purement formelle, l’écart est immense. Le droit pose une borne. Le marché cherchera aussitôt à l’effleurer sans jamais vraiment la franchir. Une industrie entière va tenter d’habiller une production largement automatisée d’un vernis humain suffisant pour échapper au signalement.
La faille se voit déjà. Il suffira parfois d’un contrôle minimal, mal défini, pour préserver l’opacité tout en revendiquant une responsabilité éditoriale. Le lecteur, lui, restera dans le brouillard.
Même les groupes installés avancent sur cette pente
Le sujet ne concerne plus seulement des fermes à contenus opaques, montées pour faire du trafic rapide. Il touche aussi des acteurs installés. En mars 2026, Next publiait une enquête sur Prisma Media titrée « Chez Prisma Media, jusqu’à 40 % des articles et 50 % des journalistes sont générés par IA ». La formule doit être attribuée telle quelle à Next, pas traitée comme un fait judiciaire établi. Mais elle dit quelque chose d’important sur le mouvement en cours.
Le même article rappelle que Prisma Media a formé l’ensemble de ses 400 journalistes à l’IA depuis 2024. Il cite aussi un chiffre déjà mentionné ailleurs dans la presse, selon lequel environ 20 % du contenu de Voici.fr était produit avec de l’IA à partir de dépêches ou de recettes.
Le sujet devient alors plus dérangeant. La frontière entre assistance technique et industrialisation éditoriale se brouille. Un outil de transcription ou de recherche documentaire ne menace pas le journalisme. Une organisation pensée pour produire toujours plus de textes avec toujours moins de travail éditorial humain change la nature même de la production. Le risque ne vient plus seulement des marges du web. Il gagne aussi le centre du système.
Une industrie de la crédibilité contrefaite
Le faux journalisme industriel a déjà trouvé son public parce qu’il s’emboîte parfaitement dans l’économie actuelle de l’attention. Il coûte peu. Il publie vite. Il imite bien. Il se glisse dans des circuits de recommandation qui privilégient l’abondance, la réactivité et le volume. Sa réussite n’a rien d’un accident. Elle révèle la faiblesse structurelle de notre accès quotidien à l’information.
Le vrai sujet n’oppose pas l’humain à la machine. Il oppose deux régimes éditoriaux. D’un côté, un journalisme fondé sur l’enquête, la vérification, la responsabilité et la correction. De l’autre, une production de masse qui en reprend les apparences sans en reprendre les devoirs. Tant que cette distinction restera floue pour le public, le décor suffira à faire illusion.
Une question simple devrait pourtant rester au centre. Qui a enquêté ? Qui a vérifié ? Qui signe ? Qui répond de l’erreur ? Quand aucune réponse nette n’apparaît, il ne reste plus un média. Il reste une industrie de la crédibilité contrefaite.
Michel FANTIN
Fondateur et CEO de Blitzzz Media
Août 2026, ce que la loi va imposer
À partir du 2 août 2026, l’article 50 du règlement européen sur l’intelligence artificielle devient applicable. Pour certains contenus diffusés au public, une obligation de transparence s’impose. Lorsqu’un contenu a été généré ou modifié par une intelligence artificielle, cette intervention devra en principe être signalée de manière visible.
Pour les médias et les sites d’actualité, l’enjeu est direct. Un texte publié pour informer le public sur un sujet d’intérêt général devra, en théorie, mentionner l’usage de l’IA lorsqu’il a été généré ou transformé par un système automatisé.
Le texte prévoit toutefois une exception importante. Lorsque le contenu a fait l’objet d’un contrôle éditorial humain et qu’une personne ou une organisation en assume la responsabilité éditoriale, cette obligation de signalement ne s’applique pas dans les mêmes conditions.
En clair, août 2026 ne marquera pas la fin des articles produits avec de l’IA. La date imposera surtout une nouvelle ligne de partage entre les contenus publiés sans transparence et ceux couverts par une validation humaine revendiquée.














