Le bon utilisateur traite l’IA comme un stagiaire très rapide
Un bon utilisateur commence par le brief, pas par la requête. Il fixe un objectif clair, un public, un format, une tonalité, une contrainte de marque. Il donne le contexte utile, et retient le contexte toxique. Il ne colle pas des données sensibles dans un chat par réflexe. Il segmente les tâches, fait produire des options, compare, coupe, réécrit, vérifie. Il accepte une vérité simple. L’IA génère vite, mais elle invente aussi vite.
Les institutions qui travaillent sur les risques l’écrivent noir sur blanc. Le profil NIST dédié à l’IA générative liste des risques spécifiques ou aggravés, dont la confabulation, la confidentialité des données, l’intégrité de l’information, et la propriété intellectuelle. Autrement dit, l’outil se trompe, fuit, brouille, et recycle. Ça ne relève pas de l’anecdote, ça relève du fonctionnement.
Le bon utilisateur vit avec cette réalité. Il installe des garde-fous. Il impose une étape de validation humaine dès qu’un contenu sort du brouillon. Il demande des sources, puis il les ouvre vraiment. Il conserve une trace de ce qu’il a demandé et de ce qui a été publié, surtout en entreprise. Il sait aussi renoncer. Certaines tâches exigent un niveau de fiabilité ou de confidentialité qui ne supporte pas l’improvisation.
Le mauvais utilisateur confond vitesse et travail
Le mauvais utilisateur cherche un raccourci. Il veut « un post LinkedIn qui cartonne », « un communiqué prêt à envoyer », « une reco stratégique », sans matière, sans angle, sans faits. Il copie-colle des documents internes, des verbatim clients, parfois des données personnelles, puis il s’étonne que la question du RGPD arrive sur la table.
La CNIL rappelle justement que des données personnelles peuvent se retrouver à plusieurs niveaux, dans les bases d’entraînement, dans les modèles qui mémorisent, et dans l’usage via les prompts. L’illusion du chat « sans conséquence » ne tient pas longtemps quand une organisation traite des données réelles.
Le mauvais utilisateur publie sans relire, ou relit comme on scrolle. Il prend la sortie pour une vérité. Il transforme l’IA en usine à contenu, donc en usine à banalités. Le résultat se repère immédiatement. Même ton, mêmes tics, mêmes listes, mêmes phrases gonflées à l’air chaud. À court terme, ça remplit un calendrier éditorial. À moyen terme, ça flingue une crédibilité. À long terme, ça attire des risques juridiques et réputationnels, parce qu’un contenu faux, diffamatoire, ou basé sur des données mal traitées ne devient pas acceptable parce qu’il a été généré « automatiquement ».
Une ligne de partage très concrète
Dans les entreprises, la frontière entre bon et mauvais usage ressemble à ça :
Le bon usage
- Un assistant de première intention, avec validation humaine
- Des brouillons, des variantes, des scripts de structure
- Une charte éditoriale traduite en consignes réutilisables
- Des faits vérifiés et des sources conservées
- Des données sensibles exclues par défaut
- Un processus, même léger, mais réel
Le mauvais usage
- Un robot auteur, sans relecture sérieuse
- Un copier-coller de données internes dans un outil grand public
- Des posts en rafale pour « faire du volume »
- Des promesses, des chiffres, des citations sans contrôle
- Une dépendance au modèle, donc une fragilité
Ce n’est pas une querelle d’experts. C’est une question de responsabilité. Et elle devient encore plus visible avec la régulation.
La régulation arrive dans les process, pas dans les slogans
En Europe, l’AI Act fixe un cadre et un calendrier d’application, avec des obligations qui entrent progressivement en vigueur. La Commission européenne indique une entrée en vigueur au 1er août 2024, puis une application complète au 2 août 2026, avec des jalons, dont l’application d’obligations liées aux modèles d’IA à usage général à partir du 2 août 2025. Le texte insiste aussi sur des obligations de transparence, dont l’étiquetage ou la divulgation de contenus générés selon les cas.
Ça change une chose essentielle. L’IA générative ne reste plus un gadget de productivité. Elle devient un sujet de conformité, de preuve, et de gouvernance. Le « mauvais utilisateur » ne met pas seulement sa marque en danger. Il met aussi son organisation en risque.
Pourquoi confier ça à des pros, et pas à l’enthousiasme interne
L’idée de base, « tout le monde va prompter », ressemble à « tout le monde va faire la com ». Dans les faits, les entreprises finissent par recréer des rôles. Parce qu’une IA utilisée en communication touche à tout. La marque, la voix, la cohérence, la preuve, le droit, la data, la production, la diffusion. Si personne ne tient le centre, tout part en confettis.
C’est là que les agences spécialisées entrent en scène. Elles ne vendent pas juste des textes. Elles vendent un cadre de production. « Par exemple, l’offre IA-SHOKO se présente comme une offre d’accompagnement autour de l’IA pour la communication, avec une promesse de gain de temps, de cohérence de marque, et un volet accompagnement et formation. L’agence met aussi en avant une offre orientée réseaux sociaux, branding, IA génératives et veille, dans sa communication publique », explique Arnaud Degrèse, dirigeant de l’agence Shokola à Biarritz.
On peut aimer ou non le discours. Mais l’intérêt d’un prestataire se situe ailleurs. Une agence impose une discipline que l’interne néglige souvent au début :
- Une charte de prompts alignée sur la marque, pas sur l’inspiration du moment
- Un contrôle qualité éditorial et factuel
- Une gestion des risques, dont données personnelles, droits, réputation
Une organisation de production qui évite les « allers-retours interminables » que certaines équipes connaissent trop bien - Une traçabilité minimale, utile quand une question arrive après publication
Ce que l’interne fait « quand il a le temps », une équipe professionnelle le fait « par design ». Et c’est précisément ce qui distingue l’usage amateur de l’usage robuste.
Prise de position claire
Un bon utilisateur d’IA ne ressemble pas à un magicien du prompt. Il ressemble à un professionnel qui sait briefer, vérifier, arbitrer, et assumer. Un mauvais utilisateur ressemble à quelqu’un qui délègue sa pensée à une machine, puis délègue les conséquences aux autres.
Dans la communication, les conséquences arrivent vite. Un post faux, une citation inventée, une promesse intenable, un visuel ambigu, une donnée personnelle mal traitée. À ce stade, l’entreprise ne cherche plus « un outil ». Elle cherche un responsable. Confier ces sujets à des pros, dont une agence structurée si son offre correspond au besoin, évite de transformer l’IA en loterie interne.
Le vrai luxe en 2025 n’est pas de générer plus. C’est de publier moins, mais mieux, et de dormir tranquille après.
Antoine GARCIA






















