Cette confusion est dangereuse parce qu’elle est séduisante. Elle flatte l’idée que l’outil ferait le métier. Que la compétence se logerait dans l’interface ! Que la sortie de texte suffirait à prouver une expertise ! Or un outil n’a jamais remplacé une lecture juste d’une situation. Il suit. Il n’anticipe pas. Il n’interprète pas.
L’outil n’est pas le métier
La prolifération des GPT « marketing », « RP », « stratégie » ou « branding » en est le symptôme le plus visible. En quelques clics, chacun entraîne son assistant, lui assigne un rôle, et s’autorise à parler au nom d’un savoir-faire. Le geste est simple. La promesse est immense. La réalité, beaucoup moins.
Créer un GPT donne l’illusion d’avoir structuré une pensée alors qu’on a surtout automatisé des formulations. On ne transmet pas une compréhension d’un contexte, d’un marché ou d’une cible. On organise des réponses plausibles. On fige des réflexes. L’outil devient un raccourci commode pour éviter la question la plus exigeante, celle de la légitimité.
Prompter n’est pas penser
Savoir formuler un bon prompt reste utile. C’est une compétence d’exécution. Rien de plus. Un prompt n’est jamais une stratégie, encore moins une vision. Sans cadre clair, sans culture métier, sans objectif assumé, l’IA restitue fidèlement ce qu’on lui confie. Du flou quand la demande est floue. Du générique quand la réflexion manque de profondeur.
Ce que beaucoup confondent aujourd’hui, c’est la qualité formelle avec la pertinence. Un texte bien écrit ne dit pas forcément quelque chose de juste. Une réponse cohérente ne signifie pas qu’elle est adaptée. Prompter sans penser revient à déléguer la formulation d’une idée qui n’a jamais été réellement construite.
Les gestes professionnels ne s’improvisent pas
Pitcher une idée, construire une stratégie éditoriale, définir un angle RP ou une campagne digitale ne relève pas d’un échange avec une interface. Ces gestes s’ancrent dans une pratique, une expérience, une capacité à lire ce qui se joue entre une marque, un public et un contexte donné.
Ils supposent aussi de choisir un ton, d’assumer une posture, parfois de renoncer. L’IA aide à explorer, à structurer, à accélérer. Elle ne remplace ni l’intuition, ni le discernement, ni la responsabilité. Elle amplifie ce qui existe déjà. Elle ne crée pas ce qui manque.
L’IA rassure parce qu’elle répond toujours. Elle ne doute pas. Elle ne résiste pas. À force d’obtenir des réponses rapides et propres, on oublie la question qui précède toutes les autres. Celle qui oblige à prendre du recul. Celle qui demande de décider ce que l’on cherche réellement à faire.
Créer un GPT ne revient pas à transférer une expertise. Cela revient à organiser des réponses types. Et un bon outil, mal utilisé, reste un problème. Non pas parce qu’il serait mauvais, mais parce qu’il masque les failles de raisonnement au lieu de les exposer.
Ce que l’IA fait bien. Et ce qu’elle ne fera jamais
L’IA va vite. Elle structure. Elle synthétise. Elle ouvre des pistes. Elle aide à explorer des options. Sur ces terrains, elle est redoutablement efficace. Mais elle ne comprend ni une cible, ni un enjeu implicite, ni une tension contextuelle.
Elle ne choisit pas un point de vue. Elle n’assume aucune conséquence. Elle ne décide pas de ce qui mérite d’être dit, ni de ce qui doit être tu. Ce qui manque dans beaucoup de productions générées n’est pas la qualité d’écriture. C’est l’intention. Le pourquoi. Le à qui. Et surtout ce que l’on cherche à déclencher.
L’IA est un accélérateur puissant, mais elle ne décide jamais de la direction. Cette responsabilité reste celle de celles et ceux qui exercent un métier, pas de ceux qui déroulent une interface.
Bruno SANVOISIN
Co-Président du SYNAP
Consultant RP chez Influactive






















