Plus besoin d’avoir une bonne idée : il suffit de trouver le bon biais. rareté, halo, FOMO, biais d’autorité… L’IA n’éclaire pas notre jugement : elle l’embrouille méthodiquement, avec notre complicité passive et l’aval des investisseurs. L’humain devient un levier d’engagement, réduit à un animal prévisible dans un labyrinthe algorithmique. Pas besoin de science-fiction : le piège est déjà là, poli, ergonomique, addictif… et rentable.
Une ingénierie de la vulnérabilité
Les biais cognitifs sont des raccourcis mentaux. Ils nous aident à décider vite, souvent bien, parfois mal. L’IA les transforme en leviers d’action. Chaque clic, chaque hésitation, chaque scroll devient une donnée comportementale. L’algorithme apprend ce qui déclenche une réponse émotionnelle : peur de rater, besoin d’appartenance, désir de validation. Il calibre alors ses réponses pour activer ces leviers. Pas pour informer. Pour pousser à l’acte.
Ces mécanismes ne sont pas cachés dans un laboratoire obscur. Ils sont au cœur des plus grandes plateformes. Sur Amazon, Booking, Instagram ou TikTok, les modèles d’IA intègrent ces biais dans leur logique de recommandation. L’objectif : augmenter l’engagement ou la conversion. Le moyen : rendre les comportements humains plus prévisibles, donc plus exploitables.
Du marketing à la manipulation
On ne parle plus ici d’ergonomie ou d’expérience utilisateur. On parle d’exploitation systématique. Le marketing digital, dopé à l’IA, passe un cap : il ne cherche plus à séduire, mais à hacker la psychologie. Les anciens vendeurs étudiaient leurs cibles. Les IA les dissèquent.
Ce n’est pas un effet pervers : c’est un choix stratégique. Les équipes design testent des variantes de contenus, d’icônes, de formulations. Elles mesurent leur impact sur des milliers d’utilisateurs en temps réel. Ce qui déclenche un clic est gardé, le reste jeté. Ce n’est plus de la communication : c’est une science du réflexe.
Une économie des biais
Chaque biais exploité devient une ressource. Comme le pétrole, il alimente des chaînes de valeur. Un biais bien utilisé peut générer des millions. Ce n’est plus l’IA qui s’adapte à l’humain. C’est l’humain qui est remodelé pour convenir aux logiques de performance de l’IA.
Cette logique s’applique partout : e-commerce, jeux vidéo, réseaux sociaux, formation en ligne, même certaines applications de santé. Tout ce qui capte l’attention est suspect. Derrière chaque « expérience utilisateur » flatteuse, il faut se demander : est-ce un service, ou un piège bien déguisé ?
La fin du libre arbitre numérique ?
Le problème, c’est que ces systèmes sont invisibles. On croit choisir, mais on réagit. On pense cliquer librement, mais le cadre du choix est biaisé dès le départ. L’illusion d’autonomie masque un pilotage algorithmique de plus en plus sophistiqué. L’IA ne fait pas que prédire notre comportement. Elle le modèle.
Et le pire, c’est que ça marche. Les utilisateurs restent. Les conversions montent. Les profits explosent. Tant que cette mécanique rapporte, personne ne l’arrêtera. Et les biais cognitifs, naguère objets d’étude pour la prévention des erreurs, deviennent les piliers d’un capitalisme attentionnel sans scrupules.
Arnaud DEGRESE