What 81,000 people want from AI, Anthropic.
Rapport principal et appendice méthodologique consultés sur le site.Précision importante, Anthropic n’a pas interrogé le grand public, mais des utilisateurs de Claude volontaires pour répondre à un entretien.
Dans le débat public, l’IA reste enfermée dans deux récits simplistes. D’un côté, l’outil censé alléger le travail, accélérer l’apprentissage et rendre du temps. De l’autre, la machine accusée de menacer l’emploi, de nourrir la dépendance et d’éroder les savoir-faire. L’intérêt de l’étude publiée par Anthropic tient dans ce point précis. Elle ne révèle pas deux camps, mais une contradiction partagée. Les mêmes répondants attendent beaucoup de l’IA et identifient très bien les risques qu’elle introduit dans leur quotidien.
Une attente très concrète, loin des grands récits futuristes
Premier enseignement, les attentes exprimées restent très concrètes. Les répondants parlent d’abord de travail, d’organisation personnelle, de gestion du quotidien et de temps retrouvé pour leurs proches. L’IA apparaît moins comme une révolution abstraite que comme un outil d’amélioration immédiate. Elle sert à aller plus vite, à mieux structurer ses journées, à débloquer une tâche, à apprendre plus efficacement.
Cette hiérarchie mérite attention. Elle rappelle une évidence souvent noyée dans le bruit médiatique. L’adoption d’une technologie ne naît pas seulement d’une fascination pour la nouveauté. Elle prospère surtout lorsqu’un usage précis répond à une fatigue bien réelle. Gagner du temps, mieux organiser ses journées, surmonter un blocage professionnel, apprendre plus vite, trouver un appui dans des tâches complexes. Voilà le terreau concret sur lequel l’IA s’installe.
Dans cette perspective, le succès de ces outils ne repose pas uniquement sur leur sophistication technique. Il repose aussi sur leur capacité à s’insérer dans des vies saturées, des métiers sous pression, des environnements où l’exigence de vitesse se heurte déjà à la pénurie d’attention.
Les chiffres à retenir
- 80 508 entretiens complets retenus par Anthropic.
- 159 pays représentés.
- 70 langues couvertes.
- 18,8 % des répondants citent l’excellence professionnelle parmi les bénéfices attendus.
- 13,7 % évoquent la transformation personnelle.
- 13,5 % parlent d’une meilleure gestion de la vie.
- 11,1 % mentionnent davantage de temps pour la famille.
- 26,7 % placent le manque de fiabilité parmi les premières craintes.
- 22,3 % s’inquiètent pour l’emploi et l’économie.
- 21,9 % redoutent une perte d’autonomie.
Un point ressort immédiatement de ces chiffres. Les attentes touchent d’abord à l’efficacité concrète, tandis que les craintes visent en priorité la qualité réelle de l’outil et ses effets sur l’autonomie.
La première inquiétude ne concerne pas l’emploi, mais la fiabilité
Là où le rapport devient particulièrement instructif, c’est dans l’ordre des peurs. La principale inquiétude évoquée par les répondants ne touche pas au remplacement économique. Elle porte sur le manque de fiabilité. L’IA convainc, formule bien, synthétise vite, mais elle se trompe aussi, parfois avec aplomb. Pour les utilisateurs, le problème numéro un ne relève donc pas uniquement d’un futur incertain. Il prend la forme d’un irritant immédiat, presque banal, au cœur de l’usage quotidien.
Cette donnée dit beaucoup de l’état réel du marché. Les discours commerciaux ont longtemps insisté sur la puissance, la rapidité, l’effet de levier. Les usagers, eux, rappellent une réalité moins flatteuse. Un outil qui fait gagner vingt minutes avant d’imposer une vérification minutieuse n’offre pas forcément un gain net. Un assistant qui produit une réponse élégante, mais fausse déplace la charge de travail au lieu de la réduire. L’enjeu majeur ne tient donc pas seulement dans l’automatisation. Il tient dans la confiance.
Ce décalage devrait calmer une partie du discours ambiant. Depuis des mois, le débat se focalise sur la destruction d’emplois. Les usagers, eux, parlent d’abord d’un problème plus immédiat et plus trivial, mais aussi plus corrosif. Une machine qui répond vite sans répondre juste.
Sur ce point, l’étude d’Anthropic agit comme un rappel brutal. Dans les professions intellectuelles, la qualité d’un système ne se mesure pas seulement à sa capacité de produire. Elle se mesure à la quantité de doute qu’il injecte dans la chaîne de décision.
L’ambivalence comme condition ordinaire de l’usage
Le trait le plus fort du rapport réside sans doute là. Les bénéfices et les risques ne se répartissent pas entre deux populations différentes. Ils cohabitent chez les mêmes individus. Ceux qui cherchent du soutien émotionnel redoutent davantage la dépendance. Ceux qui veulent apprendre avec l’IA craignent aussi un affaiblissement de leurs propres ressources cognitives. Ceux qui apprécient le gain de temps évoquent en parallèle une forme de productivité trompeuse, où la promesse d’allègement se transforme en intensification diffuse.
L’IA n’apporte presque jamais un bénéfice pur. Chaque avantage porte sa contrepartie. Le confort d’usage expose à une forme de relâchement intellectuel. La rapidité nourrit parfois la précipitation. L’assistance à la décision améliore certains gestes tout en affaiblissant la vigilance qui les rendait solides. L’aide à la rédaction fluidifie les textes, mais pousse aussi vers des formulations plus plates, plus homogènes, plus prévisibles.
Voilà le vrai sujet. Le débat public continue d’opposer enthousiasme et panique, progrès et menace, alors que l’expérience réelle est plus trouble. Le gain existe. La facture aussi.
Que mesure l’étude réellement ?
Point méthodologique. Anthropic n’a pas interrogé un panel représentatif de la population mondiale. Les répondants sont des utilisateurs de Claude volontaires pour participer à un entretien mené en décembre 2025. Sur 112 846 réponses initiales, 80 508 ont été retenues après filtrage. Ce matériau éclaire donc d’abord l’expérience d’usagers déjà engagés dans l’usage de l’IA. Il ne décrit pas à lui seul l’opinion générale.
Une leçon sévère pour les vendeurs de magie
Pour les entreprises qui conçoivent, déploient ou commercialisent ces systèmes, la leçon est claire. Le marché ne réclame plus simplement des démonstrations de force. Il réclame des taux d’erreur plus lisibles, des dispositifs de vérification, des limites explicites sur les usages sensibles, et une promesse commerciale moins gonflée que les plaquettes actuelles.
Car les utilisateurs ne semblent pas attendre une promesse d’omnipotence. Ils veulent des règles claires. Ils veulent savoir dans quels cas la machine aide vraiment, dans quels cas elle se trompe, dans quelles conditions elle doit être supervisée, et à quel moment son intervention devient contre-productive. Le marché attend moins de promesses et plus de garanties. La question centrale n’est plus la puissance. C’est la fiabilité.
Cela vaut particulièrement pour les secteurs où la décision engage davantage qu’un simple confort d’usage. Dès qu’entrent en jeu la finance, le droit, la santé, l’information ou la stratégie, l’illusion de maîtrise devient un risque en soi. Une erreur bien formulée, habillée de cohérence, garde un pouvoir de nuisance supérieur à une approximation maladroite. Dans ce cadre, l’apparence de compétence se révèle parfois plus dangereuse qu’une incompétence manifeste.
L’enjeu tient dans les règles d’usage
Le principal enseignement dépasse finalement la question de savoir si l’IA libérera ou remplacera. L’enjeu réel tient plutôt dans la manière dont les organisations, les professions et les individus vont encadrer une technologie qui aide tout en fragilisant. L’utilité n’efface pas le risque. Le confort ne supprime pas la dépendance. Le gain de temps ne garantit ni la qualité ni l’autonomie.
Pour les dirigeants, les marketeurs, les rédactions, les créateurs et les responsables produit, la conséquence est lourde. Il ne suffit plus d’intégrer l’IA dans un processus. Il faut fixer des règles d’usage. Rendre visible l’incertitude. Maintenir la responsabilité humaine. Refuser la rhétorique de l’assistant infaillible. Admettre qu’un bon système n’est pas celui qui prend toute la place, mais celui qui laisse encore de la place au jugement.
L’intérêt du rapport d’Anthropic ne tient pas dans une réponse simple à la question du salut ou du désastre. Il montre autre chose. Les usagers veulent l’aide, mais refusent la tutelle. Ils cherchent la vitesse, mais pas au prix du jugement. Le risque n’apparaît pas seulement quand la machine remplace l’humain. Il apparaît aussi quand elle l’habitue à renoncer sans s’en rendre compte.
Augustin GARCIA













