Virginie BRARD
Sales Director France et Benelux de Fivetran
Avec 20 ans d’expérience en tant que Sales Director dans de grands groupes, Virginie apporte son expertise en conduisant la transformation numérique des clients avec une approche de vente basée sur la valeur.
Selon l’étude Vanson Bourne, 75 % des entreprises françaises interrogées font confiance à leurs résultats en matière d’IA/ML. En même temps, les personnes interrogées indiquent avoir des inefficacités fondamentales au niveau des données. Elles perdent en moyenne 8 % de leur chiffre d’affaires annuel mondial, soit 722 millions de dollars (les entreprises interrogées ont un chiffre d’affaires annuel moyen de 5,6 milliards de dollars). Ces résultats s’intensifient par l’utilisation de modèles d’IA inadéquats, créés à partir de données imprécises ou de mauvaise qualité, entraînant des décisions commerciales erronées.
L’enquête a révélé que près de neuf entreprises sur dix utilisent des méthodes d’IA/ML pour créer des modèles de prise de décision autonome. 100 % investiront dans l’IA générative dans les deux prochaines années. Dans le même temps, les entreprises sont confrontées à des problèmes d’imprécision et d’hallucination [1] des données, ainsi qu’à des préoccupations concernant la gouvernance et la sécurité des données.
Et où se situe la France ?
Les entreprises françaises utilisent de plus en plus l’IA au quotidien. 36 % d’entre elles progressent dans son utilisation mais ne sont pas encore autonomes. 28 % des entreprises l’utilisent, quant à elles, de manière optimale sans intervention humaine.
Au total, près de neuf entreprises sur dix (89 %) utilisent des méthodes d’IA/ML pour créer des modèles capables de faire des prévisions et de prendre des décisions automatiquement. Les entreprises françaises font de plus en plus confiance aux résultats de l’IA générative (avec 48 %) et sont au-dessus de la moyenne mondiale qui est de 40 %.
Différentes « réalités de l’IA » dans les entreprises
Près d’un quart des entreprises françaises (28 %) ont déclaré avoir atteint un seuil avancé dans l’adoption de l’IA, c’est-à-dire qu’elle utilise l’IA de manière optimale avec peu ou pas d’intervention humaine. Il existe toutefois des différences d’opinions entre les répondants : les cadres techniques qui développent et exploitent des modèles d’IA sont moins convaincus de la maturité de leur entreprise en la matière.
Parmi eux, seuls 22 % la considèrent comme « avancée », contre 30 % des non-techniciens. Il en va autrement de l’IA générative : 63 % des collaborateurs non techniques lui font entièrement confiance, contre 42 % des cadres techniques. Un autre désaccord existe entre les experts en données aux différents niveaux de direction d’une entreprise.
Alors que les postes juniors considèrent les infrastructures informatiques obsolètes comme le plus grand obstacle au développement de modèles d’IA (49 %), les collègues plus expérimentés considèrent que le principal problème est que les collaborateurs disposant des bonnes compétences se concentrent sur d’autres projets (51 %). Ils sont ainsi contraints d’utiliser leurs ressources pour des processus de données manuels tels que le nettoyage des données et la réparation des pipelines de données défectueux. Les entreprises admettent que leurs data scientists passent la majeure partie de leur temps (67 %) à préparer des données plutôt qu’à créer des modèles d’IA.
Les mauvaises pratiques en matière de données sont encore très répandues
La cause du potentiel gaspillé des spécialistes des données et des performances insuffisantes des programmes d’IA est la même : des données inaccessibles, peu fiables et incorrectes. La plupart des entreprises a des difficultés à accéder à toutes les données dont elles ont besoin pour exécuter des programmes d’IA (62 % en France) et à les mettre dans un format utilisable (48 % en France).
Les nouvelles approches de l’IA générative entraînent d’autres complications : 35 % des entreprises françaises interrogées ont déjà été confrontées à des hallucinations de données. Celles-ci peuvent conduire à de mauvaises décisions, car la base d’informations est insuffisante. Elles réduisent la confiance dans les grands modèles de langage (LLM) ou la volonté des collaborateurs d’utiliser l’outil. De plus, elles font perdre beaucoup de temps pour localiser et corriger les données.
La gouvernance des données, un domaine clé pour l’utilisation de l’IA
En France, pour l’ensemble des entreprises interrogées, les craintes liées à l’utilisation de l’IA générative demeurent l’augmentation des risques dus à la cybersécurité (40 %), les risques financiers dus à la sensibilité des données (39 %) et le manque de réglementation (39 %). Des bases solides de gouvernance des données sont particulièrement importantes pour les entreprises qui souhaitent soit développer leurs propres modèles d’IA générative, soit utiliser une combinaison de modèles externes existants et de modèles développés en interne.
Toutefois, étant donné que la majorité (59 %) des personnes interrogées prévoient d’utiliser de nouvelles technologies pour renforcer les mouvements de données de base, la gouvernance et les fonctions de sécurité, il y a des raisons d’être optimiste.
[1] Les hallucinations IA sont des résultats incorrects ou trompeurs générés par les grands modèles de langage.