Mickaël Réault
CEO Sindup (plateforme de veille stratégique et observatoires) / Président co-fondateur du Grand Rebond (catalyseur et accélérateur pour une économie durable et solidaire)
L’avènement de l’IA générative amorce un tournant radical dans notre manière d’interagir avec les outils et services utilisés au quotidien. À l’aube d’une accélération de cette inévitable disruption technologique, son adoption rapide et massive engage la responsabilité des organisations et exige de leur part une véritable rigueur pour être le plus aligné possible avec les engagements RSE ou Cybersécurité. Cela passe notamment par la prise en compte des enjeux sociétaux, de sécurité, de souveraineté, de résilience, mais aussi de sobriété numérique : protection des données personnelles (RGPD), mesure des ressources consommées (CSRD et SCOP3), devoir de vigilance, éco-conception, transparence des algorithmes, inclusion, accessibilité, formation, etc. Il va donc s’agir d’apprivoiser cette IA générative sereinement et progressivement pour garantir son utilité, son évolutivité et, surtout, sa frugalité !
Comprendre les défis posés par l’adoption rapide et massive de l’IA
L’intelligence artificielle (IA) a, en effet, des impacts majeurs sur divers aspects économiques, sociaux et environnementaux. Ces derniers, souvent sous-estimés, voire ignorés, sont d’une importance capitale pour comprendre les défis que pose l’adoption rapide et massive de l’IA. L’un des impacts les plus frappants de l’IA est son coût environnemental. L’entraînement et la mise à jour des modèles nécessitent une quantité astronomique d’énergie. Une étude de l’université du Massachusetts a révélé que cela produirait autant de dioxyde de carbone (CO2) que 205 vols aller-retour entre Paris et New York. D’après les estimations de Bloomberg, cela pourrait même consommer autant d’énergie que l’équivalent de 100 foyers américains sur un an.
En 2050, les émissions de CO2 générées par le secteur numérique en France pourraient atteindre 50 millions de tonnes, soit trois fois plus qu’aujourd’hui, selon les prévisions de l’ADEME et de l’ARCEP. En décuplant ses usages, ces chiffres montrent l’énorme pression que l’IA, avec son écosystème (modèles LLM, réseaux de communication, centres de données, objets connectés, terminaux…), contribuera à exercer sur les ressources naturelles, non seulement à travers sa consommation d’énergie, mais aussi par le biais de ses besoins en métaux et terres rares.
Face à ce constat, les externalités environnementales ne doivent pas être ignorées, mais prises en compte dès l’adoption de nouveaux outils afin d’éviter l’effet boomerang : par la réglementation environnementale et/ou par l’inflation des prix à l’avenir, des contraintes risquent d’apparaître alors même que nous aurons créé de nouvelles dépendances. D’où l’importance d’anticiper ces risques dès à présent.
L’IA au service de l’humain passe par de l’accompagnement
En outre, tous les métiers et secteurs sont challengés par l’IA générative, ce qui nécessite d’identifier et d’automatiser de plus en plus de tâches pour faire évoluer les compétences et l’organisation en conséquence. Cela tout en prenant en compte le volet environnemental, mais aussi la résilience et la sécurité des infrastructures numériques mise en œuvre.
Côté RH, la formation et l’accompagnement sont clés. À titre d’exemple, le secteur de la veille stratégique, qui consiste à trier, filtrer et analyser les flux d’informations disponibles dans l’environnement d’une organisation, est directement impacté par cette évolution technologique dont le fondement est justement d’automatiser le traitement des données et des informations textuelles. La puissance de l’intelligence artificielle est incontestable, certes, mais ce n’est rien si les utilisateurs ne sont pas en mesure de se l’approprier.
L’IA au service de l’humain passe donc par de l’accompagnement, du support, de la maîtrise d’ouvrage et de l’animation des équipes. Les veilleurs doivent, en effet, apprendre à automatiser le dispositif de veille en utilisant les fonctionnalités adaptées à leurs besoins. Les contributeurs ou curateurs, en charge d’apporter leur expertise au sein des directions métiers, vont travailler sur l’optimisation du partage de leurs informations, de leurs synthèses et de leurs analyses.
Les directions métier vont apprendre à identifier les informations utiles et à les intégrer dans des procédures et au sein de leurs outils. Elles vont également monter en compétence en matière d’intelligence économique appliquée à leur quotidien, tout comme les directions générales qui, quant à elles, vont également affiner leur vision prospective. Enfin, ce qui est commun à chacune d’entre elles, au-delà du gain de temps, c’est le besoin de renforcer l’esprit critique et l’amélioration du processus de décision dans une démarche d’intelligence collective.
Ne pas faire de l’IA le pesticide de la pensée
Par extrapolation, tout comme le bio veut nous éloigner des pesticides, il faudra être vigilant à ne pas recréer la même situation avec l’intelligence artificielle. L’effervescence engendrée par l’arrivée de ChatGPT, moteur d’IA développée par OpenAI, a, par exemple, été le premier à faire couler beaucoup d’encre, quand ce n’est tout simplement pas la sienne.
Un grand nombre de contenus médiatiques ou littéraires lui sont en effet attribués dans une logique première de productivité et d’économies d’échelle. Poussée à son paroxysme, cette réduction des coûts de production déboucherait potentiellement sur cette situation absurde où l’intelligence artificielle produirait, non plus à partir de l’apprentissage d’articles écrits par l’humain, mais… par elle-même.
Le coût marginal de la production de contenu tendrait alors vers zéro, ne laissant plus de place à un modèle économique viable favorisant l’investigation, l’enquête de terrain, l’enrichissement du carnet d’adresses d’experts et de référents et donc l’analyse qui en découle et, surtout, peu de place à l’intelligence humaine et collaborative.
La nécessité d’une charte de l’IA éthique et responsable
L’IA doit impérativement conserver son rôle d’auxiliaire au risque de devenir le pesticide du monde de la pensée : une solution de facilité pour une production industrielle intensive conduisant à un appauvrissement des sols intellectuels, un affaiblissement de l’esprit critique déjà bien malmené. En conséquence, et afin de tirer le meilleur parti de l’IA générative, tout en limitant les risques associés, il s’agira de ne pas en devenir dépendant et d’en faire un usage frugal pour des objectifs bien définis et utiles. Pour aller plus loin, le conseil scientifique consultatif constitué dans le cadre du programme d’open innovation Sindup.AI publiera prochainement une charte de l’IA éthique et responsable.