Emmanuel MÉTHIVIER
Expert en innovation dans le secteur bancaire, excelle en gestion de l’innovation, blockchain, architecture d’entreprise et APIs. Catalyst chez Axway, il guide les organisations de la région EMEA vers une stratégie API-first.
Avec la notion d’intelligence artificielle, d’IA, on atteint une forme de quintessence sémantique, en associant deux notions antagonistes qui renvoient nos imaginaires à une confrontation fondamentale, celle du vivant et de l’inanimé en jetant de nouvelles interrogations sur la frontière qui les sépare. Il y a un siècle ou presque, Fritz Lang dans Metropolis sous les traits de la sublime Brigitte Helm mettait en scène les mêmes espoirs et les mêmes craintes, insistant sur les régressions sociales souvent radicales qu’imposent ceux qui se cachant derrière le progrès technologique en tirent l’essentiel du profit. D’ailleurs, les bénéfices réels d’un progrès sont d’autant plus difficiles à cerner et ses réels bénéficiaires d’autant plus difficiles à dénombrer que la terminologie qui lui est associée, trouble les imaginaires.
Autour de l’intelligence artificielle, nous autres francophones, nous trouvons jeté dans une arène sémantique singulière. Pour nous, la notion d’intelligence, car c’est bien ce mot seul qui fait débat, est intrinsèquement rattachée à la nature humaine, et dans une moindre mesure animale. Pour les anglophones qui sont à l’origine de l’expression artificial intelligence, ce mot admet en revanche deux acceptions : celle d’intelligence avec toute la charge émotionnelle qu’il véhicule et celle plus prosaïque de renseignement. La CIA n’est que l’Agence centrale de renseignement étasunienne et l’Intelligence Service est aux yeux des Britanniques l’équivalent de nos très franchouillards renseignements généraux.
L’IA générative agite les discussions et des débats de n’importe quel salon ou événement professionnel actuel. Et, régulièrement au cours de ces échanges, les Data Scientists sont pointés du doigt pour ne pas avoir vu venir — peut-être parce qu’ils sont concentrés sur leurs tâches quotidiennes — les impacts que pouvaient engendrer les Large Language Models (LLM ou Grand modèle linguistique). Ils semblent même passer totalement à côté de la révolution fondamentale apportée par l’IAGen… à moins, tout simplement, que cette révolution n’ait pas besoin d’eux.
Yann Lecun, patron de l’IA chez Facebook, pointait déjà cette idée en affirmant que la vraie révolution ne réside pas dans l’optimisation opérationnelle, mais dans l’étape suivante, à savoir l’interface conversationnelle capable de remplacer le smartphone. Et quelle place, alors, pour les Data Scientists ?
Du PDA à l’IAGen, la relation client réinventée
Le concept d’assistant personnel digital est né au milieu des années 90 avec les PDA, dont la filiation directe se retrouve aujourd’hui dans nos smartphones. Pendant 20 ans, ces outils ont occupé la place d’intermédiation de la relation client.
Depuis les premiers agents conversationnels, le monde a connu de gros progrès technologiques. Il reste néanmoins un long chemin à parcourir avant de pouvoir proposer un assistant numérique omniscient et omnipotent, c’est-à-dire qui puisse être l’égal d’un utilisateur équipé d’un smartphone. Visiblement, ce qui fait défaut à tous ces agents est leur incapacité à apprendre par eux-mêmes. Ainsi, enrichir leurs capacités ou leur base de connaissances dépend totalement du bon vouloir de leur éditeur en la matière.
Et c’est dans ce cas précis que la révolution apportée par l’IAGen va rebattre les cartes. Et paradoxalement, c’est en écoutant des « non experts » de l’IA qu’il est possible de mesurer toute l’étendue de la révolution qu’apporte l’IA générative, à savoir la naissance d’un nouvel « operating system » de la relation client via des assistants personnels.
Vers un nouvel « Operating System » à base d’IA générative
Comme chacun le sait, un operating system est une couche logicielle qui permet à l’humain de commander la machine, à travers un langage plus ou moins évolué. Historiquement basé sur une interface textuelle (UNIX et son prompt), il va évoluer en incorporant un aspect plus graphique permettant de commander les nouveaux périphériques proposés par les ordinateurs (souris, carte audio, graphiques, réseau).
Même si aujourd’hui le mot de « prompt » reprend une vraie vitalité dans l’actualité de ce nouveau monde des LLM et LAM, grâce à ces IA génératives, une nouvelle couche logicielle très évoluée apparaît, permettant de créer des assistants virtuels qui s’occupent de tous les moments de nos vies. Or, les Data Scientists qui n’ont pas l’habitude de cet exercice d’acculturation avec les autres équipes grippent la machine. Ils ne montrent pas la direction vers laquelle tendre, là où, jusqu’à présent, ceux qui apportaient la valeur d’innovation et de transformation avaient la capacité de mélanger plusieurs disciplines. Et comme de leur côté, les chefs architectes n’ont pas l’autorité pour « vendre » ce genre de discours… le risque existe, pour l’entreprise, de rater le virage.
Les assistants virtuels à base d’IAGen : les nouveaux majordomes de l’ère numérique
Ces nouveaux assistants virtuels, dont on a pu avoir un avant-goût au CES grâce à la présentation de Rabbit-R1, sont des outils numériques qui, dans notre poche, s’occupent de gérer notre quotidien, à l’image des célèbres majordomes de la pop culture (Higgins dans Magnum ou Alfred dans Batman). Ce nouvel operating system va pouvoir proposer, comme ses « grand-parents », Windows, OSX ou Android, d’ajouter des interfaces vers des services ou des extensions. Et à l’instar des « drivers » qui pilotaient les extensions à Windows, les services digitaux sous forme d’API métier permettront une extension des capacités de ces nouveaux assistants virtuels.
Pour illustration, imaginons que l’on demande à son assistant virtuel de nous préparer un petit week-end en amoureux. Il pourra, si les « connecteurs » sont disponibles, vérifier notre capacité de financement, la disponibilité des transports et des hôtels, et réserver tout cela pour nous. Encore faut-il que Booking, Air France et notre banquier fournissent les services nécessaires.
S’il est encore trop tôt pour savoir si cet assistant virtuel sera spécialisé (comme Rabbit) ou intégré dans un smartphone (comme SIRI), une chose est certaine : les SI qui ne seront pas ouverts vont rater le virage.
Naviguer vers l’avenir digital : conseils pour une transformation réussie
La mise en œuvre de l’IA générative reposera sur l’usage des LLM existants — et non créés sur mesure — sans recourir au concours de Data Scientists. Les compétences de développement serviront à concevoir la plateforme d’IA générative. Cette dernière s’appuiera alors sur un orchestrateur et des API.
Et la question qui se posera sera alors de fournir les bons drivers au plus important Operating System des assistants. À ce jour, ce modèle cible pêche par le retard de mise à disposition de ces interfaces et de leur exposition. D’où l’apparition du modèle Rabbit-R1 capable de compléter ce LLM par un LAM, un « large action model ».
Or, le coût d’utilisation de ces outils est plus coûteux et complexe qu’un simple appel API. Et l’on sait que le mode de fonctionnement des IA génératives est de donner la priorité aux services les plus courts et les plus rapides d’accès. Ainsi, les services APIsés auront de fait un plus grand succès que toute autre technologie développée spécifiquement. C’est pourquoi il est important de comprendre que l’APIsation du SI doit être considérée comme une priorité.
Pour l’entreprise, l’enjeu consistera donc à comprendre les enjeux relatifs aux datas, à repenser son exposition et celle de son business, pour qu’ils s’intègrent comme une extension privilégiée de ces Operating système IA. Et pour cela, il y a plus besoin de développeurs que de Data Scientists.
Il est donc grand temps pour l’entreprise de prendre le virage et d’ouvrir son SI, au risque de finir comme le bistrot de la N7 quand l’Autoroute A6 a été inaugurée.