Les PoCs en IA générative ont proliféré, principalement dans les grandes entreprises. Mais peu d'initiatives ont été industrialisées en raison de leur complexité.

Hanan Ouazan, Partner et Generative AI lead chez Artefact, fait le point sur la situation et envisage des pistes d'amélioration dans cet article de Christophe Auffray, journaliste à LeMagIT.

"L'adoption de l'intelligence artificielle générative est loin d'être uniforme parmi les entreprises françaises. La taille reste un facteur déterminant. Mais la plupart des grands groupes sont passés à l'action (stratégie, PoC, etc.) ; seuls quelques-uns sont encore à la traîne aujourd'hui."
Hanan Ouazan, responsable de l'IA générative chez Artefact

En revanche, les TPE et les PME sont plus hésitantes. "Toutes les organisations ne sont pas sur la même longueur d'onde", souligne Hanan. "Les grandes entreprises sont les premières à s'emparer du sujet. Mais cela ne veut pas dire que les "grands" ont réussi à apprivoiser la technologie."

La complexité de l'industrialisation

"Il y a un an, nous avions déjà anticipé la principale difficulté des projets d'IA générative, à savoir leur industrialisation. [Il y a quelques années, un PoC en intelligence artificielle [classique] prenait trois à quatre mois. Pour la GenAI, deux à trois semaines peuvent suffire. L'industrialisation, en revanche, est une histoire complètement différente. Les entreprises se rendent compte des limites des initiatives de PoC".

À cela s'ajoute le problème de l'adoption, en particulier pour les solutions d'"IA intégrée" telles que Copilots. L'utilisation n'est pas acquise. De plus, le retour sur investissement de ces outils reste à déterminer.
Les solutions internes, c'est-à-dire "fabriquées" plutôt qu'"achetées", ne sont pas non plus à l'abri des problèmes d'adoption.

Malgré ces obstacles, certains secteurs s'avèrent dynamiques en matière d'IA générative, notamment le commerce de détail et le luxe. Même si, pour ce dernier, les progrès ont été moins importants qu'initialement prévu, selon le spécialiste GenAI de Artefact. La banque et la santé seraient plus à la traîne, mais cela est dû en grande partie à des problèmes de cloud et de conformité.

RAG, Recherche 2.0, Automatisation, Créativité : Quatre familles et quatre échéances

Des progrès à deux vitesses peuvent également être observés au niveau sectoriel. Selon Hanan, l'industrie est en avance dans la course à l'adoption.

Mais même parmi les acteurs les plus matures, l'industrialisation et la mise à l'échelle (en termes d'adoption et de technologie) restent des obstacles. Les cas d'utilisation se concentrent sur la génération améliorée de recherche (RAG) pour la recherche de documents dans des "bases de données fréquemment négligées".

L'indexation de contenu vise à la fois des applications internes (pour la productivité) et externes (par le biais d'interfaces conversationnelles). Hanan cite l'exemple d'un fabricant impliqué dans un projet visant à rendre son catalogue de produits accessible aux clients en ligne - via un chatbot.

Dans le commerce de détail, l'IA générative est utilisée pour repenser la recherche. Search 2.0, basé sur GenAI, transformerait l'expérience de recherche en exprimant un besoin.

Sans nommer le détaillant, Artefact collabore à la conception d'une solution basée sur la recherche d'intention. "Demain, la recherche fera partie d'une logique d'expérience", prédit le leader de l'IA générative.

L'automatisation constitue une troisième catégorie de cas d'utilisation. Il s'agit notamment d'analyser les messages et les transcriptions des centres d'appels des distributeurs afin d'identifier les irritants ou les problèmes.

"Nous recueillons tous les appels, les transcrivons et les analysons pour créer un tableau de bord. Ce tableau nous permet de voir, par exemple, que 3 000 appels concernent un produit particulier dont les clients pensent qu'il est plus petit que l'image figurant sur la fiche produit. On peut aller jusqu'à ce niveau de détail".

Auparavant, cette analyse des sentiments n'était pas suffisamment efficace. Désormais, elle peut même détecter l'ironie.

L'automatisation couvre également des applications telles que l'analyse des tendances sur les réseaux sociaux ou la saisie en temps réel de data pour le back-office des banques et des assurances.

La quatrième famille est celle de la créativité. "Ce domaine est moins avancé que je ne le pensais, mais il commence à décoller", note Hanan. Artefact travaille avec des clients pour automatiser le marketing direct, par exemple en personnalisant ("contextualisant") les messages SMS pour générer des abonnements en fonction de critères tels que l'appareil du destinataire.

La génération d'images à des fins publicitaires est également en train d'émerger. Cependant, ces usages sont freinés par l'incertitude juridique qui entoure les droits d'auteur et la formation data pour les IA génératrices d'images. Les garanties juridiques promises par certains éditeurs, dont Adobe, pourraient lever les barrières dans ce domaine.

Les applications de l'IA générative sont désormais bien formalisées. Cependant, l'impact en termes de transformation réelle est à nuancer, car peu de projets sont en production et encore moins sont accessibles aux utilisateurs finaux.

"Il existe une abondance d'outils sécurisés de type GPT. Mais ce n'est pas le plus difficile à développer. De plus, comme les applications sont internes, les risques sont limités".

Le coût, l'expérience de l'utilisateur, la qualité et le changement sont les clés de l'industrialisation.

Pour Hanan Ouazan, la cause de ce bilan 2024 est claire : la complexité de l'industrialisation. Il y a plusieurs raisons à cela, dont la moindre n'est pas le coût : les frais d'utilisation peuvent grimper rapidement.

Cependant, toutes les entreprises n'ont pas anticipé le retour sur investissement de leurs cas d'utilisation. La consommation de LLM entraîne des dépenses qui dépassent largement les revenus, qu'ils aient été anticipés ou non. Et si le prix à l'usage de ces solutions a considérablement baissé au cours de l'année écoulée, elles rendent les applications plus complexes et difficiles à maintenir dans le temps.

Ce problème de coût peut être résolu grâce à une "logique d'optimisation" permettant de réduire le coût d'une conversation avec un chatbot, par exemple. Un chat est facturé en fonction de la taille de la question et de la réponse. Chaque nouvelle question s'ajoute à l'historique de la conversation, ce qui augmente le coût total de chaque requête.

"Pour un client industriel, nous surveillons chaque interaction avec le chatbot. Cela nous permet de mesurer les coûts et les causes. Par exemple, il se peut que le chatbot ait du mal à identifier un produit, ce qui entraîne une multiplication des échanges. Le suivi est essentiel pour prendre des mesures correctives."

L'expérience de l'utilisateur est également un paramètre critique. Pour s'en assurer, la latence est importante, mais elle a un coût. Sur Azure, il peut être nécessaire de souscrire à des Provisioned Throughput Units (PTU), des "ressources gérées dédiées et coûteuses".

Il n'y a pas d'adoption réussie sans prise en compte des personnes

Hanan Ouazan cite également la qualité comme un enjeu de l'industrialisation. Mesurer et contrôler la qualité, c'est "mettre en place les bonnes briques d'évaluation [...] Sur certains parcours utilisateurs sensibles, nous déployons une IA dont la fonction est de valider la réponse d'une autre IA. Des processus d'évaluation en temps réel garantissent le maintien de la qualité des réponses de l'IA générative", explique-t-il. "Nous intégrons également des boucles de rétroaction qui exploitent les réponses des utilisateurs pour améliorer les résultats.

L'industrialisation finit par se heurter à l'obstacle humain. La réussite de cette étape passe par des changements de processus. Par exemple, passer d'un chatbot traditionnel à une version basée sur l'IA générative change le métier du service client.

"Un tel changement doit être soutenu, en particulier dans le processus de validation des réponses des chatbots. Une partie de la conversation peut être confiée à une IA pour validation. Et lorsque des humains interviennent, il vaut mieux les assister pour réduire le temps de traitement. Et lorsqu'un humain annote, l'IA doit apprendre pour enclencher un cercle vertueux."

Hanan appelle également à soutenir l'adoption par les utilisateurs et à garder à l'esprit l'expérience de l'utilisateur. "L'adoption ne doit pas être douloureuse. C'est l'approche que Artefact a mise en œuvre dans le cadre d'un projet visant à améliorer la qualité de data dans une base de données de produits pour un fabricant. Les individus ne devraient pas avoir à s'adapter à l'IA générative. C'est à l'IA de s'adapter à eux, en particulier à leur façon de travailler."

Par exemple, Artefact a repensé sa solution de génération de fiches techniques de produits, qui était à l'origine conçue pour s'intégrer directement dans le PIM - un outil peu apprécié par les employés du projet cité.

"Notre méthode pour les projets d'IA générative consiste à sélectionner une entreprise et à identifier ses tâches quotidiennes afin de distinguer celles pour lesquelles l'IA remplacera l'humain ou modifiera l'outil. L'enjeu est d'automatiser ce qui peut l'être et ce qui est difficile pour le métier, et d'augmenter ce qui peut l'être dans des conditions de travail humaines. Et cela ne peut se faire sans interaction avec l'utilisateur cible. Sinon, l'adoption sera nulle.

Formation des utilisateurs : Ajuster le curseur

Qu'en est-il de la formation rapide ? Pour Hanan, c'est une question d'utilisateur. Artefact forme les employés à la méthode CRAFT (Context, Role, Action, Format, Target Audience), qui définit l'utilisation correcte de l'IA. Pour les utilisateurs matures, il est possible de les former au fonctionnement des modèles et des outils qui les intègrent. Cependant, certaines populations sont encore habituées à l'utilisation de mots-clés.

L'entreprise sensibilise ses employés à la possibilité de formuler des requêtes en langage naturel. Elle a également introduit la reformulation. Lorsque des mots-clés (code puk) sont saisis, l'outil reformule : "Cherchez-vous votre code puk ?".

"Il y a un curseur et il doit être ajusté en fonction de la population à laquelle l'outil est destiné. Mais je pense qu'au fur et à mesure que les capacités des solutions d'IA générative s'améliorent, il ne sera plus nécessaire d'envoyer des invites", précise Hanan.

Deux projets futurs en ligne de mire

En 2024, le domaine de l'IA générative se concentre sur deux domaines principaux. Le premier concerne l'adoption, en identifiant les changements dans les professions, les carrières et les compétences.

La seconde est la mise à l'échelle. Elle est pilotée à deux niveaux : la gouvernance (priorisation des besoins, ROI et pilotage des initiatives) et la plateforme GenAI.

Hanan observe une augmentation du nombre de RAG, un phénomène dû aux nombreux PoC réalisés. En conséquence, les entreprises devront rationaliser les éléments de base utilisés dans leurs expériences.

"Demain, nous devrons considérer RAG comme un produit data . Il a sa place en tant que produit dans l'entreprise, tout comme le LLM a sa place en tant que produit.

"Beaucoup de gens pensaient que la GenAI était une chose magique qui les libérerait des contraintes du passé. En réalité, la GenAI apporte encore plus de contraintes", prévient l'expert de Artefact.

Cette évolution s'inscrit dans un continuum. Après le DevOps, puis le MLOps pour traiter spécifiquement de l'IA, le LLMOps est en train d'émerger. " Les garde-fous définis avec le MLOps sont toujours d'actualité. Mais il faut les compléter pour prendre en compte les coûts, les hallucinations et la dimension générative des modèles", conclut Hanan.

Lire l'article sur

class="img-responsive

.