Les démonstrations de faisabilité (PoC) dans le domaine de l'IA générative se sont multipliées, principalement au sein des grandes entreprises. Mais rares sont les initiatives qui ont été mises en œuvre à grande échelle en raison de leur complexité.
Hanan Ouazan, associée et responsable de l'IA générative chez Artefact, dresse un état des lieux et explore les pistes d'amélioration dans cet article de Christophe Auffray, journaliste chez LeMagIT.
« L'adoption de l'intelligence artificielle générative est loin d'être homogène parmi les entreprises françaises. La taille reste un facteur déterminant. Mais la plupart des grands groupes ont déjà pris des mesures (stratégie, démonstration de faisabilité, etc.) ; seuls quelques-uns sont encore à la traîne aujourd'hui. »Hanan Ouazan, responsable de l'IA générative chez Artefact
En revanche, les micro-entreprises et les PME se montrent plus réticentes. « Toutes les organisations ne sont pas sur la même longueur d’onde », souligne Hanan. « Les grandes entreprises sont les premières à s’attaquer à la question. Mais cela ne signifie pas pour autant que les « grands » aient réussi à maîtriser cette technologie. »
La complexité de l'industrialisation
« Il y a un an, nous avions déjà anticipé la principale difficulté des projets d’IA générative, à savoir leur mise à l’échelle industrielle. […] Il y a quelques années, une démonstration de faisabilité (PoC) en intelligence artificielle [classique] prenait trois à quatre mois. Pour l’IA générative, deux à trois semaines peuvent suffire. La mise à l’échelle industrielle, en revanche, est une tout autre histoire. Les entreprises prennent conscience des limites des initiatives de PoC. »
À cela s'ajoute le problème de l'adoption, en particulier pour les solutions d'« IA intégrée » telles que les copilotes. Leur utilisation n'est pas acquise d'avance. De plus, le retour sur investissement de ces outils reste encore à déterminer.
Les solutions développées en interne, c'est-à-dire « développées » plutôt qu'« achetées », ne sont pas non plus à l'abri des problèmes d'adoption.
Malgré ces obstacles, certains secteurs se révèlent dynamiques en matière d’IA générative, notamment le commerce de détail et le secteur du luxe. Même si, pour ce dernier, les progrès ont été moins importants que prévu initialement, selon le spécialiste de l’IA générative Artefact. Les secteurs bancaire et de la santé seraient davantage à la traîne, mais cela s’explique en grande partie par des problèmes cloud à la conformité.
RAG, Recherche 2.0, automatisation, créativité : quatre catégories et quatre niveaux de maturité
On observe également une évolution à deux vitesses au niveau sectoriel. Selon Hanan, l'industrie est en tête dans la course à l'adoption.
Mais même parmi les acteurs les plus expérimentés, l'industrialisation et la mise à l'échelle (tant en termes d'adoption que de technologie) restent des obstacles. Les cas d'utilisation se concentrent sur la génération augmentée par la recherche (RAG) pour la recherche de documents dans des « bases de données souvent négligées ».
L'indexation de contenu s'adresse à la fois aux applications internes (pour améliorer la productivité) et externes (via des interfaces conversationnelles). Hanan cite l'exemple d'un fabricant participant à un projet visant à rendre son catalogue de produits accessible en ligne à ses clients, par l'intermédiaire d'un chatbot.
Dans le secteur de la vente au détail, l'IA générative est utilisée pour repenser la recherche. La « recherche 2.0 », fondée sur l'IA générative, transformerait l'expérience de recherche en permettant d'exprimer un besoin.
Sans nommer le détaillant, Artefact à la conception d'une solution fondée sur la recherche intentionnelle. « Demain, la recherche s'inscrira dans une logique d'expérience », prédit le responsable de l'IA générative.
Une troisième catégorie de cas d'utilisation concerne l'automatisation. Cela comprend l'analyse des messages et des transcriptions provenant des centres d'appels des distributeurs afin d'identifier les sources de mécontentement ou les problèmes.
« Nous recueillons tous les appels, les transcrivons, puis les analysons pour créer un tableau de bord. Ce tableau nous permet de constater, par exemple, que 3 000 appels concernent un produit particulier que les clients jugent plus petit que sur la photo de la fiche produit. On peut descendre jusqu’à ce niveau de détail. »
Auparavant, cette analyse des sentiments n'était pas assez efficace. Désormais, elle est même capable de détecter l'ironie.
L'automatisation couvre également des applications telles que l'analyse des tendances sur les réseaux sociaux ou data en temps réel pour les services administratifs des secteurs bancaire et des assurances.
Le quatrième domaine est celui de la créativité. « Ce secteur est moins développé que je ne l’avais prévu, mais il commence à prendre son essor », note Hanan. Artefact avec ses clients pour automatiser le marketing direct, par exemple en personnalisant (« contextualisant ») les SMS afin de générer des abonnements en fonction de critères tels que l’appareil du destinataire.
La génération d'images à des fins publicitaires est également en plein essor. Cependant, ces applications se heurtent à des obstacles liés à l'incertitude juridique entourant les droits d'auteur et data d'entraînement data les IA génératrices d'images. Les garanties juridiques promises par certains éditeurs, dont Adobe, pourraient lever ces obstacles.
Les applications de l'IA générative sont désormais bien établies. Toutefois, il convient de nuancer leur impact en termes de transformation concrète, car peu de projets sont en phase de déploiement et encore moins sont accessibles aux utilisateurs finaux.
« Il existe une multitude d'outils sécurisés de type GPT. Mais ce n'est pas la chose la plus difficile à développer. De plus, comme ces applications sont destinées à un usage interne, les risques sont limités. »
Le coût, l'expérience utilisateur, la qualité et le changement sont des éléments clés pour l'industrialisation
Pour Hanan Ouazan, la raison de cette évaluation prévue pour 2024 est claire : la complexité de l'industrialisation. Plusieurs facteurs expliquent cette situation, notamment le coût : les frais d'utilisation peuvent grimper rapidement.
Cependant, toutes les entreprises n'ont pas anticipé le retour sur investissement de leurs cas d'utilisation. L'utilisation des grands modèles de langage (LLM) entraîne des dépenses qui dépassent largement les recettes, qu'elles aient été prévues ou non. Et bien que le coût par utilisation de ces solutions ait considérablement baissé au cours de l'année écoulée, elles rendent les applications plus complexes et plus difficiles à maintenir à long terme.
Ce problème de coût peut être résolu à l'aide d'une « logique d'optimisation » visant, par exemple, à réduire le coût d'une conversation avec un chatbot. Une conversation est facturée en fonction de la longueur de la question et de la réponse. Et chaque nouvelle question vient s'ajouter à l'historique de la conversation, ce qui augmente le coût total de chaque requête.
« Pour l'un de nos clients industriels, nous surveillons chaque interaction avec le chatbot. Cela nous permet d'évaluer les coûts et d'en déterminer les causes. Par exemple, il se peut que le chatbot ait du mal à identifier un produit, ce qui entraîne une multiplication des échanges. Cette surveillance est essentielle pour prendre des mesures correctives. »
L'expérience utilisateur est également un paramètre essentiel. Pour la garantir, la latence est importante, mais elle a un coût. Sur Azure, il peut être nécessaire de souscrire à des unités de débit provisionnées (PTU), qui sont des « ressources gérées dédiées et coûteuses ».
Il n'y a pas d'adoption réussie sans tenir compte des personnes
Hanan Ouazan cite également la qualité comme un défi pour l'industrialisation. Mesurer et contrôler la qualité signifie « mettre en place les bons éléments d'évaluation […] Sur certains parcours utilisateur sensibles, nous déployons une IA dont la fonction est de valider la réponse d'une autre IA. Des processus d'évaluation en temps réel garantissent le maintien de la qualité des réponses de l'IA générative », explique-t-il. « Nous intégrons également des boucles de rétroaction qui exploitent les réponses des utilisateurs pour améliorer les résultats. »
L'industrialisation finit par se heurter à un obstacle humain. Pour réussir à ce stade, il faut modifier les processus. Par exemple, le passage d'un chatbot traditionnel à une version basée sur l'IA générative transforme le métier du service client.
« Une telle évolution doit être encouragée, notamment dans le cadre de la validation des réponses des chatbots. Une partie de la conversation peut être confiée à une IA à des fins de validation. Et lorsque des humains interviennent, il est préférable de les aider à réduire le temps de traitement. De plus, lorsqu’un humain apporte des annotations, l’IA doit apprendre à mettre en place un cercle vertueux. »
Hanan insiste également sur la nécessité de favoriser l'adoption par les utilisateurs et de toujours garder à l'esprit leur expérience. «L'adoption ne doit pas être une épreuve. C'est l'approche Artefact en Artefact dans le cadre d'un projet visant à améliorer data dans la base de données produits d'un fabricant. Ce ne sont pas les utilisateurs qui doivent s'adapter à l'IA générative. C'est à l'IA de s'adapter à eux, en particulier à leur façon de travailler. »
Par exemple, Artefact sa solution de génération de fiches techniques, initialement conçue pour s'intégrer directement au PIM – un outil peu apprécié par les collaborateurs du projet concerné.
« Notre approche pour les projets d'IA générative consiste à choisir une entreprise et à recenser ses tâches quotidiennes afin d'identifier celles pour lesquelles l'IA remplacera l'humain ou modifiera l'outil. Le défi consiste à automatiser ce qui peut l'être et ce qui est difficile à réaliser manuellement, tout en améliorant ce qui peut l'être dans les conditions de travail humaines. Et cela ne peut se faire sans interagir avec l'utilisateur cible. Sinon, l'adoption sera nulle. »
Formation des utilisateurs : Réglage du curseur
Qu'en est-il de la formation aux prompts ? Pour Hanan, tout repose sur l'utilisateur. Artefact les employés à la méthode CRAFT (Contexte, Rôle, Action, Format, Public cible), qui définit l'utilisation correcte de l'IA. Pour les utilisateurs expérimentés, il est possible de les former à l'utilisation des modèles et des outils qui les intègrent. Cependant, certains groupes d'utilisateurs sont encore habitués à l'utilisation de mots-clés.
L'entreprise sensibilise ses employés à la possibilité de formuler des requêtes en langage naturel. Elle a également mis en place une fonctionnalité de reformulation. Lorsque des mots-clés (code PUK) sont saisis, l'outil reformule la requête : « Cherchez-vous votre code PUK ? »
« Il y a un curseur qu’il faut régler en fonction du public auquel l’outil est destiné. Mais je pense qu’à mesure que les capacités des solutions d’IA générative s’améliorent, il ne sera finalement plus nécessaire de donner de consignes », précise Hanan.
Zoom sur deux projets à venir
En 2024, deux axes principaux se dégagent dans le domaine de l'IA générative. Le premier concerne son adoption et vise à identifier les changements au niveau des métiers, des parcours professionnels et des compétences.
Le deuxième axe concerne la mise à l'échelle. Cette démarche fait actuellement l'objet d'un projet pilote à deux niveaux : la gouvernance (hiérarchisation des besoins, retour sur investissement et pilotage des initiatives) et la plateforme GenAI.
Hanan constate une augmentation du nombre de RAG, un phénomène lié aux nombreuses démonstrations de faisabilité (PoC) actuellement menées. En conséquence, les entreprises devront rationaliser les éléments constitutifs utilisés dans leurs expériences.
«Demain, nous devrons considérer RAG comme un data . Il a sa place en tant que produit au sein de l'entreprise, tout comme les grands modèles de langage (LLM) ont la leur. »
« Beaucoup pensaient que l’IA générative était une solution miracle qui les libérerait des contraintes du passé. En réalité, l’IA générative impose encore plus de contraintes », met en garde l’expert Artefact.
Cette évolution s'inscrit dans une continuité. Après le DevOps, puis le MLOps, dédié spécifiquement à l'IA, le LLMOps fait désormais son apparition. « Les mesures de sécurité définies avec le MLOps restent d'actualité. Mais nous devons les compléter pour tenir compte des coûts, des hallucinations et de la dimension générative des modèles », conclut Hanan.

BLOG





