Sommet « AI for Finance » organisé par Artefact 17 septembre 2024 - Paris

Principaux enseignements tirés de la table ronde réunissant Hugues Even, Data groupe chez BNP Paribas, Matteo Dora, directeur technique chez Giskard, Guillaume Bour, responsable Entreprise EMEA chez Mistral AI, Anne-Laure Giret, responsable de Cloud chez Google Cloud pour la région EMEA Sud, et Hanan Ouazan, associée et responsable de l'IA générative chez Artefact.

Les modèles linguistiques basés sur l'IA améliorent le service client

Cette discussion met en lumière le rôle transformateur des modèles linguistiques basés sur l'IA dans le service client, en mettant l'accent sur leurs applications concrètes et les défis rencontrés dans divers secteurs, notamment le secteur bancaire. Elle souligne l'importance du recours à l'IA pour automatiser et améliorer les interactions avec les clients, notamment par le biais des canaux de messagerie électronique et vocaux, grâce à des outils capables de comprendre le contexte, de hiérarchiser les tâches et de suggérer des réponses, ce qui permet d'améliorer l'efficacité et la satisfaction client.

L'IA au service du traitement des e-mails et des messages vocaux

Hugues explique comment l'IA facilite le traitement des e-mails en les classant par catégorie, en les hiérarchisant et en les acheminant, tout en proposant des réponses à valider. Pour les interactions vocales, l'IA génère des résumés d'appel, des mesures à prendre et des informations utiles pour les réunions futures. Ces outils aident les banques à améliorer la qualité de leur service en analysant le contenu et le ton des interactions, allant ainsi au-delà des méthodes traditionnelles de retour d'expérience client.

L'IA optimise les principaux processus bancaires

La discussion aborde également le rôle de l'IA dans les processus bancaires clés, tels que les demandes de prêt et l'intégration des clients. Grâce à des modèles linguistiques et à la vision par ordinateur, l'IA contribue à la vérification des documents et au recoupement des informations afin de rationaliser ces processus. Les participants soulignent comment le rôle de l'IA générative évolue, passant de simples chatbots programmés à des assistants conversationnels avancés capables de traiter un large éventail de demandes et d'offrir un service plus personnalisé.

Passage aux assistants conversationnels basés sur des modèles de langage (LLM)

L'un des principaux enseignements de cette discussion est la transition vers des assistants conversationnels basés sur des modèles linguistiques de grande envergure (LLM), qui offrent des réponses plus dynamiques que les anciens chatbots. Cependant, ces modèles doivent être adaptés à des contextes et à des secteurs spécifiques, ce qui nécessite des ajustements tels que l'adaptation de bas rang. La discussion souligne l'importance de garder le contrôle sur ces systèmes d'IA, en particulier lorsqu'il s'agit de data sensibles, et met en avant les collaborations avec des fournisseurs d'IA comme Mistral pour garantir data et la performance.

Les défis liés à la mise à l'échelle de l'IA en environnement de production

La mise à l'échelle de l'IA en production pose des défis, notamment en matière de data , de performances et de sécurité. Il est essentiel, pour un déploiement à grande échelle, de préserver l'efficacité et l'explicabilité des modèles d'IA tout en garantissant la cybersécurité. La discussion souligne la nécessité de mettre à jour en permanence les modèles afin de répondre aux exigences changeantes des clients et des réglementations, et indique que la formation des utilisateurs aux outils d'IA est un facteur essentiel de réussite.

Optimisation de la taille du modèle pour un meilleur rapport coût-efficacité

Pour relever les défis liés aux performances de l'IA, Guillaume Bour explique que la réduction de la taille des modèles, tout en préservant la précision et la rentabilité, est essentielle à la mise à l'échelle. Il ajoute que l'association de petits modèles à des flux de travail orchestrés permet d'optimiser les performances, réduisant ainsi les coûts sans compromettre la qualité. Les systèmes d'observabilité et de surveillance sont indispensables pour assurer la maintenance de ces modèles dans des environnements de production en temps réel.

Limiter les « hallucinations » de l'IA grâce à des tests rigoureux

Enfin, la question des « hallucinations » de l'IA — c'est-à-dire la fourniture d'informations erronées — est abordée. Des tests rigoureux sont indispensables pour éviter de telles erreurs dans les interactions avec les clients. Les collaborations entre des entreprises telles que BNP et Discard garantissent que les systèmes d'IA sont testés de manière approfondie avant leur déploiement afin d'atténuer les risques. La surveillance après le déploiement est également essentielle pour identifier et résoudre les problèmes au fil du temps, car l'évolution des demandes des clients, de la réglementation et de l'environnement externe influe sur les performances de l'IA.