Vertice sull'AI per la finanza di Artefact - 17 settembre 2024 - Parigi

I principali risultati della tavola rotonda con Hugues Even, Group Chief Data Officer di BNP Paribas, Matteo Dora, CTO di Giskard, Guillaume Bour, Head of Enterprise EMEA di Mistral AI, Anne-Laure Giret, Head of Google Cloud AI GTM, EMEA South di Google Cloud, e Hanan Ouazan, Partner & Generative AI Lead di Artefact.

Modelli linguistici di intelligenza artificiale per migliorare il servizio clienti

Questa discussione mette in evidenza il ruolo trasformativo dei modelli linguistici di IA nel servizio clienti, concentrandosi sulle loro applicazioni e sfide reali in vari settori, in particolare quello bancario. La conversazione pone l'accento sull'impiego dell'IA per automatizzare e migliorare le interazioni con i clienti, ad esempio attraverso i canali di posta elettronica e vocali, con strumenti in grado di comprendere il contesto, assegnare priorità alle attività e suggerire risposte, migliorando così l'efficienza e la soddisfazione dei clienti.

Assistenza AI per l'elaborazione di e-mail e voce

Hugues racconta come l'IA assista nell'elaborazione delle e-mail classificandole, assegnando loro una priorità e instradandole, suggerendo anche le risposte da rivedere. Per quanto riguarda le interazioni vocali, l'IA genera riepiloghi post-call, punti d'azione e approfondimenti che possono essere utilizzati per le riunioni future. Questi strumenti aiutano le banche a migliorare la qualità del servizio analizzando il contenuto e il tono delle interazioni, andando oltre i tradizionali metodi di feedback dei clienti.

L'intelligenza artificiale ottimizza i principali processi bancari

La conversazione affronta anche il ruolo dell'IA nei processi bancari chiave, come le richieste di prestito e l'onboarding dei clienti. L'IA, utilizzando modelli linguistici e computer vision, aiuta a verificare i documenti e a incrociare le informazioni per snellire questi processi. I partecipanti sottolineano come il ruolo dell'IA generativa si stia evolvendo da semplici chatbot scriptati ad assistenti conversazionali avanzati che gestiscono un'ampia gamma di richieste e offrono un servizio più personalizzato.

Passaggio agli assistenti conversazionali alimentati dai LLM

Un aspetto fondamentale della discussione è la transizione verso assistenti conversazionali alimentati da grandi modelli linguistici (LLM), che offrono risposte più dinamiche rispetto ai chatbot precedenti. Tuttavia, questi modelli devono essere adattati a contesti e settori specifici, richiedendo aggiustamenti come l'adattamento a ranghi ridotti. La discussione sottolinea l'importanza di mantenere il controllo su questi sistemi di IA, soprattutto per quanto riguarda i dati sensibili, ed evidenzia le collaborazioni con fornitori di IA come Mistral per garantire la sicurezza dei dati e le prestazioni.

Le sfide della scalabilità dell'IA in produzione

La scalabilità dell'IA in produzione pone delle sfide, come la governance dei dati, le prestazioni e la sicurezza. Mantenere l'efficienza e la spiegabilità dei modelli di IA, garantendo al contempo la sicurezza informatica, è essenziale per un'implementazione su larga scala. La discussione sottolinea la necessità di aggiornamenti continui dei modelli per soddisfare le richieste dei clienti e delle normative in continua evoluzione e che la formazione degli utenti sugli strumenti di IA è fondamentale per il successo.

Ottimizzazione delle dimensioni del modello per l'efficienza dei costi

Per affrontare le sfide delle prestazioni dell'IA, Guillaume Bour spiega che la riduzione delle dimensioni dei modelli, pur mantenendo accuratezza ed efficienza dei costi, è fondamentale per la scalabilità. Inoltre, la combinazione di modelli di piccole dimensioni con flussi di lavoro orchestrati può ottimizzare le prestazioni, riducendo i costi senza sacrificare la qualità. L'osservabilità e i sistemi di monitoraggio sono fondamentali per mantenere questi modelli in ambienti di produzione in tempo reale.

Mitigare l'allucinazione dell'IA attraverso test rigorosi

Infine, viene discusso il problema dell'"allucinazione" dell'IA, ovvero la fornitura di informazioni errate. Per evitare questi errori nelle interazioni con i clienti, è essenziale effettuare test rigorosi. Le collaborazioni tra aziende come BNP e Discard assicurano che i sistemi di IA siano testati a fondo prima dell'implementazione per ridurre i rischi. Anche il monitoraggio successivo all'implementazione è fondamentale per identificare e risolvere i problemi nel tempo, poiché i cambiamenti nelle richieste dei clienti, nelle normative e nell'ambiente esterno influenzano le prestazioni dell'IA.