I PoC nell'IA generativa sono proliferati, soprattutto nelle grandi aziende. Ma poche iniziative sono state industrializzate a causa della loro complessità.
Hanan Ouazan, Partner e Generative AI lead di Artefact, fa il punto della situazione e analizza i modi per migliorare in questo articolo di Christophe Auffray, giornalista di LeMagIT.
"L'adozione dell'intelligenza artificiale generativa è tutt'altro che uniforme tra le aziende francesi. Le dimensioni rimangono un fattore determinante. Ma la maggior parte dei grandi gruppi si è attivata (strategia, PoC, ecc.); solo pochi sono ancora in ritardo oggi."Hanan Ouazan, responsabile IA generativa di Artefact
Al contrario, le aziende di formazione professionale e le PMI sono più titubanti. "Non tutte le organizzazioni sono sulla stessa lunghezza d'onda", sottolinea Hanan. "Le grandi aziende sono le prime a occuparsi della questione. Ma questo non significa che i 'grandi' siano riusciti a domare la tecnologia".
La complessità dell'industrializzazione
"Un anno fa avevamo già anticipato la principale difficoltà dei progetti di IA generativa, ovvero la loro industrializzazione. [...] Qualche anno fa, un PoC nell'intelligenza artificiale [classica] richiedeva tre o quattro mesi. Per GenAI possono bastare due o tre settimane. L'industrializzazione, invece, è una storia completamente diversa. Le aziende si stanno rendendo conto dei limiti delle iniziative PoC".
A questo si aggiunge il problema dell'adozione, soprattutto per le soluzioni di "intelligenza artificiale incorporata" come Copilot. L'utilizzo non è scontato. Inoltre, il ROI di questi strumenti deve ancora essere determinato.
Anche le soluzioni interne, cioè "realizzate" anziché "acquistate", non sono immuni da problemi di adozione.
Nonostante questi ostacoli, alcuni settori si stanno dimostrando dinamici quando si tratta di IA generativa, tra cui il retail e i beni di lusso. Anche se, per questi ultimi, i progressi sono stati inferiori alle aspettative iniziali, secondo lo specialista di GenAI di Artefact. Il settore bancario e quello sanitario sarebbero più indietro, ma ciò è dovuto in gran parte a problemi di cloud e di conformità.
RAG, Ricerca 2.0, Automazione, Creatività: Quattro famiglie e quattro maturità
I progressi a due velocità si osservano anche a livello settoriale. Secondo Hanan, l'industria è in vantaggio nella corsa all'adozione.
Ma anche tra gli attori più maturi, l'industrializzazione e la scalabilità (in termini di adozione e tecnologia) rimangono ostacoli. I casi d'uso si concentrano sulla Retrieval-Augmented Generation (RAG) per il recupero di documenti in "database spesso trascurati".
L'indicizzazione dei contenuti è rivolta sia ad applicazioni interne (per la produttività) che esterne (attraverso interfacce conversazionali). Hanan cita l'esempio di un produttore coinvolto in un progetto per rendere il proprio catalogo prodotti accessibile ai clienti online - tramite un chatbot.
Nella vendita al dettaglio, l'IA generativa viene utilizzata per ripensare la ricerca. La ricerca 2.0, basata su GenAI, trasformerebbe l'esperienza di ricerca attraverso l'espressione di un bisogno.
Senza nominare il rivenditore, Artefact sta collaborando alla progettazione di una soluzione basata sulla ricerca intenzionale. "Domani la ricerca sarà parte di una logica di esperienza", prevede il leader dell'AI generativa.
Una terza categoria di casi d'uso è l'automazione. Questa categoria comprende l'analisi dei messaggi e delle trascrizioni dei call center dei distributori per identificare i fattori irritanti o i problemi.
"Raccogliamo tutte le chiamate, le trascriviamo e poi le analizziamo per creare un cruscotto. Questa visualizzazione ci permette di vedere, ad esempio, che 3.000 chiamate riguardano un particolare prodotto che i clienti ritengono più piccolo dell'immagine sulla scheda prodotto. È possibile scendere a quel livello di dettaglio".
In precedenza, questa sentiment analysis non era sufficientemente efficace. Ora è in grado di rilevare anche l'ironia.
L'automazione comprende anche applicazioni come l'analisi delle tendenze sui social network o l'acquisizione di dati in tempo reale per il back-office bancario e assicurativo.
La quarta famiglia è quella della creatività. "Questo settore è meno avanzato di quanto mi aspettassi, ma sta iniziando a decollare", osserva Hanan. Artefact lavora con i clienti per automatizzare il marketing diretto, ad esempio personalizzando ("contestualizzando") i messaggi SMS per generare abbonamenti in base a criteri come il dispositivo del destinatario.
Sta emergendo anche la generazione di immagini per la pubblicità. Tuttavia, questi usi sono ostacolati dall'incertezza giuridica che circonda i diritti d'autore e i dati di addestramento per le IA che generano immagini. Le garanzie legali promesse da alcuni editori, tra cui Adobe, potrebbero eliminare le barriere in questo settore.
Le applicazioni dell'IA generativa sono ormai ben formalizzate. Tuttavia, l'impatto in termini di trasformazione effettiva deve essere qualificato, poiché pochi progetti sono in produzione e ancora meno sono accessibili agli utenti finali.
"Esiste un'abbondanza di strumenti sicuri di tipo GPT. Ma non è la cosa più difficile da sviluppare. Inoltre, poiché le applicazioni sono interne, i rischi sono limitati".
Costi, esperienza dell'utente, qualità e cambiamento sono fondamentali per l'industrializzazione
Per Hanan Ouazan, la causa di questa valutazione del 2024 è chiara: la complessità dell'industrializzazione. Le ragioni sono molteplici, non ultima quella dei costi: le spese per gli utenti possono aumentare rapidamente.
Tuttavia, non tutte le aziende hanno previsto il ROI dei loro casi d'uso. Il consumo di LLM comporta spese che superano di gran lunga i ricavi, siano essi previsti o meno. Inoltre, anche se il prezzo per utilizzo di queste soluzioni è diminuito significativamente nell'ultimo anno, esse rendono le applicazioni più complesse e difficili da mantenere nel tempo.
Questo problema dei costi può essere affrontato con una "logica di ottimizzazione" per ridurre il costo di una conversazione con il chatbot, ad esempio. Una chat viene fatturata in base alla dimensione della domanda e della risposta. Ogni nuova domanda si aggiunge alla cronologia della conversazione, aumentando il costo totale di ogni richiesta.
"Per un cliente industriale, monitoriamo ogni interazione con il chatbot. Questo ci permette di misurare i costi e le cause. Ad esempio, potrebbe accadere che il chatbot abbia difficoltà a identificare un prodotto, con conseguente moltiplicazione degli scambi. Il monitoraggio è essenziale per intraprendere azioni correttive".
Anche l'esperienza dell'utente è un parametro critico. Per garantire ciò, la latenza è importante, ma ha un costo. Su Azure, può essere necessario sottoscrivere le Provisioned Throughput Units (PTU), "risorse gestite dedicate e costose".
Non c'è adozione di successo senza tenere conto delle persone
Hanan Ouazan cita anche la qualità come una sfida per l'industrializzazione. Misurare e monitorare la qualità significa "mettere in atto i giusti elementi di valutazione [...] Su alcuni percorsi sensibili dell'utente, impieghiamo un'IA la cui funzione è quella di convalidare la risposta di un'altra IA. I processi di valutazione in tempo reale garantiscono il mantenimento della qualità delle risposte dell'IA generativa", spiega. "Integriamo anche cicli di feedback che sfruttano le risposte degli utenti per migliorare i risultati".
L'industrializzazione incontra infine l'ostacolo umano. Il successo in questa fase richiede cambiamenti nei processi. Ad esempio, il passaggio da un chatbot tradizionale a una versione basata sull'IA generativa cambia la professione del servizio clienti.
"Questo cambiamento deve essere supportato, soprattutto nel processo di convalida delle risposte dei chatbot. Una parte della conversazione può essere affidata a un'intelligenza artificiale per la convalida. E quando gli esseri umani intervengono, è meglio assisterli per ridurre i tempi di elaborazione. E quando un umano annota, l'IA deve imparare per avviare un ciclo virtuoso".
Hanan invita inoltre a sostenere l'adozione da parte degli utenti e a tenere presente la loro esperienza. L'adozione non deve essere dolorosa". Questo è l'approccio che Artefact ha implementato in un progetto per migliorare la qualità dei dati in un database di prodotti per un produttore. Gli individui non devono adattarsi all'IA generativa. Spetta all'IA adattarsi a loro, soprattutto al loro modo di lavorare".
Ad esempio, Artefact ha ripensato la sua soluzione per la generazione di schede tecniche di prodotto, che in origine era stata progettata per integrarsi direttamente nel PIM, uno strumento poco apprezzato dai dipendenti del progetto citato.
"Il nostro metodo per i progetti di IA generativa consiste nel selezionare un'azienda e identificare le sue attività quotidiane per distinguere quelle per le quali l'IA sostituirà l'uomo o modificherà lo strumento. La sfida è automatizzare ciò che può essere automatizzato e ciò che è difficile per il lavoro, e aumentare ciò che può essere aumentato nelle condizioni di lavoro umane. E questo non può essere fatto senza interagire con l'utente target. Altrimenti, l'adozione sarà nulla".
Formazione dell'utente: Regolazione del cursore
E la formazione immediata? Per Hanan, tutto dipende dall'utente. Artefact forma i dipendenti con il metodo CRAFT (Context, Role, Action, Format, Target Audience), che definisce il corretto utilizzo dell'IA. Per gli utenti maturi, è possibile formarli sul funzionamento dei modelli e degli strumenti che li integrano. Tuttavia, alcune popolazioni sono ancora abituate all'uso di parole chiave.
L'azienda sta istruendo i dipendenti sulla possibilità di effettuare interrogazioni in linguaggio naturale. Ha anche introdotto la riformulazione. Quando vengono inserite parole chiave (codice puk), lo strumento riformula: "Stai cercando il tuo codice puk?".
"C'è un cursore che deve essere regolato in base alla popolazione a cui lo strumento è destinato. Ma credo che, con il miglioramento delle capacità delle soluzioni di IA generativa, alla fine non ci sarà più bisogno di fare domande", chiarisce Hanan.
Due progetti futuri in primo piano
Nel 2024, due sono le principali aree di interesse nel campo dell'IA generativa. La prima riguarda l'adozione, identificando i cambiamenti nelle occupazioni, nelle carriere e nelle competenze.
Il secondo è lo scaling up. Il progetto è in fase di sperimentazione a due livelli: la governance (definizione delle priorità, del ROI e della direzione delle iniziative) e la piattaforma GenAI.
Hanan osserva un aumento del numero di RAG, un fenomeno determinato dai numerosi PoC in corso. Di conseguenza, le aziende dovranno razionalizzare gli elementi costitutivi utilizzati negli esperimenti.
"Domani dovremo pensare a RAG come a un prodotto di dati. Ha un posto come prodotto nell'impresa, proprio come LLM ha un posto come prodotto.
"Molti pensavano che la GenAI fosse una cosa magica che li avrebbe liberati dai vincoli del passato. In realtà, la GenAI comporta ancora più vincoli", avverte l'esperto di Artefact.
Questa evoluzione fa parte di un continuum. Dopo DevOps, e poi MLOps per affrontare in modo specifico l'AI, ora sta emergendo LLMOps. "Le salvaguardie definite con MLOps sono ancora rilevanti. Ma dobbiamo aggiungerle per tenere conto dei costi, delle allucinazioni e della dimensione generativa dei modelli", conclude Hanan.