Las PoC en AI generativas han proliferado, sobre todo en grandes empresas. Pero pocas iniciativas se han industrializado debido a su complejidad.

Hanan Ouazan, socio y responsable de Generative AI en Artefact, hace balance de la situación y examina las formas de mejorar en este artículo de Christophe Auffray, periodista de LeMagIT.

"La adopción del método generativo Inteligencia Artificial dista mucho de ser uniforme entre las empresas francesas. El tamaño sigue siendo un factor determinante. Pero la mayoría de los grandes grupos han tomado medidas (estrategia, PoC, etc.); solo unos pocos siguen rezagados a día de hoy."
Hanan Ouazan, responsable de Generative AI en Artefact

En cambio, las VSE y las PYME se muestran más reticentes. "No todas las organizaciones están en la misma onda", señala Hanan. "Las grandes empresas son las primeras en ocuparse del tema. Pero eso no significa que los 'grandes' hayan domado con éxito la tecnología".

La complejidad de la industrialización

"Hace un año, ya habíamos previsto la principal dificultad de los proyectos generativos de AI , a saber, su industrialización. [...] Hace unos años, una PoC en Inteligencia Artificial [clásica] llevaba de tres a cuatro meses. Para GenAI, dos o tres semanas pueden bastar. La industrialización, por otro lado, es una historia completamente diferente. Las empresas se están dando cuenta de las limitaciones de las iniciativas PoC".

A ello se añade el problema de la adopción, sobre todo para las soluciones "integradas AI", como Copilots. El uso no está garantizado. Además, la rentabilidad de estas herramientas aún está por determinar.
Las soluciones internas, es decir, "fabricadas" en lugar de "compradas", tampoco son inmunes a los problemas de adopción.

A pesar de estos obstáculos, algunos sectores están demostrando ser dinámicos en lo que se refiere a la generación AI, incluidos el comercio minorista y los artículos de lujo. Aunque, para este último, el progreso ha sido menor de lo esperado inicialmente, según el especialista en GenAI de Artefact. Se dice que la banca y la sanidad van más rezagadas, pero esto se debe en gran medida a problemas relacionados con la nube y el cumplimiento de las normativas.

RAG, Búsqueda 2.0, Automatización, Creatividad: Cuatro familias y cuatro vencimientos

A nivel sectorial también se observan avances a dos velocidades. Según Hanan, la industria va por delante en la carrera por la adopción.

Pero incluso entre los actores más maduros, la industrialización y la ampliación (en términos de adopción y tecnología) siguen siendo obstáculos. Los casos de uso se centran en la Retrieval-Augmented Generation (RAG) para la recuperación de documentos en "bases de datos frecuentemente desatendidas".

La indexación de contenidos se dirige tanto a aplicaciones internas (para la productividad) como externas (a través de interfaces conversacionales). Hanan cita el ejemplo de un fabricante que participa en un proyecto para poner su catálogo de productos a disposición de los clientes en línea, a través de un chatbot.

En el comercio minorista, se está utilizando la AI generativa para replantear la búsqueda. La búsqueda 2.0, basada en GenAI, transformaría la experiencia de búsqueda a través de la expresión de una necesidad.

Sin nombrar al minorista, Artefact está colaborando en el diseño de una solución basada en la búsqueda intencionada. "Mañana, la búsqueda formará parte de la lógica de la experiencia", predice el líder de AI .

Una tercera categoría de casos de uso es la automatización. Esto incluye el análisis de mensajes y transcripciones de los centros de llamadas de los distribuidores para identificar irritantes o problemas.

"Recogemos todas las llamadas, las transcribimos y luego las analizamos para crear un cuadro de mando. Esta vista nos permite ver, por ejemplo, que 3.000 llamadas son sobre un producto concreto que los clientes creen que es más pequeño que la imagen de la ficha de producto. Se puede bajar hasta ese nivel de detalle".

Antes, este análisis de sentimientos no era suficientemente eficaz. Ahora puede incluso detectar la ironía.

La automatización también abarca aplicaciones como el análisis de tendencias en las redes sociales o la captura en tiempo real de data para el back-office de banca y seguros.

La cuarta familia es la creatividad. "Este ámbito está menos avanzado de lo que esperaba, pero empieza a despegar", señala Hanan. Artefact trabaja con clientes para automatizar el marketing directo, como la personalización ("contextualización") de mensajes SMS para generar suscripciones basadas en criterios como el dispositivo del destinatario.

También está surgiendo la generación de imágenes para publicidad. Sin embargo, estos usos se ven obstaculizados por la inseguridad jurídica que rodea a los derechos de autor y la formación data para las IA generadoras de imágenes. Las garantías jurídicas prometidas por algunos editores, entre ellos Adobe, podrían eliminar barreras en este ámbito.

Las aplicaciones de la plataforma generativa AI están ya bien formalizadas. Sin embargo, hay que matizar el impacto en términos de transformación real, ya que pocos proyectos están en producción y aún menos son accesibles a los usuarios finales.

"Hay abundancia de herramientas seguras del tipo GPT. Pero no es lo más difícil de desarrollar. Además, como las aplicaciones son internas, los riesgos son limitados".

Coste, experiencia del usuario, calidad y cambio son claves para la industrialización

Para Hanan Ouazan, la causa de esta evaluación de 2024 está clara: la complejidad de la industrialización. Hay varias razones para ello, y no la menor es el coste: las tarifas de los usuarios pueden dispararse rápidamente.

Sin embargo, no todas las empresas han previsto el ROI de sus casos de uso. El consumo de LLM genera gastos que superan con creces los ingresos, tanto si se han previsto como si no. Y aunque el precio por uso de estas soluciones ha bajado significativamente en el último año, hacen que las aplicaciones sean más complejas y difíciles de mantener a lo largo del tiempo.

Este problema de costes puede abordarse con "lógica de optimización" para reducir el coste de una conversación de chatbot, por ejemplo. Un chat se factura en función del tamaño de la pregunta y la respuesta. Y cada nueva pregunta se suma al historial de la conversación, aumentando el coste total de cada consulta.

"Para un cliente industrial, supervisamos cada interacción con el chatbot. Esto nos permite medir los costes y las causas. Por ejemplo, puede ocurrir que el chatbot tenga dificultades para identificar un producto, lo que multiplica los intercambios. La supervisión es esencial para tomar medidas correctivas".

La experiencia del usuario también es un parámetro crítico. Para garantizarla, la latencia es importante, pero tiene un coste. En Azure, puede ser necesario suscribirse a Provisioned Throughput Units (PTU), "recursos gestionados dedicados y caros."

No hay adopción exitosa sin tener en cuenta a las personas

Hanan Ouazan también cita la calidad como un reto para la industrialización. Medir y controlar la calidad significa "poner en marcha los elementos de evaluación adecuados [...] En determinadas rutas de usuario sensibles, desplegamos un AI cuya función es validar la respuesta de otro AI. Los procesos de evaluación en tiempo real garantizan el mantenimiento de la calidad de las respuestas de AI", explica. "También integramos bucles de retroalimentación que aprovechan las respuestas de los usuarios para mejorar los resultados".

La industrialización acaba encontrándose con el obstáculo humano. El éxito en esta fase requiere cambios en los procesos. Por ejemplo, pasar de un chatbot tradicional a una versión basada en AI generativa cambia la profesión de atención al cliente.

"Es necesario apoyar este cambio, especialmente en el proceso de validación de las respuestas del chatbot. Parte de la conversación puede confiarse a un AI para su validación. Y cuando intervienen humanos, es mejor ayudarles para reducir el tiempo de procesamiento. Y cuando un humano anota, el AI necesita aprender para iniciar un círculo virtuoso".

Hanan también pide que se apoye la adopción por parte de los usuarios y se tenga en cuenta su experiencia.La adopción no debe ser dolorosa". Este es el enfoque que Artefact aplicó en un proyecto para mejorar la calidad de data en una base de datos de productos para un fabricante. Las personas no deberían tener que adaptarse a AI generativo. Son los AI los que tienen que adaptarse, sobre todo a su forma de trabajar".

Por ejemplo, Artefact replanteó su solución de generación de fichas técnicas de producto, que en un principio se diseñó para integrarse directamente en el PIM, una herramienta poco apreciada por los empleados del proyecto citado.

"Nuestro método para los proyectos generativos de AI consiste en seleccionar una empresa e identificar sus tareas diarias para distinguir aquellas para las que AI sustituirá al ser humano o modificará la herramienta. El reto consiste en automatizar lo que se puede automatizar y lo que es difícil para el trabajo, y aumentar lo que se puede aumentar en condiciones de trabajo humano. Y esto no puede hacerse sin interactuar con el usuario objetivo. De lo contrario, la adopción será nula".

Formación de usuarios: Ajuste del cursor

¿Y la formación rápida? Para Hanan, todo depende del usuario. Artefact forma a los empleados en el método CRAFT (Context, Role, Action, Format, Target Audiencia), que define el uso correcto de AI. A los usuarios maduros, es posible formarles en el funcionamiento de los modelos y las herramientas que los integran. Sin embargo, algunas poblaciones siguen acostumbradas al uso de palabras clave.

Compañia está educando a los empleados sobre la posibilidad de hacer consultas en lenguaje natural. También ha introducido la reformulación. Cuando se introducen palabras clave (código puk), la herramienta reformula: "¿Busca su código puk?".

"Hay un deslizador y hay que ajustarlo en función de la población a la que se destine la herramienta. Pero creo que a medida que mejoren las capacidades de las soluciones generativas de AI , con el tiempo no habrá necesidad de avisar", aclara Hanan.

Dos futuros proyectos en el punto de mira

En 2024, hay dos áreas principales de atención en el campo de la generación AI. El primero se refiere a la adopción, identificando los cambios en las ocupaciones, carreras y competencias.

El segundo es la ampliación. Esto se está probando a dos niveles: gobernanza (priorización de necesidades, ROI y dirección de iniciativas) y la plataforma GenAI.

Hanan observa un aumento del número de GAR, un fenómeno impulsado por las numerosas PdC que se están llevando a cabo. Como consecuencia, las empresas tendrán que racionalizar los elementos básicos utilizados en sus experimentos.

"Mañana tendremos que pensar en el GAR como un producto de data . Tiene un lugar como producto en la empresa, igual que LLM tiene un lugar como producto.

"Mucha gente pensaba que GenAI era algo mágico que les liberaría de las limitaciones del pasado. En realidad, GenAI trae aún más limitaciones", advierte el experto de Artefact.

Esta evolución forma parte de un continuo. Tras DevOps, y después MLOps para tratar específicamente AI, ahora está surgiendo LLMOps. "Las garantías definidas con MLOps siguen siendo pertinentes. Pero hay que completarlas para tener en cuenta los costes, las alucinaciones y la dimensión generativa de los modelos", concluye Hanan.

Lea el artículo en

class="img-responsive

.