Las pruebas de concepto en el ámbito de AI generativa AI multiplicado, sobre todo en las grandes empresas. Sin embargo, pocas iniciativas han llegado a implantarse a gran escala debido a su complejidad.
Hanan Ouazan, socia y AI generativa en Artefact, hace balance de la situación y analiza posibles vías de mejora en este artículo de Christophe Auffray, periodista de LeMagIT.
«La adopción de Inteligencia Artificial generativa Inteligencia Artificial mucho de Inteligencia Artificial uniforme entre las empresas francesas. El tamaño sigue siendo un factor determinante. Sin embargo, la mayoría de los grandes grupos han tomado medidas (estrategia, pruebas de concepto, etc.); solo unos pocos siguen a la zaga en la actualidad».Hanan Ouazan, AI generativa en Artefact
Por el contrario, las microempresas y las pymes se muestran más reticentes. «No todas las organizaciones están en la misma onda», señala Hanan. «Las grandes empresas son las primeras en abordar el tema. Pero eso no significa que los “grandes” hayan logrado dominar la tecnología».
La complejidad de la industrialización
«Hace un año, ya habíamos previsto la principal dificultad de AI generativa: su industrialización. […] Hace unos años, una prueba de concepto (PoC) en Inteligencia Artificial [clásica] Inteligencia Artificial entre tres y cuatro meses. En el caso de la IA generativa, pueden bastar entre dos y tres semanas. La industrialización, en cambio, es otra historia. Las empresas se están dando cuenta de las limitaciones de las iniciativas de PoC».
A esto se suma el problema de la adopción, especialmente en el caso de las soluciones de AI, como los copilotos. Su uso no es algo garantizado. Es más, aún no se ha determinado el retorno de la inversión de estas herramientas.
Las soluciones internas, es decir, las «desarrolladas en lugar de compr AI, tampoco están exentas de problemas de adopción.
A pesar de estos obstáculos, algunos sectores están demostrando ser muy dinámicos en lo que respecta a AI generativa, entre ellos el comercio minorista y el de los artículos de lujo. Aunque, en el caso de este último, los avances han sido menores de lo que se esperaba inicialmente, según el especialista en IA generativa Artefact. Se dice que los sectores bancario y sanitario se están quedando aún más rezagados, pero esto se debe en gran medida a problemas relacionados con cloud el cumplimiento normativo.
RAG, Búsqueda 2.0, Automatización, Creatividad: cuatro familias y cuatro niveles de madurez
También se observa un avance a dos velocidades a nivel sectorial. Según Hanan, la industria va por delante en la carrera por la adopción.
Sin embargo, incluso entre los actores más consolidados, la industrialización y la ampliación (tanto en términos de adopción como de tecnología) siguen siendo un obstáculo. Los casos de uso se centran en la generación aumentada por la recuperación (RAG) para la recuperación de documentos en «bases de datos que suelen pasarse por alto».
La indexación de contenidos está dirigida tanto a aplicaciones internas (para mejorar la productividad) como externas (a través de interfaces conversacionales). Hanan pone como ejemplo a un fabricante que participa en un proyecto para que los clientes puedan acceder a su catálogo de productos en línea a través de un chatbot.
En el sector minorista, AI generativa AI utilizando para replantear la búsqueda. La «Búsqueda 2.0», basada en la IA generativa, transformaría la experiencia de búsqueda al permitir expresar una necesidad.
Sin revelar el nombre del minorista, Artefact colaborando en el diseño de una solución basada en la búsqueda por intención. «En el futuro, la búsqueda formará parte de una lógica de experiencia», pronostica el AI generativa.
Una tercera categoría de casos de uso es la automatización. Esto incluye el análisis de mensajes y transcripciones de los centros de atención al cliente de los distribuidores para identificar factores molestos o problemas.
«Recopilamos todas las llamadas, las transcribimos y luego las analizamos para crear un panel de control. Esta vista nos permite ver, por ejemplo, que 3.000 llamadas se refieren a un producto concreto que los clientes consideran más pequeño que en la imagen de la ficha del producto. Se puede llegar a ese nivel de detalle».
Antes, este análisis de opiniones no era lo suficientemente eficaz. Ahora es capaz incluso de detectar la ironía.
La automatización también abarca aplicaciones como el análisis de tendencias en las redes sociales o data en tiempo real para las áreas administrativas de la banca y los seguros.
La cuarta área es la creatividad. «Este ámbito está menos desarrollado de lo que esperaba, pero está empezando a despegar», señala Hanan. Artefact con sus clientes para automatizar el marketing directo, por ejemplo, personalizando («contextualizando») los mensajes SMS con el fin de generar suscripciones en función de criterios como el dispositivo del destinatario.
La generación de imágenes con fines publicitarios también está en auge. Sin embargo, estos usos se ven obstaculizados por la incertidumbre jurídica en torno a los derechos de autor y data de entrenamiento data las IA generadoras de imágenes. Las garantías jurídicas prometidas por algunas editoriales, entre ellas Adobe, podrían eliminar las barreras en este ámbito.
Las aplicaciones de AI generativa AI ya bien definidas. Sin embargo, hay que matizar su impacto en términos de transformación real, ya que son pocos los proyectos que se encuentran en fase de producción y aún menos los que están al alcance de los usuarios finales.
«Existen numerosas herramientas seguras de tipo GPT. Pero no es lo más difícil de desarrollar. Es más, dado que las aplicaciones son internas, los riesgos son limitados».
El coste, la experiencia del usuario, la calidad y el cambio son fundamentales para la industrialización
Para Hanan Ouazan, la razón de esta revisión de 2024 es clara: la complejidad de la industrialización. Hay varias razones que lo explican, entre las que destaca el coste: las tarifas de usuario pueden dispararse rápidamente.
Sin embargo, no todas las empresas han previsto el retorno de la inversión de sus casos de uso. El uso de los modelos de lenguaje grande (LLM) genera gastos que superan con creces los ingresos, se hayan previsto o no. Y aunque el precio por uso de estas soluciones ha bajado considerablemente durante el último año, hacen que las aplicaciones sean más complejas y difíciles de mantener a largo plazo.
Este problema de costes puede abordarse mediante una «lógica de optimización» para reducir el coste de una conversación con un chatbot, por ejemplo. El chat se factura en función de la extensión de la pregunta y la respuesta. Además, cada nueva pregunta se suma al historial de la conversación, lo que aumenta el coste total de cada consulta.
«En el caso de un cliente industrial, supervisamos cada interacción del chatbot. Esto nos permite cuantificar los costes y determinar las causas. Por ejemplo, podría darse el caso de que el chatbot tuviera dificultades para identificar un producto, lo que provocaría un aumento del número de intercambios. La supervisión es fundamental para adoptar medidas correctivas».
La experiencia del usuario también es un parámetro fundamental. Para garantizarla, la latencia es importante, pero tiene un coste. En Azure, puede ser necesario suscribirse a unidades de rendimiento aprovisionadas (PTU), «recursos gestionados dedicados y costosos».
No hay adopción satisfactoria sin tener en cuenta a las personas
Hanan Ouazan también señala la calidad como un reto para la industrialización. Medir y supervisar la calidad significa «establecer los pilares de evaluación adecuados […] En determinadas rutas de usuario sensibles, implementamos una AI función es validar la respuesta de otra AI. Los procesos de evaluación en tiempo real garantizan que se mantenga la calidad de las respuestas AIgenerativa», explica. «También integramos bucles de retroalimentación que aprovechan las respuestas de los usuarios para mejorar los resultados».
La industrialización acaba topándose con el obstáculo humano. Para tener éxito en esta etapa, es necesario introducir cambios en los procesos. Por ejemplo, pasar de un chatbot tradicional a una versión basada en AI generativa AI la profesión de la atención al cliente.
«Es necesario respaldar este cambio, especialmente en el proceso de validación de las respuestas de los chatbots. Parte de la conversación puede confiarse a una AI su validación. Y cuando intervienen los humanos, es mejor ayudarles a reducir el tiempo de procesamiento. Además, cuando un humano realiza una anotación, la AI aprender a iniciar un círculo virtuoso».
Hanan también aboga por facilitar la adopción por parte de los usuarios y tener siempre presente la experiencia del usuario.«La adopción no debería ser un proceso complicado. Este es el enfoque Artefact en un proyecto destinado a mejorar data en la base de datos de productos de un fabricante. Las personas no deberían tener que adaptarse a AI generativa. Es la AI adaptarse a ellas, especialmente a su forma de trabajar».
Por ejemplo, Artefact su solución para la generación de fichas técnicas de productos, que en un principio se había concebido para integrarse directamente en el PIM, una herramienta que no gozaba de gran aceptación entre los empleados del proyecto en cuestión.
«Nuestro método para AI generativa consiste en seleccionar una empresa e identificar sus tareas diarias para determinar aquellas en las que AI al ser humano o modificará la herramienta. El reto consiste en automatizar lo que se puede automatizar y lo que resulta complicado en el trabajo, y en mejorar lo que se puede mejorar en las condiciones laborales de las personas. Y esto no se puede lograr sin interactuar con el usuario destinatario. De lo contrario, la aceptación será nula».
Formación para usuarios: Ajuste del cursor
¿Y qué hay de la formación sobre el uso de las indicaciones? Para Hanan, lo más importante es el usuario. Artefact los empleados en el método CRAFT (Contexto, Función, Acción, Formato, Audiencia), que define el uso correcto de AI. En el caso de los usuarios con más experiencia, es posible formarles en el manejo de los modelos y las herramientas que los integran. Sin embargo, algunos grupos de usuarios siguen acostumbrados al uso de palabras clave.
La Compañia informando a sus empleados sobre la posibilidad de realizar consultas en lenguaje natural. También ha introducido la reformulación. Cuando se introducen palabras clave (código PUK), la herramienta reformula la pregunta: «¿Estás buscando tu código PUK?».
«Hay un control deslizante que hay que ajustar en función del público al que va dirigida la herramienta. Pero creo que, a medida que mejoren las capacidades de AI generativa, con el tiempo ya no será necesario introducir indicaciones», aclara Hanan.
Dos proyectos futuros en el punto de mira
En 2024, hay dos áreas principales de interés en el campo de AI generativa. La primera se refiere a la adopción de esta tecnología y a la identificación de los cambios en las profesiones, las carreras profesionales y las competencias.
El segundo es la ampliación. Esto se está poniendo a prueba en dos niveles: la gobernanza (priorización de necesidades, retorno de la inversión y dirección de iniciativas) y la plataforma de IA generativa.
Hanan observa un aumento en el número de RAG, un fenómeno impulsado por las numerosas pruebas de concepto que se están llevando a cabo. Como consecuencia, las empresas tendrán que racionalizar los componentes básicos que utilizan en sus experimentos.
«Mañana tendremos que considerar RAG como un data . Tiene su lugar como producto en la empresa, al igual que los modelos de lenguaje grande (LLM) tienen su lugar como producto.
«Mucha gente pensaba que la IA generativa era algo mágico que les liberaría de las limitaciones del pasado. En realidad, la IA generativa conlleva aún más limitaciones», advierte el experto Artefact.
Esta evolución forma parte de un proceso continuo. Tras DevOps y, posteriormente, MLOps —destinado específicamente a AI, ahora está surgiendo LLMOps. «Las medidas de seguridad definidas con MLOps siguen siendo pertinentes. Pero debemos ampliarlas para tener en cuenta los costes, las alucinaciones y la dimensión generativa de los modelos», concluye Hanan.

BLOG






