Lee el artículo en

class="lazyload

La aceptación por parte de los consumidores también sigue siendo relativamente baja. A pesar del uso de términos como «revolución»,data que la mayoría de los usuarios acceden a estas herramientas semanalmente, en lugar de a diario, a diferencia del uso más frecuente que se hace de las redes sociales o de plataformas como Google. Esto sugiere que AI general aún AI convertido en un verdadero hábito de consumo. La gente la utiliza de forma ocasional —a veces de manera intensiva—, pero no se ha convertido en un pilar de la vida cotidiana. En otras palabras, el entusiasmo sigue adelantándose a la realidad.

A pesar de estos reports, creemos que AI general AI un cambio fundamental a la misma escala que Internet o el teléfono inteligente. Internet nos proporcionó aproximadamente dos décadas de innovación y Compañia. La revolución del teléfono inteligente generó 15 años de crecimiento impulsado por las aplicaciones móviles. Creemos que AI general AI una era de transformación similar: tal vez una década o más de creación de nuevo valor.

Este patrón es habitual en las nuevas tecnologías (un optimismo excesivo seguido de desilusión y, posteriormente, de una creación de valor real, tal y como suele reflejarse enel ciclo de hype de Gartner). En nuestra opinión, muchos de los principales AI exageran cuando afirman con rotundidad que amplios sectores de la economía serán sustituidos en breve por AI. Esto se debe a que AI real y funcional AI las empresas consolidadas supone un arduo trabajo: requiere data relativamente limpios, mapeo de procesos y una experimentación profunda —e incluso entonces, a menudo exige la intervención humana. Sin embargo, estamos observando avances reales entre bastidores, cuyos ejemplos sugieren que el uso de sistemas multiagente para automatizar y sustituir tareas repetitivas puede conducir a un aumento de la productividad más prolongado y fundamental.

Nuestra opinión es que los líderes no deberían intentar adivinar qué va a pasar dentro de 10 años. En su lugar, deberían preguntarse qué pueden lograr de forma realista en los próximos dos. A juzgar por los proyectos que hemos llevado a cabo desde finales de 2024, AI autónoma AI demostrando ser el verdadero punto de inflexión (al menos a corto plazo), ya que aporta un valor real a las empresas. La realidad es también que los beneficios económicos por proyecto son buenos, pero ninguno de ellos es espectacular. Estas mejoras incrementales se asemejan al método Lean, una comparación quetambién ha hecho el director ejecutivo de Microsoft,Satya Nadella.

A partir de nuestro trabajo en una serie de proyectos que están implementando con éxito AI multiagente, hemos constatado que para tener éxito con esta tecnología es necesario ir más allá de las exageraciones, comprender de qué es capaz la tecnología y aprovechar esa capacidad para aprovechar oportunidades claras de creación de valor. También requiere un enfoque práctico basado en la experimentación y el aprendizaje a la hora de implementar sistemas multiagente.

El auge del paradigma del flujo de trabajo agencial

En los últimos años, la madurez de AI ha evolucionado rápidamente a través de al menos tres fases distintas:

  • Prompting (2022):El entusiasmo inicial se centró en los «prompts potentes». En las pruebas de concepto (POC), los prompts parecían funcionar. Sin embargo, en la fase de producción, la fiabilidad decayó rápidamente. Los procesos empresariales suelen requerir una precisión del 95-99 %. Basándonos en la experiencia adquirida en más de 50 casos, estimamos que el uso exclusivo de prompts rara vez superaba el 70 %.
  • Generación aumentada por recuperación (RAG, 2023):La RAG mejoró la estabilidad al vincular AI generativa a bases de conocimiento. Una vez más, las pruebas de concepto parecían prometedoras, pero la complejidad de la implementación a escala real a menudo ponía de manifiesto debilidades que daban lugar a una precisión inaceptablemente baja.
  • Sistemas de agentes (desde 2024 hasta la actualidad):Los avances más recientes giran en torno a redes de pequeños agentes especializados. Algunos se encargan de redirigir las consultas. Otros realizan tareas muy concretas. Otros, por su parte, comprueban y corrigen los resultados. Un factor decisivo es que la bajada del coste de los tokens hace que los sistemas multiagente en cascada sean ahora comercialmente viables. Este diseño por capas mejora considerablemente la fiabilidad.

Este otoño se ha producido una explosión de iniciativas comerciales basadas en la tecnología de agentes. OpenAI ha establecidocolaboraciones con Stripe y Shopify.Google ha anunciado su «Agent Payment Protocol», que automatiza el proceso de compra y transacción. Aunque las empresas puedan sentirse tentadas a seguir el ejemplo de los gigantes tecnológicos, puede que no sea ahí donde surja la primera ola de valor sostenible. En unareciente encuesta de Bain a los consumidores, el 76 % afirmó que no se sentiría cómodo utilizando sistemas de agentes para realizar compras; la mayoría citó preocupaciones sobre la seguridad y la privacidad como motivo de su reticencia.

Los contextos de interacción con el cliente no se adaptan bien a las capacidades actuales de AI . Son caóticos e impredecibles; los datos de entrada no están estructurados, el tono y el contexto cambian constantemente, y ni los reguladores ni los consumidores toleran las «alucinaciones» o los errores. Los sistemas multiagentepuedenalcanzar altos niveles de precisión, pero para ello es necesario tratar a cada agente individual más bien como a un niño pequeño. No le pedirías a un niño pequeño que pusiera la mesa para la cena. Pero si divides la tarea y le guías paso a paso —«primero, pon un plato», «ahora, añade los tenedores», «luego, los vasos»—, el niño puede hacer una contribución significativa. Es fundamental que el entorno también esté controlado: sin hermanos ruidosos, sin mascotas que distraigan y con un solo progenitor dando instrucciones. Pero al desarrollar sistemas multiagente estructurados como si se instruyera a un niño pequeño —dividiendo la tarea, asignando tareas una a una, comprobando la precisión de las mismas—, estamos construyendo sistemas notablemente precisos.

Cabe destacar que estos sistemas suelen destinarse a procesos de back-end, en los que la perfección no es esencial, ya que hay una persona involucrada en el proceso. Por el contrario, aunque los experimentos de front-end pueden resultar inspiradores, es poco probable que sean el primer ámbito en el que se genere un valor empresarial real. Los procesos de back-end y operativos constituyen un terreno fértil, ya que son estructurados y repetitivos, lo que los hace mucho más adecuados para la automatización de flujos de trabajo con agentes. Las tareas con un alcance bien delimitado, los entornos bien definidos y las entradas estructuradas pueden dar lugar a proyectos que aporten una contribución significativa.

Creación de sistemas agentivos a nivel empresarial

A escala empresarial, el diseño de estos sistemas es sencillo desde el punto de vista conceptual, pero exigente desde el punto de vista operativo. Como marco general para la creación de sistemas multiagente: 1) se envía una tarea a un agente enrutador, como Google ADK, que, al igual que un padre que da instrucciones a un niño pequeño, divide la tarea en subtareas; 2) a continuación, las subtareas son completadas por agentes de tareas individuales que se encargan de una parte más pequeña de la tarea, como un padre que le dice a un niño pequeño que ponga los vasos sobre la mesa y a otro que ponga los tenedores; tras lo cual 3) los resultados de estas subtareas son comprobados por un agente de validación; y 4) si se detecta un error, un agente de mejora recomienda un ajuste.

Este enfoque se sustenta en un ecosistema en rápida expansión de herramientas, metodologías y servicios, que resultan excelentes para los procesos no esenciales. Sin embargo, cuando se pasa a las operaciones fundamentales —donde data y el control de las anomalías son esenciales—, se necesitan agentes programados a medida, una integración más profunda con los sistemas empresariales y la implementación de mejores controles y medidas de seguridad.

Un caso práctico: la reinvención de las operaciones sobre el terreno

A modo de ejemplo, pensemos en un proyecto que llevamos a cabo con un importante proveedor de Internet europeo. Nuestro objetivo era reducir tanto el tiempo de resolución como el coste de las llamadas de servicio técnico. La mayoría de la gente ha tenido que llamar alguna vez al servicio de asistencia por una conexión que no funciona, repitiendo la información varias veces y, finalmente, esperando a que llegue un técnico. Lo que ocurre (o no ocurre) entre bastidores es revelador: los técnicos suelen llegar sin conocer todo el contexto, viéndose obligados a resolver el problema partiendo de cero. Esto provoca largos periodos de inactividad —a veces de más de un mes— y miles de horas de trabajo de los operadores desperdiciadas.

Decidimos empezar poco a poco. Nos centramos en crear un sistema diseñado para ayudar a los técnicos a realizar sus tareas de forma más rápida y eficaz: un apoyo en el proceso, no un agente independiente. Como parte de este esfuerzo, integramos data más de 15 sistemas de información, proporcionando a los técnicos un resumen de las averías notificadas y un historial de las soluciones que se habían probado. Esto les ofrecía una visión general de la tarea —por ejemplo, solucionar un problema de conexión de un cliente— que podían leer o escuchar de camino al lugar de trabajo. De ese modo, podían empezar a trabajar para solucionarlo tan pronto como llegaban, ahorrando el tiempo que a menudo se perdía en ponerse al día con el problema.

A continuación, creamos una función que generaba recomendaciones sobre la mejor acción a seguir para resolver el problema. Otra función consistía en una interfaz conversacional que permitía al técnico consultar los sistemas informáticos subyacentes de la Compañia de Internet Compañia lenguaje natural para identificar las causas fundamentales. Por último, automatizamos muchas acciones sencillas y repetitivas: por ejemplo, corregir registros del CRM cuando se vinculaba un hogar equivocado o activar reinicios de red cuando un conmutador fallaba en la caja de conexiones central del barrio. Esto le ahorró al técnico una enorme cantidad de tiempo, ya que no tuvo que llamar al centro de atención al cliente interno para que le ayudara con pequeños cambios para realizar la reparación.

Durante ocho meses, trabajamos de forma iterativa: definimos los procesos, solucionamos los puntos débiles e incorporamos funcionalidades paso a paso, con comentarios semanales de los técnicos de campo que probaban la solución basada en tabletas.

Los resultados:

  • Reducción del 60 % en el tiempo de resolución
  • Más de un millón de euros de ahorro recurrente al año
  • Mejora significativa enel índice de recomendación de los clientes

A la vista de estos resultados, el cliente deseaba ampliar el proyecto a otras siete regiones. Esto supuso un esfuerzo considerablemente mayor: aunque la metodología y algunos componentes de los agentes eran reutilizables, cada región contaba con sistemas informáticos distintos. Cada implementación requería nuevas integraciones y data . La expansión a cada una de las siete regiones supuso la mitad del esfuerzo que había supuesto la implementación inicial por cada región añadida.

Los retos de la implementación de sistemas multiagente

Como se ha ilustrado anteriormente, las implementaciones de sistemas multiagente pueden generar valor real con éxito, pero son muy pocos los que hablan del trabajo que realmente supone llevarlas a cabo. ¿Cuáles fueron las dificultades y los obstáculos a los que nos enfrentamos?

Pruebas rápidas frente a la ampliación de la escala.

¿Lo diseñamos desde el principio con una arquitectura escalable y eficaz? Por mucho que nos gustaría afirmarlo, habría sido imposible. Al igual que los innovadores van descubriendo de forma iterativa el ajuste entre el producto y el mercado, los casos de uso del sistema multiagente y la solución evolucionaron de forma iterativa a medida que nos sumergíamos en un ciclo de experimentación rápida. Además, la tecnología, la metodología y los servicios necesarios para construir estos sistemas evolucionaron rápidamente.

No empezamos con el sistema completo. En su lugar, comenzamos con un modelo de lenguaje grande (LLM) y RAG como pieza central para resolver, básicamente, el primer caso de uso. A medida que realizábamos pruebas, nos dimos cuenta de que necesitábamos dividir el sistema en agentes más pequeños que se encargaran de tareas más especializadas para aumentar la fiabilidad; poco a poco, esto evolucionó hasta convertirse en un sistema totalmente basado en agentes. Finalmente, desarrollamos un sistema funcional y altamente fiable que aporta valor. Con este conocimiento y los resultados que tenemos ahora, lo estamos reconvirtiendo en una arquitectura mucho más robusta para escalar otras partes de la Compañia que sea más fácil de mantener.

Zonas problemáticas frente a causas fundamentales.

Por regla general, hemos observado que los directivos y los mandos intermedios saben más o menos qué procesos requieren mucho tiempo o esfuerzo, pero tienen una visión poco fundamentada sobre dónde residen la complejidad y las oportunidades. Solo los operarios lo saben. La conclusión es que hay que hacer dos cosas antes de poder empezar realmente a construir: 1) dedicar tiempo suficiente a comprender los problemas desde la perspectiva de la dirección, pero también 2) hablar con los operarios sobre lo que ellos consideran la causa raíz de cualquier problema concreto.

Por ejemplo, los responsables nos señalaban partes del proceso en las que se desperdiciaba tiempo o recursos (por ejemplo, en el centro de servicios compartidos) y nos pedían que buscáramos los «elementos de conocimiento» adecuados para que el operador pudiera resolver un problema con mayor rapidez. Sin embargo, cuando empezamos a trabajar directamente con los operadores, descubrimos que la mitad de ellos encontraba los «elementos de conocimiento» en 10 segundos, mientras que a la otra mitad le llevaba varios minutos encontrar la misma información porque no sabían buscar bien en el sistema. Este no es un problema que AI agentiva AI resolver bien: es una cuestión de formación. Pero también descubrimos que los líderes y gerentes habían pasado por alto por completo que los operadores dedican aproximadamente el 50 % de su tiempo a rellenar el CRM tras las llamadas de los clientes. Este es un problema ideal para un agente, que puede transcribir la llamada e introducir toda la información en los campos correctos, lo que agiliza enormemente el proceso y mejora data . El operador solo tiene que comprobarlo y pulsar Aceptar.

No son los sistemas informáticos los que te frenan, sino las personas.

Las partes más laboriosas y complejas de nuestro trabajo consistieron en participar en las reuniones de dirección adecuadas, ganarnos la confianza de las partes interesadas e identificar y resolver las dependencias que surgían como consecuencia de nuestro trabajo. La integración con una docena de sistemas informáticos para que la solución funcione es compleja desde el punto de vista tecnológico, pero el verdadero reto radica en que todos estos sistemas cuentan con sus propios equipos de desarrollo, con plazos, prioridades y hojas de ruta diferentes. Poner a disposición los puntos finales de las API y someterlos a pruebas exhaustivas puede suponer unas dos semanas de trabajo. Incorporarnos a las respectivas hojas de ruta de estos sistemas llevó mucho, mucho más tiempo. La mayoría de los equipos con los que coordinábamos dejaron de dar prioridad a este trabajo durante varios meses, alegando (probablemente con razón desde su punto de vista) que tenían tareas más importantes que eran prioritarias.

Los modelos pueden tener alucinaciones, y las tendrán.

Los agentes siguen siendo bastante inestables y pueden «alucinar», lo que hace necesario establecer controles y medidas de seguridad rigurosos mediante el uso de un modelo de lenguaje grande (LLM) como árbitro (el agente de validación). La indicación del sistema al agente debe ser lo suficientemente firme y, al mismo tiempo, lo suficientemente flexible como para que el agente ejecute las tareas correctamente. Esto requiere matices, tiempo y habilidades data e data para que estos sistemas de agentes funcionen con la fiabilidad suficiente como para poder implementarlos en su negocio. En otras palabras, contar con buenos desarrolladores y experiencia en el ámbito empresarial sigue siendo muy relevante.

La nueva disciplina de la transformación agénica

¿Qué lecciones más generales podemos extraer de este caso? En muchos sentidos, parece como si volviéramos a descubrir el Lean: rediseñar el trabajo desde cero. La diferencia es que las herramientas actuales son mucho más potentes, ya que permiten no solo una optimización gradual, sino un rediseño completo de los procesos, incluso entre departamentos.

Más allá de data AI , el éxito depende de un profundo conocimiento de los procesos: comprender la situación actual, imaginar la situación futura y traducirla en pequeños pasos factibles. En ese sentido, estamos asistiendo al regreso delos «cinturones negros Lean», pero esta vez impulsados por AI generativa.

El trabajo es minucioso y metódico, no glamuroso. Hay que ir paso a paso. El enfoque se basa en la metodología, no en la magia. Cada nueva área de negocio requiere un análisis específico y una adaptación a medida.

Los agentes totalmente autónomos aún están muy lejos. Por ahora, la configuración más eficaz es aquella en la que el ser humano sigue participando en el proceso, lo que permite que el operador sea más inteligente, más rápido y esté mejor preparado.

Al principio, el progreso es gradual. Solo cuando los sistemas centrales se conectan y la información fluye sin problemas se observan mejoras significativas en la eficiencia.

La tecnología también evoluciona más rápido que los proyectos. Las herramientas que utilizábamos hace ocho meses ya han quedado obsoletas. Por eso nos centramos en casos de uso que se amortizan en el plazo de un año, antes de que cambie la tecnología subyacente.

Y lo que es más importante, las empresas deben desarrollar capacidades internas:data , data , diseñadores AI general y lo que algunos denominan ahora «ingenieros de contexto» o «cinturones AI general»: personas que comprendan a fondo los procesos y sean capaces de dividir la transformación en pasos factibles. Desarrollar estas capacidades como Compañia te Compañia crear nuevos flujos de trabajo autónomos más rápidamente (a medida que la tecnología evolucione), lo que puede suponer un verdadero factor diferenciador frente a la competencia.

Por último, aunque estas iniciativas acabarán integrándose en las operaciones habituales de la empresa, es fundamental ponerlas en marcha con un marco de gobernanza sólido, que aúne las perspectivas técnica y empresarial. Ese equilibrio es lo que convierte la experimentación en transformación.

La década que tenemos por delante

Puede que el entusiasmo AIgeneral haya superado su adopción, pero su potencial es real. Al igual que las revoluciones de Internet y los teléfonos inteligentes que la precedieron, este cambio de paradigma transformará los sectores, no mediante una disrupción repentina, sino a través de años de reinvención metódica.

Las organizaciones que tengan éxito no se limitarán a adoptar herramientas, sino que desarrollarán la capacidad de reinventarse continuamente gracias a ellas.