Introducción

Ahora el centro de gravedad está cambiando. A medida que AI, especialmente los grandes modelos de lenguaje (LLM), se va integrando en los flujos de trabajo, el rendimiento depende menos de data y más de cómo se oriente a los sistemas para utilizarlos. El activo fundamental es ahorael contexto: indicaciones, conjuntos de instrucciones, guías de actuación, memorias de los agentes, guías de uso de herramientas y heurísticas de dominio que dirigen el razonamiento en el momento de la inferencia.El contexto es el nuevo data maestro.

La falta de un contexto regulado ya está provocandoun caos contextual: proliferanlas indicaciones , los equipos reescriben las instrucciones de forma improvisada, los conocimientos prácticos se reducen a resúmenes genéricos y el comportamiento se desvía. Investigaciones recientes apuntan a una solución.El marco ACE (Agentic Context Engineering), desarrollado por Stanford y la Universidad de California en Berkeley, trata el contexto como unmanual de estrategias completo y en constante evolución,perfeccionado a través de un ciclode generación → reflexión → curación. En las pruebas comparativas publicadas, ACE muestra unamejora de +10,6 puntos porcentuales en tareas de agentesy de +8,6 puntos en razonamiento financiero específico del dominio, con una adaptación más rápida y mejoras logradas incluso a partir de la retroalimentación de la ejecución natural.

Las limitaciones del MDM tradicional en la AI

MDM resuelto para data: centralizaba y sincronizaba registros de entidades, aplicaba esquemas y reglas de supervivencia, conciliaba duplicados y proporcionaba linaje y gestión. AI , sin embargo, se basan enel contexto. El contexto es dinámico y operativo. Cambia a medida que los sistemas se enfrentan a nuevos escenarios, es creado por muchas manos (humanas y modelos), y su calidad se juzga por el rendimiento y la seguridad de las tareas posteriores, no por la conformidad con el esquema.

Hay tres tipos de fallos que se han vuelto habituales.El sesgo de brevedadparte de la idea de que las indicaciones breves son mejores; en la práctica, los modelos de lenguaje grande suelen funcionarmejor con contextos largos y detallados,y son capaces de seleccionar la información relevante en tiempo de ejecución. El colapso del contextose produce cuando la reescritura repetida comprime un conocimiento rico en resúmenes insulsos; en un caso de ACE, un contexto se redujo de18 282 tokens con una precisión del 66,7 %a122 tokens con un 57,1 %en una sola reescritura. Yla proliferación descontroladaproduce un comportamiento inconsistente, una adaptación lenta y una exposición al incumplimiento normativo. Servicios tradicionales de MDM son Servicios ayuda en este sentido.

Gestión de contextos (MCM)

Qué es MCM

La gestión de contextos (MCM)es un método sistemático paragestionar, versionar y mejorar continuamentelos contextos que determinan AI . En lugar de considerar las indicaciones como fragmentos desechables, la MCM las trata comomanuales dinámicos que acumulan conocimientos institucionales, políticas, tácticas, casos extremos y procedimientos de herramientas, y que evolucionan sin perder su memoria.

Principios de diseño

MCM se basa en una serie de prácticas que mantienen un alto nivel de calidad y minimizan las desviaciones. En primer lugar, se da prioridad alos guiones detalladosfrente a los resúmenes concisos; los modelos de contexto extenso y las optimizaciones de inferencia (como la reutilización de la caché KV) hacen que esto sea viable. En segundo lugar,se separan las funcionesen el ciclo de aprendizaje: un generador ejecuta tareas y produce trayectorias; un reflector analiza esos rastros para extraer conocimientos y diagnosticar modos de fallo; y un curador convierte esos conocimientos enactualizaciones específicas y controladas. En tercer lugar, se prefierela edición deltaa las grandes reescrituras, de modo que las mejoras sean detalladas, comprobables y reversibles. En cuarto lugar,aprender de la retroalimentación de la ejecución, el éxito o el fracaso , los resultados de las herramientas y las valoraciones de los usuarios, de modo que los contextos mejoren sin necesidad de data etiquetados. Por último, practicar el refinamiento multiepocarevisando las consultas comunes, reforzando la orientación y eliminando la redundancia.

Una taxonomía práctica

Para lograr un equilibrio entre la reutilización y la especificidad, MCM organiza el contexto en tres capas que se interrelacionan de forma natural.El contexto empresarial codifica las normas de toda la organización, el cumplimiento normativo, el nivel de seguridad y las herramientas aprobadas. El contexto funcional recoge los conocimientos operativos de un área de negocio, los procedimientos, los casos extremos, los indicadores clave de rendimiento (KPI) y los matices regionales. El contexto individualadapta la configuración de las tareas y el estilo preferido a un usuario o flujo de trabajo específico. En conjunto, permiten a los equipos elaborar un manual único y coherente para cualquier solicitud sin tener que empezar desde cero.

Competencias clave

Repositorio de contexto y composición. MCM parte de un repositorio que almacena tanto recursos offline (mensajes del sistema, plantillas de instrucciones, guías de políticas, guías de herramientas) como recursos online (historiales de agentes, registros de ejecución, segmentos de conversación reutilizables). Cada elemento incluye metadatos, propietario, dominio, clase de riesgo y linaje, y puede combinarse bajo demanda para crear el contexto que necesita una aplicación.

Enrutamiento y ensamblaje.Una capa de enrutamiento ligera decide qué modelo utilizar y cómo ensamblar el contexto empresarial, funcional e individual para una solicitud determinada. De este modo, las compensaciones entrecoste, calidad y latenciase hacen explícitas y repetibles, en lugar de quedar ocultas en modificaciones puntuales ad hoc.

Control de versiones y experimentación.Todos los cambios se registran comocadenas de deltas. Los equipos pueden ejecutar variantes en paralelo, asociar métricas comparativas (precisión, cumplimiento de políticas, latencia, tasa de alucinaciones e impacto en el negocio), implementar los cambios de forma gradual y revertirlos automáticamente en caso de regresión. Las actualizaciones estructuradas reducen la latencia de adaptación y disminuyen el riesgo.

El flujo de trabajo de aprendizaje.Durantela generación, los agentes se ejecutan siguiendo las directrices actuales y registran los planes, las llamadas a herramientas, las entradas y salidas, y los resultados. Enla fase de reflexión, esos registros se analizan para obtener directrices concretas: «revisar los resultados de la API antes de agregarlos», «validar el esquema antes de escribir», «la política X anula a Y en la región Z». En la fase de curación, los conocimientos se convierten en entradas fusionables con identificadores y enlaces de evidencia; se eliminan los duplicados, se aplican normas de formato y controles de seguridad, y el manual de estrategias crece sin colapsar.

Gobernanza y riesgos. MCM asigna responsables a los ámbitos principales, define los umbrales de aprobación para las actualizaciones propuestas, aplica las clasificaciones de seguridad (información de identificación personal, información regulada, información confidencial) y garantiza la total trazabilidad de quién modificó qué, cuándo y por qué. Los mismos principios de gobernanza que han funcionado con data—propiedad, normas y vías de escalación— se trasladan sin problemas al contexto.

Observabilidad y retroalimentación. Los análisis de uso revelan dónde se insertan los contextos y cuál es su rendimiento. Los análisis de indicaciones identifican los pasajes que más contribuyen a los resultados. Los detectores de desviaciones vigilan las contracciones repentinas de tamaño o los picos en los contadores «perjudiciales», que son signos tempranos de colapso. La retroalimentación de los usuarios se convierte en una aportación fundamental para el ciclo de mejora.

Integración y operaciones.Por último, MCM se integra en AI diarias AI : los modelos se evalúan y se implementan siguiendo los principios de LLMOps; las herramientas y las integraciones se ofrecen como capacidades reguladas; las API incorporan contextos compuestos en los agentes y los sistemas RAG; y las funciones de almacenamiento en caché y de economía de tokens mantienen los costes bajo control.

Un breve ejemplo

Imagina un copiloto de soporte que, en ocasiones, calcula mal los reembolsos cuando cambian los niveles de fidelidad. La generación produce trazas de los casos fallidos; la reflexión revela la regla: «si el nivel ha cambiado en los últimos 30 días, recalcular el precio a partir de la fecha de entrada en vigor antes del reembolso». La curación añade un pequeño cambio, dos frases y un ejemplo práctico, etiquetado en la sección de reembolsos con un enlace al rastro del fallo. La siguiente implementación muestra un aumento cuantificable en la resolución en el primer contacto sin necesidad de una reescritura general y con una fácil reversión si fuera necesario. Esto es MCM en acción: pequeñas modificaciones demostrables que se acumulan para dar lugar a un comportamiento robusto.

Qué previene la MCM

Gracias a estas prácticas, las organizaciones evitan las trampas habituales: la cultura del «mensaje del día», las reescrituras radicales que borran conocimientos adquiridos con gran esfuerzo, la proliferación del «copiar y pegar» entre equipos y la incapacidad de explicar qué instrucciones dieron lugar a un resultado concreto. MCM devuelvela memoria, la responsabilidad y la repetibilidad al AI .

El futuro: ecosistemas contextuales que se perfeccionan por sí mismos

Con MCM, los sistemas puedenaprender de la ejecucióny proponer actualizaciones automáticamente a partir de señales naturales, como el éxito o el fracaso de las tareas y los resultados de las herramientas. ACE demuestra que este aprendizaje sin etiquetas puede aportar grandes beneficios (por ejemplo,+17,1 puntosen las tareas de los agentes), lo que apunta hacia sistemas resilientes que mejoran a medida que operan. En la década de 2010, lo más importante eran data ; en las décadas de 2020 y 2030, seránlas ventajas competitivas basadas en el contexto y los conocimientoscodificados las que diferenciarán a los líderes. Cabe esperar un resurgimiento de la gestión del conocimiento a medida que los manuales operativos se conviertan en activos auditables y validados en la ejecución, se estrechen los vínculos con los grafos de conocimiento para fundamentar los hechos y se refuerce la seguridad mediante un comportamiento explícito y reversible. La ampliación de las ventanas de contexto y las optimizaciones de la inferencia están haciendo que los manuales completos resulten económicos a gran escala.

Conclusión

El MCM no sustituye al MDM, sino que lo amplía a una nueva clase de activos. Los conceptos de gobernanza que pusieron orden en data —la gestión responsable, las fuentes de referencia, las taxonomías, el ciclo de vida y los indicadores de calidad— se aplican ahora a los contextos, es decir, a las instrucciones y heurísticas que determinan cómo AI y actúa AI . El marco ACE demuestra quetratar los contextos como manuales de estrategias en evolucióny actualizarlos mediantegeneración → reflexión → curaciónmejora la precisión (+10,6 y +8,6 puntos), acelera la adaptación y permite la auto-mejora a partir únicamente de las señales de ejecución. Trate el contexto como data maestros, evite el colapso con una curación basada en deltas, aproveche su base de gobernanza y combine el ciclo de aprendizaje con una sólida observabilidad. Los equipos que dominen el MCM disfrutarán de AI más fiable, una iteración más rápida y una ventaja duradera; aquellos que gestionen el contexto de forma superficial repetirán la expansión descontrolada previa al MDM, solo que con mayor riesgo y coste.

Referencias