Tres requisitos imprescindibles antes de actualizar la data a una AI

La mayoría de las empresas no están preparadas para sustituir su data de la era de los paneles de control por AI . El último informe «State of Data Analytics» de Salesforce indica que el 84 % de los responsables data análisis afirman que sus estrategias requieren una revisión completa antes de que AI puedan tener éxito. Los líderes estiman que el 26 % de sus data fiables, solo el 43 % cuenta con marcos formales data y alrededor del 50 % no confía en su capacidad para generar y ofrecer información oportuna. Al mismo tiempo, el 70 % cree que la información más valiosa se encuentra en data no estructurados. La conclusión es clara: el obstáculo no es el entusiasmo, sino los cimientos, y esos cimientos deben cambiar antes de que los sistemas autónomos puedan escalar.

AI agencial AI data en sistemas de acción que leen contratos y tickets, supervisan cámaras, escuchan llamadas, establecen correlaciones con registros y eventos, y luego ejecutan acciones. Los paneles de control pueden tolerar retrasos, mientras que los agentes no; el cumplimiento normativo puede gestionarse mediante documentación, pero los agentes requieren controles en tiempo de ejecución. Antes de que cualquier empresa adopte una AI , hay tres elementos que deben ser innegociables: la multimodalidad como opción predeterminada, el streaming como modo de funcionamiento y la gobernanza como sistema de tiempo de ejecución. Las secciones siguientes traducen estas convicciones en decisiones arquitectónicas que soportan cargas de trabajo de agentes a escala de producción.

Multimodal por defecto

Tratar los documentos, las imágenes, el audio, el vídeo y los registros como activos de segunda clase limita la capacidad de los agentes por diseño. Una plataforma adecuada para los agentes almacena tablas y tensores como elementos equivalentes en un único catálogo, con un sistema de linaje unificado y un modelo de acceso coherente, de modo que los medios de alta dimensión pueden seguir el mismo ciclo de vida que data relacionales. En la práctica, esto se traduce en diseños fragmentados o en mosaico que permiten lecturas parciales y la extracción de regiones de interés; identificadores basados en el contenido con metadatos sidecar versionados para que cada artefacto sea reproducible; y formatos nativos de matriz y columna que permiten el pushdown de predicados y coordenadas. El texto y los documentos requieren incrustaciones como derivado principal que se generen de forma determinista, versionadas con sus fuentes e indexadas con compensaciones claras; por ejemplo, HNSW cuando prima la recuperación, IVF PQ cuando hay que equilibrar memoria y latencia, e indexación híbrida densa más léxica cuando los códigos y números de producto son esenciales. La recuperación debe devolver conjuntos de pruebas, como pasajes, páginas, fotogramas o clips, ya que los agentes razonan a partir de pruebas en lugar de subcadenas aisladas.

Los mayores beneficios provienen de la fusión, pero esta solo resulta valiosa cuando se resuelve la alineación a nivel de plataforma. La fusión temprana capta interacciones de gran detalle, como la alineación de fragmentos de texto con regiones de la imagen; la fusión tardía conserva los modelos específicos de cada modalidad hasta un umbral de decisión; y los enfoques híbridos combinan ambos cuando los puntos de interacción están bien definidos. La alineación es la parte difícil. La sincronización temporal de eventos entre fuentes con diferentes frecuencias de muestreo, el registro espacial entre sensores y la vinculación semántica —de modo que un ID de pedido en un PDF, un fotograma de la cámara del carril tres, un pico de vibración y un evento del libro mayor se resuelvan en el mismo objeto de negocio— son capacidades que pertenecen a la capa de catálogo y linaje. Sin esta noción compartida de tiempo, identidad y procedencia, los agentes alucinarán con el contexto o actuarán basándose en señales obsoletas. Dado que el 70 % de los líderes cree que los conocimientos más valiosos se encuentran en data no estructurados, la multimodalidad no puede ser un complemento de la fase dos. Es el valor por defecto que desbloquea el contexto.

El streaming como modo de funcionamiento

El trabajo basado en agentes introduce un objetivo central de nivel de servicio: la latencia en la toma de decisiones, es decir, el tiempo que transcurre entre una señal del mundo real y una acción aceptable. Para cumplir ese objetivo se requiere una plataforma centrada en el streaming. La columna vertebral es un registro de eventos que actúa como sistema de registro, con esquemas que se aplican en el momento de la escritura y una semántica de los eventos basada en marcas de tiempo, de modo que las ventanas reflejen la realidad empresarial en lugar del orden de llegada. Sobre esa columna vertebral se ejecutan procesadores de flujos con estado que mantienen un estado local duradero, gestionan la contrapresión de forma predecible, unen flujos activos a data de referencia inactivos y emiten decisiones en lugar de limitarse a transformar filas. Para facilitar la inspección y la justificación tanto por parte de personas como de agentes, se coloca una capa analítica en tiempo real que ingiere datos directamente del registro y responde a consultas en menos de un segundo sobre tablas que se actualizan continuamente.

La ruta activa y la ruta inactiva deben residir en la misma estructura. Los flujos de datos se incorporan a formatos de tablas abiertas con transacciones ACID y «viajes en el tiempo», de modo que Repeticiones, los rellenos retrospectivos, las auditorías y el entrenamiento pueden llevarse a cabo sin paralizar el proceso. Esto elimina la falsa disyuntiva entre lo rápido y lo efímero, por un lado, y lo duradero y lo lento, por otro. La disciplina operativa cierra el ciclo. Defina presupuestos de retraso y reglas de retractación, documente los guiones Repetición de mensajes sin respuesta, y utilice implementaciones canario con tráfico duplicado para que los lanzamientos sean reversibles. Cuando se aplican estas prácticas, los agentes antifraude pueden bloquear antes de la liquidación, la personalización puede adaptarse durante la sesión, los agentes de fiabilidad pueden programar el mantenimiento cuando aparece la primera desviación, y los agentes de servicio pueden escalar el problema cuando aumenta la frustración, en lugar de hacerlo tras la pérdida de clientes.

La gobernanza como sistema de tiempo de ejecución

A medida que aumenta la autonomía, la confianza se convierte en la clave. La documentación y las auditorías periódicas no evitan las malas decisiones; el control en tiempo de ejecución sí lo hace. Hay dos medidas que establecen ese control. En primer lugar, aplicar data en el momento de la escritura, de modo que los productores publiquen esquemas, semántica y objetivos de actualidad; el registro bloquee los cambios incompatibles o los envíe a cuarentena; los consumidores declaren sus expectativas; y se notifiquen automáticamente los incidentes cuando se incumplan dichas expectativas, de modo que se reduzcan los permisos de los agentes hasta que se restablezcan las condiciones. En segundo lugar, evaluar la política como código en cada acción, ya sea desencadenada por un humano o por un agente. Cuando se solicita una herramienta o un conjunto de datos, un motor de políticas debe evaluar quién realiza la solicitud, con qué propósito, sobre qué data, bajo qué riesgo y con qué obligaciones; por ejemplo, adjuntar un paquete de pruebas, ocultar campos sensibles o exigir una firma conjunta humana por encima de un umbral. El resultado debe ser una decisión firmada y un rastro auditable.

La seguridad requiere una estrategia de «confianza cero» que asuma la posibilidad de una brecha y verifique cada llamada. El principio del privilegio mínimo, la verificación continua, la ejecución de herramientas en entornos aislados y el control estricto de la salida de datos son requisitos imprescindibles, mientras que los riesgos específicos de los agentes —como la inyección de comandos, el envenenamiento de resultados y el uso indebido de herramientas— exigen telemetría y contención en tiempo de ejecución, más allá de un simple ajuste centrado en los modelos. Lo que está en juego queda claro en el mismo estudio de Salesforce: solo el 43 % de los líderes afirma contar con marcos de gobernanza formales, el 89 % de los equipos que ya utilizan AI experimentado resultados inexactos o engañosos, y el 88 % afirma que AI nuevos enfoques de gobernanza y seguridad. Una gobernanza probada significa que la plataforma puede mostrar quién actuó, con qué data, bajo qué política, utilizando qué modelo o versión de herramienta, y cómo revertir los cambios si es necesario, que es lo que distingue a los proyectos piloto que impresionan de los sistemas que superan las auditorías.

Cómo convergen los tres elementos

El modelo es un sistema dinámico que conecta a los productores, el almacenamiento, la capacidad de cálculo y las políticas sin traspasos que minen la confianza. Los productores emiten eventos de cambio y depositan artefactos —como archivos PDF, imágenes, audio y vídeo— en un almacenamiento fragmentado, mientras que un catálogo global registra los activos, la propiedad, el linaje y las políticas aplicables. data cercanos normalizan, censuran, incrustan y alinean, y las características y las incrustaciones resultantes fluyen hacia almacenes indexados con perfiles de recuperación documentados. Los procesadores de flujos con estado enriquecen y toman decisiones sobre la marcha, y una superficie analítica en tiempo real expone datos recientes a personas y agentes. Paralelamente, los mismos eventos se clasifican en tablas de lago de datos abiertas con semántica ACID y viaje en el tiempo, de modo que las vistas en tiempo real e históricas conviven en un sustrato gobernado. Los agentes interactúan a través de herramientas de privilegios mínimos; cada llamada se comprueba según la política, y cada acción se firma y se vincula al linaje. Este patrón aborda las brechas de confianza, puntualidad y accesibilidad que impiden la escalabilidad.

Conclusión

Las empresas que aspiran a ampliar AI resistirse a la tentación de añadir funciones de agente a una pila heredada de la era de los paneles de control. Primero hay que cambiar los cimientos. Hay que establecer la multimodalidad como norma por defecto, de modo que todas las señales útiles se agrupen en un único catálogo con identidad, tiempo y linaje compartidos, y que la recuperación ofrezca pruebas en lugar de fragmentos. Hay que convertir el streaming en el modo operativo, de modo que las decisiones respeten el tiempo de los eventos y se produzcan dentro de un margen de latencia definido, mientras que esos mismos flujos se registran en tablas abiertas para su auditoría y aprendizaje. Actualice la gobernanza pasando de las diapositivas al tiempo de ejecución mediante la aplicación de contratos en el momento de la escritura, la evaluación de políticas en cada acción, la aplicación del modelo Zero Trust a las herramientas y data, y la observación continua para que la autonomía se pause o se reduzca cuando la calidad decaiga. En conjunto, estas medidas sustituyen un sustrato de informes por un sustrato de acción. Los agentes operan entonces sobre pruebas multimodales recientes dentro de límites explícitos, con explicaciones integradas, y así es como las pruebas piloto pasan a producción y cómo AI valor en lugar de excepciones.