Trois points non négociables avant de passer d'une pile de data à une pile d'IA
La plupart des entreprises ne sont pas prêtes à remplacer la pile de data de l'ère des tableaux de bord par une pile d'IA. La dernière étude State of Data & Analytics de Salesforce indique que 84 % des responsables des data et de l'analyse déclarent que leurs stratégies nécessitent une révision complète avant que les ambitions en matière d'IA ne puissent aboutir. Les dirigeants estiment que 26 % de leurs data ne sont pas fiables, que seuls 43 % d'entre eux disposent de cadres formels de gouvernance des data et qu'environ 50 % n'ont pas confiance dans leur capacité à générer et à fournir des informations en temps voulu. Dans le même temps, 70 % pensent que les informations les plus précieuses sont enfermées dans des data non structurées. La conclusion est simple : l'obstacle n'est pas l'enthousiasme mais les fondations, et ces dernières doivent être modifiées avant que les systèmes agentiques puissent s'étendre.
L'IA agentique transforme les plateformes de data en systèmes d'action qui lisent les contrats et les tickets, regardent les caméras, écoutent les appels, établissent des corrélations avec les journaux et les événements, puis exécutent. Les tableaux de bord peuvent tolérer des retards, alors que les agents ne le peuvent pas ; la conformité peut s'opérer par le biais de la documentation, alors que les agents nécessitent des contrôles au moment de l'exécution. Avant qu'une entreprise ne proclame une pile d'IA, trois éléments doivent être non négociables : la multimodalité comme valeur par défaut, le streaming comme mode de fonctionnement et la gouvernance comme système d'exécution. Les sections suivantes traduisent ces convictions en choix architecturaux qui permettent de supporter des charges de travail agentiques à l'échelle de la production.
La multimodalité par défaut
Traiter les documents, les images, l'audio, la vidéo et les journaux comme des actifs de seconde classe limite les capacités des agents par conception. Une plateforme adaptée aux agents stocke les tables et les tenseurs en tant que pairs dans un seul catalogue avec un système de lignage unifié et un modèle d'accès cohérent, de sorte que les médias à haute dimension puissent suivre le même cycle de vie que les data relationnelles. En pratique, cela signifie des mises en page fragmentées ou en mosaïque qui permettent des lectures partielles et l'extraction de régions d'intérêt ; des identificateurs adressés au contenu avec des métadonnées latérales versionnées afin que chaque artefact soit reproductible ; et des formats natifs de tableau et de colonne qui permettent le repoussage de prédicats et de coordonnées. Les textes et les documents nécessitent des embeddings comme dérivé primaire, générés de manière déterministe, versionnés avec leurs sources et indexés avec des compromis clairs, par exemple, HNSW lorsque le rappel domine, IVF PQ lorsque la mémoire et la latence doivent être équilibrées, et l'indexation hybride dense et lexicale lorsque les codes et les numéros de produits sont essentiels. La recherche doit permettre de retrouver des ensembles de données tels que des passages, des pages, des images ou des clips, car les agents raisonnent sur des données plutôt que sur des sous-chaînes isolées.
Les gains les plus importants proviennent de la fusion, mais celle-ci n'est valable que lorsque l'alignement est résolu au niveau de la plateforme. La fusion précoce permet de capturer des interactions fines, telles que l'alignement de parties de texte sur des régions d'image, la fusion tardive préserve les modèles spécifiques à la modalité jusqu'à une limite de décision, et les approches hybrides combinent les deux lorsque les points d'interaction sont bien définis. L'alignement est la partie la plus difficile. La synchronisation temporelle des événements entre des sources ayant des taux d'échantillonnage différents, l'enregistrement spatial entre les capteurs et l'établissement de liens sémantiques pour qu'un identifiant de commande dans un PDF, une image d'une caméra à trois voies, un pic de vibration et un événement du grand livre se rapportent au même objet commercial sont des capacités qui relèvent de la couche catalogue et lignage. Sans cette notion partagée du temps, de l'identité et de la provenance, les agents auront des hallucinations sur le contexte ou agiront sur la base de signaux périmés. Étant donné que 70 % des dirigeants estiment que les informations les plus précieuses se trouvent dans les data non structurées, la multimodalité ne peut pas être un ajout de phase deux. C'est la solution par défaut qui permet de débloquer le contexte.
La diffusion en continu comme mode de fonctionnement
Le travail agentique introduit un objectif central au niveau du service : la latence de décision, c'est-à-dire le temps qui s'écoule entre un signal du monde réel et une action acceptable. Pour atteindre cet objectif, il faut d'abord disposer d'une plateforme de diffusion en continu. L'épine dorsale est un journal d'événements qui fait office de système d'enregistrement, avec des schémas appliqués à l'écriture et une sémantique de temps d'événement avec des filigranes afin que les fenêtres reflètent la vérité commerciale plutôt que l'ordre d'arrivée. Sur cette épine dorsale fonctionnent des processeurs de flux avec état qui maintiennent un état local durable, gèrent la contre-pression de manière prévisible, joignent des flux chauds à des data référence froides et émettent des décisions plutôt que de simples lignes transformées. Pour faciliter l'inspection et la justification par les humains et les agents, une couche analytique en temps réel est mise en place, qui ingère directement le journal et répond à des requêtes en moins d'une seconde sur des tables mises à jour en permanence.
Le chemin chaud et le chemin froid devraient se trouver dans le même tissu. Les flux de données sont transférés dans des formats de table ouverts avec des transactions ACID et des voyages dans le temps, de sorte que les replays, les remplissages, les audits et la formation puissent se dérouler sans geler le pipeline. Ainsi, le faux choix entre rapide et éphémère d'un côté, et durable et lent de l'autre, s'effondre. La discipline opérationnelle permet de boucler la boucle. Définir des budgets de retard et des règles de rétractation, documenter les runbooks de replay et de lettre morte, et utiliser des déploiements canari avec un trafic miroir pour que les déploiements soient réversibles. Lorsque ces pratiques sont présentes, les agents chargés de la fraude peuvent bloquer avant le règlement, la personnalisation peut s'adapter en cours de session, les agents chargés de la fiabilité peuvent programmer la maintenance dès l'apparition des premières dérives et les agents chargés du service peuvent intervenir lorsque la frustration s'accroît plutôt qu'après le désabonnement.
La gouvernance en tant que système d'exécution
Au fur et à mesure que l'autonomie augmente, la confiance devient la porte d'entrée. La documentation et les audits périodiques n'empêchent pas les mauvaises décisions ; c'est le contrôle au moment de l'exécution qui le fait. Deux mesures permettent d'établir ce contrôle. Premièrement, appliquer les contrats de data lors de l'écriture, de sorte que les producteurs publient les schémas, la sémantique et les objectifs de fraîcheur, que le registre bloque les modifications incompatibles ou les achemine vers la quarantaine, que les consommateurs déclarent leurs attentes et que des incidents soient automatiquement signalés lorsque les attentes ne sont pas respectées, de sorte que les autorisations des agents soient rétrogradées jusqu'à ce que les conditions se rétablissent. Deuxièmement, évaluer la politique en tant que code pour chaque action, qu'elle soit déclenchée par un humain ou un agent. Lorsqu'un outil ou un ensemble de données est demandé, un moteur de politique doit évaluer qui appelle, dans quel but, sur quelles data, avec quel risque et avec quelles obligations, par exemple en joignant un ensemble de preuves, en expurgeant les champs sensibles ou en exigeant une co-signature humaine au-delà d'un certain seuil. Le résultat doit être une décision signée et une piste d'audit.
La sécurité a besoin d'une posture de confiance zéro qui suppose une violation et vérifie chaque appel. Le moindre privilège, la vérification continue, l'exécution d'outils en bac à sable et le contrôle strict des sorties sont des enjeux de taille, tandis que les risques spécifiques aux agents, tels que l'injection rapide, l'empoisonnement de la récupération et l'abus d'outils, nécessitent une télémétrie et un confinement au moment de l'exécution plutôt qu'un simple réglage centré sur le modèle. Les enjeux sont clairs dans la même étude Salesforce : seuls 43 % des dirigeants font état de cadres de gouvernance formels, 89 % des équipes utilisant déjà l'IA ont obtenu des résultats inexacts ou trompeurs, et 88 % déclarent que l'IA exige de nouvelles approches en matière de gouvernance et de sécurité. Une gouvernance éprouvée signifie que la plateforme peut montrer qui a agi, avec quelles data, en vertu de quelle politique, en utilisant quel modèle ou quelle version d'outil, et comment revenir en arrière si nécessaire, ce qui sépare les pilotes qui impressionnent des systèmes qui survivent aux audits.
Comment les trois éléments convergent
Le schéma directeur est un système vivant qui relie les producteurs, le stockage, l'informatique et les politiques sans passer par des intermédiaires qui érodent la confiance. Les producteurs émettent des événements de changement et déposent des artefacts tels que des PDF, des images, du son et de la vidéo dans un espace de stockage groupé, tandis qu'un catalogue global enregistre les actifs, la propriété, la lignée et les politiques applicables. Les pipelines de data proches normalisent, expurgent, intègrent et alignent, et les caractéristiques et intégrations résultantes circulent dans des magasins indexés avec des profils d'extraction documentés. Les processeurs de flux avec état enrichissent et décident en mouvement, et une surface analytique en temps réel expose les faits nouveaux aux humains et aux agents. En parallèle, les mêmes événements s'étagent dans des tables ouvertes avec une sémantique ACID et un voyage dans le temps, de sorte que les vues en temps réel et historiques vivent dans un seul substrat gouverné. Les agents interagissent par le biais d'outils de moindre privilège ; chaque appel est vérifié par une politique, et chaque action est signée et liée à une lignée. Ce modèle permet de combler les lacunes en matière de confiance, de rapidité et d'accessibilité qui bloquent l'échelle.
Conclusion
Les entreprises qui souhaitent développer l'IA doivent résister à l'envie d'ajouter des fonctions d'agent à une pile qui date de l'époque des tableaux de bord. Les fondations doivent d'abord être modifiées. Faites de la multimodalité la valeur par défaut, de sorte que chaque signal utile se trouve dans un catalogue avec une identité, un temps et une lignée partagés, et que la recherche renvoie des preuves plutôt que des fragments. Faire du streaming le mode de fonctionnement afin que les décisions respectent le temps de l'événement et arrivent dans un budget de latence défini, tandis que les mêmes flux atterrissent dans des tables ouvertes pour l'audit et l'apprentissage. Faire passer la gouvernance des diapositives à l'exécution en appliquant les contrats à l'écriture, en évaluant les politiques à chaque action, en appliquant la confiance zéro aux outils et aux data, et en observant en permanence pour que l'autonomie soit interrompue ou réduite en cas de baisse de la qualité. Ensemble, ces mesures remplacent un substrat de rapports par un substrat d'actions. Les agents opèrent alors sur des preuves multimodales fraîches à l'intérieur de garde-fous explicites, avec des explications intégrées, ce qui permet aux pilotes de devenir des producteurs et à l'IA de créer de la valeur au lieu d'exceptions.

BLOG





