Trois conditions incontournables avant de faire évoluer la data vers une pile d'IA

La plupart des entreprises ne sont pas prêtes à remplacer leur data issue de l'ère des tableaux de bord par une infrastructure basée sur l'IA. Le dernier rapport « State of Data Analytics » de Salesforce révèle que 84 % des responsables data de l'analyse estiment que leurs stratégies doivent être entièrement repensées pour que leurs ambitions en matière d'IA puissent aboutir. Les responsables estiment que 26 % de leurs data pas fiables, seuls 43 % déclarent disposer de cadres formels data , et environ 50 % ne sont pas confiants dans leur capacité à générer et à fournir des informations pertinentes en temps opportun. Dans le même temps, 70 % pensent que les informations les plus précieuses se trouvent dans data non structurées. La conclusion est simple : l'obstacle n'est pas le manque d'enthousiasme, mais les fondations, et ces fondations doivent changer avant que les systèmes autonomes puissent se développer.

L'IA agentique transforme data en systèmes d'action capables de lire des contrats et des tickets, de surveiller des caméras, d'écouter des appels, d'établir des corrélations avec les journaux et les événements, puis d'exécuter des actions. Les tableaux de bord peuvent tolérer des retards, contrairement aux agents ; la conformité peut s'assurer par la documentation, mais les agents nécessitent des contrôles au moment de l'exécution. Avant qu'une entreprise ne se dote d'une pile d'IA, trois éléments doivent être non négociables : la multimodalité par défaut, le streaming comme mode de fonctionnement et la gouvernance comme système d'exécution. Les sections suivantes traduisent ces convictions en choix architecturaux permettant de prendre en charge des charges de travail agentiques à l'échelle de la production.

Le multimodal par défaut

Considérer les documents, les images, les fichiers audio, les vidéos et les journaux comme des ressources de seconde zone limite intrinsèquement les capacités des agents. Une plateforme adaptée aux agents stocke les tables et les tenseurs au même titre que les autres éléments dans un catalogue unique, doté d’un système de traçabilité unifié et d’un modèle d’accès cohérent, de sorte que les médias à haute dimension puissent suivre le même cycle de vie que data relationnelles. En pratique, cela se traduit par des dispositions en blocs ou en mosaïque permettant des lectures partielles et l'extraction de zones d'intérêt ; des identifiants adressés par le contenu avec des métadonnées sidecar versionnées afin que chaque artefact soit reproductible ; et des formats natifs de tableaux et de colonnes permettant la descente de prédicats et de coordonnées. Le texte et les documents nécessitent des représentations comme dérivés primaires, générées de manière déterministe, versionnées avec leurs sources et indexées avec des compromis clairs, par exemple HNSW lorsque le rappel est prioritaire, IVF PQ lorsque la mémoire et la latence doivent être équilibrées, et un indexage hybride dense et lexical lorsque les codes et numéros de produit sont essentiels. La recherche doit renvoyer des ensembles de preuves tels que des passages, des pages, des cadres ou des extraits, car les agents raisonnent à partir de preuves plutôt que de sous-chaînes isolées.

C'est la fusion qui apporte les gains les plus importants, mais celle-ci n'a de valeur que si l'alignement est résolu au niveau de la plateforme. La fusion précoce permet de saisir des interactions fines, telles que l'alignement de segments de texte sur des zones d'image ; la fusion tardive préserve les modèles spécifiques à chaque modalité jusqu'à un seuil de décision ; enfin, les approches hybrides combinent les deux lorsque les points d'interaction sont bien définis. L'alignement est la partie la plus difficile. La synchronisation temporelle des événements entre des sources ayant des fréquences d'échantillonnage différentes, l'enregistrement spatial entre les capteurs et la liaison sémantique permettant de faire correspondre un numéro de commande dans un PDF, une image de caméra de la voie 3, un pic de vibration et un événement de registre au même objet métier sont des capacités qui relèvent de la couche de catalogue et de lignage. Sans cette notion partagée du temps, de l'identité et de la provenance, les agents auront des hallucinations sur le contexte ou agiront sur la base de signaux obsolètes. Étant donné que 70 % des dirigeants estiment que les informations les plus précieuses se trouvent dans data non structurées, la multimodalité ne peut pas être un ajout de phase deux. C'est la norme qui permet de déverrouiller le contexte.

Le streaming comme mode de fonctionnement

Le travail agentique introduit un objectif central en matière de niveau de service : le temps de latence décisionnel, c'est-à-dire le délai entre un signal provenant du monde réel et une action acceptable. Pour atteindre cet objectif, il faut une plateforme axée sur le streaming. La colonne vertébrale est un journal d'événements qui fait office de système d'enregistrement, avec des schémas appliqués à l'écriture et une sémantique temporelle des événements utilisant des horodatages, de sorte que les fenêtres reflètent la réalité métier plutôt que l'ordre d'arrivée. Sur cette infrastructure fonctionnent des processeurs de flux avec état qui maintiennent un état local durable, gèrent la contre-pression de manière prévisible, joignent les flux actifs aux data de référence inactives et émettent des décisions plutôt que de simples lignes transformées. Pour permettre l'inspection et la justification tant par les humains que par les agents, ajoutez une couche analytique en temps réel qui ingère directement à partir du journal et répond à des requêtes en moins d'une seconde sur des tables mises à jour en continu.

Le « hot path » et le « cold path » doivent coexister au sein d’une même infrastructure. Les flux de données sont convertis en formats de tables ouvertes avec des transactions ACID et des fonctionnalités de « time travel », ce qui permet d’effectuer replays, des réintégrations, des audits et des formations sans bloquer le pipeline. Cela met fin au faux dilemme entre rapidité et caractère éphémère d’un côté, et durabilité et lenteur de l’autre. La discipline opérationnelle boucle la boucle. Définissez des budgets de retard et des règles de rétractation, documentez les runbooks replay de messages non remis, et utilisez des déploiements canary avec un trafic en miroir afin que les déploiements soient réversibles. Lorsque ces pratiques sont en place, les agents de lutte contre la fraude peuvent bloquer les transactions avant le règlement, la personnalisation peut s'adapter en cours de session, les agents de fiabilité peuvent planifier la maintenance dès l'apparition des premiers écarts, et les agents de service peuvent escalader les problèmes lorsque la frustration monte plutôt qu'après le départ des clients.

La gouvernance en tant que système d'exécution

À mesure que l'autonomie s'accroît, la confiance devient la clé de voûte. La documentation et les audits périodiques n'empêchent pas les mauvaises décisions ; seul le contrôle en temps réel y parvient. Deux mesures permettent d'instaurer ce contrôle. Premièrement, appliquer data lors de l'écriture : les producteurs publient ainsi les schémas, la sémantique et les objectifs de fraîcheur ; le registre bloque les modifications incompatibles ou les place en quarantaine ; les consommateurs déclarent leurs attentes ; et des incidents sont automatiquement signalés en cas de non-respect de ces attentes, ce qui entraîne une réduction des autorisations des agents jusqu'à ce que les conditions soient rétablies. Deuxièmement, évaluer la politique en tant que code pour chaque action, qu'elle soit déclenchée par un humain ou un agent. Lorsqu'un outil ou un ensemble de données est demandé, un moteur de politique doit évaluer qui effectue la demande, dans quel but, sur quelles data, avec quel niveau de risque et quelles obligations, par exemple en joignant un ensemble de preuves, en masquant les champs sensibles ou en exigeant une cosignature humaine au-delà d'un certain seuil. Le résultat doit être une décision signée et une piste d'audit.

La sécurité nécessite une approche « Zero Trust » qui part du principe qu'une intrusion est possible et vérifie chaque requête. Le principe du « privilège minimal », la vérification continue, l'exécution des outils en bac à sable et un contrôle strict des sorties sont des conditions indispensables, tandis que les risques spécifiques aux agents, tels que l'injection de prompts, l'empoisonnement des résultats et l'utilisation abusive des outils, exigent une télémétrie et un confinement au moment de l'exécution, plutôt qu'un simple réglage centré sur les modèles. Les enjeux sont clairs dans cette même étude de Salesforce : seuls 43 % des dirigeants font état de cadres de gouvernance formels, 89 % des équipes utilisant déjà l'IA ont été confrontées à des résultats inexacts ou trompeurs, et 88 % affirment que l'IA exige de nouvelles approches en matière de gouvernance et de sécurité. Une gouvernance éprouvée signifie que la plateforme peut indiquer qui a agi, avec quelles data, en vertu de quelle politique, en utilisant quelle version de modèle ou d'outil, et comment revenir en arrière si nécessaire, ce qui distingue les projets pilotes impressionnants des systèmes qui survivent aux audits.

Comment ces trois éléments s'articulent

Le plan directeur est un système évolutif qui relie les producteurs, le stockage, la puissance de calcul et les politiques sans transitions susceptibles de nuire à la confiance. Les producteurs émettent des événements de modification et déposent des artefacts tels que des PDF, des images, des fichiers audio et vidéo dans un stockage segmenté, tandis qu’un catalogue global recense les ressources, la propriété, la traçabilité et les politiques applicables. data de proximité normalisent, expurgent, intègrent et alignent les données, et les caractéristiques et intégrations qui en résultent sont acheminées vers des magasins indexés dotés de profils de récupération documentés. Des processeurs de flux avec état enrichissent et prennent des décisions en temps réel, tandis qu’une interface analytique en temps réel expose les faits les plus récents aux utilisateurs et aux agents. En parallèle, ces mêmes événements sont classés dans des tables Lakehouse ouvertes dotées de sémantique ACID et de fonctionnalités de voyage dans le temps, de sorte que les vues en temps réel et historiques coexistent au sein d’un substrat unique et gouverné. Les agents interagissent via des outils à privilèges minimaux ; chaque appel est vérifié par une politique, et chaque action est signée et liée à la traçabilité. Ce modèle comble les lacunes en matière de confiance, de rapidité et d'accessibilité qui font obstacle à la scalabilité.

Conclusion

Les entreprises qui souhaitent déployer l'IA à grande échelle doivent résister à la tentation d'ajouter des fonctionnalités d'agent à une infrastructure héritée de l'ère des tableaux de bord. Il faut d'abord changer les fondements. Faites de la multimodalité la norme, afin que chaque signal utile soit regroupé dans un catalogue unique avec une identité, une chronologie et une traçabilité communes, et que la recherche renvoie des données probantes plutôt que des fragments. Adoptez le streaming comme mode de fonctionnement, afin que les décisions respectent le temps réel des événements et soient prises dans les limites d'un délai défini, tandis que ces mêmes flux sont enregistrés dans des tables ouvertes à des fins d'audit et d'apprentissage. Faites évoluer la gouvernance des diapositives vers l'exécution en appliquant des contrats lors de l'écriture, en évaluant les politiques à chaque action, en appliquant le Zero Trust aux outils et data, et en observant en continu afin que l'autonomie soit suspendue ou réduite lorsque la qualité baisse. Prises ensemble, ces mesures remplacent un substrat de reporting par un substrat d'action. Les agents opèrent alors sur des preuves multimodales fraîches à l'intérieur de garde-fous explicites, avec des explications intégrées, ce qui permet aux projets pilotes de passer en production et à l'IA de créer de la valeur plutôt que des exceptions.