Introduction
Aujourd'hui, le centre de gravité se déplace. À mesure que l'IA, en particulier les grands modèles de langage (LLM), pénètre les flux de travail, les performances dépendent moins des data dont nous disposons que de la manière dont les systèmes sont guidés pour les utiliser. L'actif critique est devenu le contexte: les messages-guides, les ensembles d'instructions, les playbooks, les mémoires d'agents, les guides d'utilisation des outils et les heuristiques du domaine qui orientent le raisonnement au moment de l'inférence. Le contexte est la nouvelle data base.
Un contexte non gouverné crée déjà un chaos contextuel, les invites prolifèrent, les équipes réécrivent les instructions de manière ad hoc, le savoir-faire s'effondre dans des résumés génériques et le comportement dérive. Des recherches récentes montrent qu'il existe un remède. Le cadre ACE (Agentic Context Engineering) de Stanford et UC Berkeley traite le contexte comme un manuel de jeu complet et évolutif, affiné par une boucle génération → réflexion → curation. Dans les benchmarks rapportés, ACE montre +10,6 points de pourcentage sur les tâches de l'agent et +8,6 points sur le raisonnement financier spécifique au domaine, avec une adaptation plus rapide et des gains obtenus même à partir d'un retour d'exécution naturel.
Les limites du MDM traditionnel à l'ère de l'IA
MDM résolu pour dataLe MDM a résolu le problème des données : il a centralisé et synchronisé les enregistrements d'entités, appliqué les schémas et la survie, rapproché les doublons et assuré la lignée et l'intendance. Les applications d'intelligence artificielle, en revanche, s'appuient sur le contexte. Le contexte est dynamique et opérationnel. Il change au fur et à mesure que les systèmes rencontrent de nouveaux scénarios, il est écrit à plusieurs mains (humains et modèles), et sa qualité est jugée en fonction de la performance et de la sécurité des tâches en aval, et non en fonction de la conformité aux schémas.
Trois modes d'échec sont devenus courants. Le biais de brièveté suppose que les invites courtes sont meilleures ; en pratique, les LLM sont souvent plus performants avec des contextes longs et détaillés et peuvent sélectionner la pertinence au moment de l'exécution. L'effondrement du contexte se produit lorsque la réécriture répétée comprime des connaissances riches en résumés insipides ; dans un cas ACE, un contexte est passé de 18 282 tokens avec une précision de 66,7 % à 122 tokens avec une précision de 57,1 % en une seule réécriture. La prolifération incontrôlée entraîne un comportement incohérent, une adaptation lente et un risque de non-conformité. Le MDM traditionnel n'est pas d'un grand secours dans ce domaine.
Gestion du contexte principal (MCM)
Qu'est-ce que la MCM ?
La gestion du contexte principal est un moyen discipliné de gérer, de modifier et d'améliorer en permanence les contextes qui déterminent le comportement de l'intelligence artificielle. Au lieu de traiter les invites comme des bribes jetables, la MCM les traite comme des manuels de jeu vivants qui accumulent des connaissances institutionnelles, des politiques, des tactiques, des cas limites et des recettes d'outils, et qui évoluent sans perdre leur mémoire.

Principes de conception
MCM repose sur quelques habitudes qui permettent de maintenir une qualité élevée et une faible dérive. Premièrement, privilégier les playbooks riches aux résumés compressés ; les modèles à contexte long et les optimisations d'inférence (telles que la réutilisation du cache KV) rendent cela pratique. Deuxièmement, séparez les rôles dans la boucle d'apprentissage : un générateur exécute les tâches et produit des trajectoires ; un réflecteur analyse ces traces pour en extraire des idées et diagnostiquer les modes d'échec ; et un conservateur transforme les idées en mises à jour étroites et contrôlées. Troisièmement, préférez l'édition delta aux grandes réécritures afin que les améliorations soient détaillées, testables et réversibles. Quatrièmement, tirer des enseignements des retours d'exécution, des succès/échecs, des sorties d'outils et des évaluations des utilisateurs, afin que les contextes s'améliorent sans data étiquetées. Enfin, pratiquez l'affinage à plusieurs époques en réexaminant les requêtes courantes, en renforçant les conseils tout en éliminant les redondances.
Une taxonomie pratique
Afin d'équilibrer la réutilisation et la spécificité, MCM organise le contexte en trois couches qui s'imbriquent naturellement. Le contexte de l'entreprise englobe les règles, la conformité, la posture de sécurité et les outils approuvés à l'échelle de l'organisation. Le contexte fonctionnel capture les connaissances opérationnelles d'un domaine d'activité, les procédures, les cas limites, les indicateurs clés de performance et les nuances régionales. Le contexte individuel adapte la configuration des tâches et le style préféré d'un utilisateur ou d'un flux de travail spécifique. Ensemble, ils permettent aux équipes de composer un cahier des charges unique et cohérent pour n'importe quelle demande, sans réinventer la roue.
Capacités de base
Dépôt et composition du contexte. Le MCM commence par un référentiel qui stocke à la fois des ressources hors ligne (messages-guides du système, modèles d'instruction, guides de politique, guides d'outils) et des ressources en ligne (mémoires d'agents, traces d'exécution, segments de conversation réutilisables). Chaque élément contient des métadonnées, le propriétaire, le domaine, la classe de risque et la lignée, et peut être assemblé à la demande dans le contexte dont une application a besoin.
Routage et assemblage. Une couche de routage légère décide du modèle à utiliser et de la manière d'assembler le contexte de l'entreprise, le contexte fonctionnel et le contexte individuel pour une demande donnée. Les compromis entre coût, qualité et temps de latence sont ainsi explicites et reproductibles, plutôt que cachés dans des modifications ponctuelles.
Versionnement et expérimentation. Tous les changements sont capturés sous forme de chaînes de deltas. Les équipes peuvent exécuter des variantes parallèles, attacher des mesures comparatives (précision, respect de la politique, latence, taux d'hallucination et impact sur l'entreprise), déployer progressivement les changements et revenir automatiquement en arrière en cas de régression. Les mises à jour structurées réduisent la latence d'adaptation et diminuent les risques.
Le flux d'apprentissage. Pendant la génération, les agents s'exécutent avec les orientations actuelles et enregistrent les plans, les appels d'outils, les entrées/sorties et les résultats. Lors de la réflexion, ces traces sont analysées et transformées en conseils concrets : "consulter les résultats de l'API avant de les agréger", "valider le schéma avant d'écrire", "la politique X prévaut sur la politique Y dans la région Z". Lors de la curation, les idées deviennent des entrées fusionnables avec des identifiants et des liens de preuve ; les doublons sont supprimés, le formatage et les garde-fous sont appliqués, et le manuel de jeu s'enrichit sans s'effondrer.
Gouvernance et risques. MCM affecte des responsables aux principaux domaines, définit des seuils d'approbation pour les mises à jour proposées, applique des classifications de sécurité (PII, réglementé, confidentiel) et maintient une auditabilité complète de qui a modifié quoi, quand et pourquoi. Les mêmes idées de gouvernance qui ont fonctionné pour la data, les normes et les voies d'escalade, s'appliquent parfaitement au contexte.
Observabilité et retour d'information. L'analyse de l'utilisation révèle où les contextes sont injectés et comment ils fonctionnent. L'analyse des messages identifie les passages qui contribuent le plus aux résultats. Les détecteurs de dérive surveillent les contractions de taille soudaines ou les pics dans les compteurs "nuisibles", signes précurseurs d'un effondrement. Le retour d'information de l'utilisateur devient une entrée de premier ordre dans la boucle d'amélioration.
Intégration et opérations. Enfin, le MCM s'intègre dans les opérations quotidiennes de l'IA : les modèles sont évalués et déployés dans le cadre de la discipline LLMOps ; les outils et les intégrations sont exposés en tant que capacités régies ; les API injectent des contextes composés dans les agents et les systèmes RAG ; les fonctions de mise en cache et d'économie de jetons permettent de maintenir les coûts à un niveau raisonnable.
Un bref exemple
Imaginez un copilote d'assistance qui calcule parfois mal les remboursements lorsque les niveaux de fidélité changent. La génération produit des traces de cas échoués ; la réflexion fait apparaître la règle suivante : "si le niveau a changé au cours des 30 derniers jours, refaire le prix à partir de la date d'entrée en vigueur avant de procéder au remboursement". La curation ajoute un petit delta, deux phrases et un exemple travaillé, étiqueté dans la section des remboursements avec un lien vers la trace de l'échec. Le déploiement suivant montre une amélioration mesurable de la résolution au premier contact sans réécriture générale et avec un retour en arrière facile si nécessaire. C'est la MCM en action : de petites modifications prouvables s'accumulent pour donner un comportement robuste.
Ce que MCM prévient
Avec ces pratiques en place, les organisations évitent les pièges les plus courants : la culture du "prompt du jour", les réécritures à grande échelle qui effacent les connaissances durement acquises, la prolifération du copier-coller au sein des équipes et l'incapacité d'expliquer quelle orientation a produit un résultat donné. La MCM rétablit la mémoire, la responsabilité et la reproductibilité du comportement de l'IA.
L'avenir : Des écosystèmes contextuels qui s'améliorent d'eux-mêmes
Avec MCM, les systèmes peuvent apprendre de l'exécution et proposer des mises à jour automatiquement à partir de signaux naturels tels que la réussite ou l'échec d'une tâche et les résultats d'un outil. L'ACE démontre que cet apprentissage sans étiquette peut générer des gains importants (par exemple, +17,1 points sur les tâches d'agent), ce qui laisse présager des systèmes résilients qui s'améliorent au fur et à mesure qu'ils fonctionnent. Dans les années 2010, ce sont les data qui comptaient le plus ; dans les années 2020-2030, ce sont les contextes, le savoir-faire codifié, qui différencieront les leaders. Il faut s'attendre à un renouveau de la gestion des connaissances, les guides opérationnels devenant des actifs vérifiables et validés par l'exécution, des liens plus étroits avec les graphes de connaissances pour une base factuelle, et une sécurité plus forte grâce à un comportement explicite et réversible. L'élargissement des fenêtres contextuelles et l'optimisation de l'inférence rendent les playbooks riches et économiques à l'échelle.
Conclusion
Le MCM ne remplace pas le MDM, il l'étend à une nouvelle classe d'actifs. Les idées de gouvernance qui ont nettoyé le chaos des data , l'intendance, les sources d'or, les taxonomies, le cycle de vie et les mesures de qualité, se Postuler maintenant aux contextes, les instructions et les heuristiques qui déterminent comment l'IA raisonne et agit. Le cadre ACE montre que traiter les contextes comme des playbooks évolutifs et les mettre à jour via la génération → réflexion → curation améliore la précision(+10,6 et +8,6 points), accélère l'adaptation et peut s'auto-améliorer à partir des seuls signaux d'exécution. Traitez le contexte comme des data référence, évitez l'effondrement avec une curation basée sur le delta, tirez parti de votre base de gouvernance et couplez la boucle d'apprentissage avec une forte observabilité. Les équipes qui maîtrisent le MCM bénéficieront d'une IA plus fiable, d'une itération plus rapide et d'un avantage durable ; celles qui gèrent le contexte avec désinvolture répéteront l'étalement antérieur au MCM, mais avec des risques et des coûts plus élevés.

BLOG






