引言
如今,重心正在发生转移。随着人工智能(尤其是大型语言模型,简称LLM)深入渗透到工作流程中,系统的性能不再主要取决于我们拥有哪些数据,而是更多地取决于如何引导系统使用这些数据。关键资产已转变为上下文:包括提示词、指令集、操作手册、智能体记忆、工具使用指南以及在推理阶段引导推理过程的领域启发式规则。上下文已成为新的主数据。
缺乏规范的上下文环境已然引发了上下文混乱:提示信息 泛滥,团队临时重写操作指南,专业知识被简化为泛泛的总结,行为准则也随之偏离。 最新研究指出了应对之策。由 斯坦福大学和加州大学伯克利分校提出的ACE(代理情境工程)框架, 将情境视为一套通过“生成→反思→整理”循环不断优化的综合性、动态演进的行动指南。在已公布的基准测试中,ACE在代理任务上提升了10.6个百分点,在特定领域的金融推理任务上提升了8.6个百分点, 且适应速度更快,甚至仅通过自然执行反馈就能获得提升。
人工智能时代传统MDM的局限性
MDM 针对数据问题提供了解决方案:它实现了实体记录的集中化和同步化,强制执行数据模式和生存规则,处理了重复数据,并提供了数据血统和数据治理。然而,AI 应用则依赖于上下文。上下文是动态且具有操作性的。它会随着系统遇到新场景而变化,由多方(人类和模型)共同构建,其质量由下游任务的性能和安全性来评判,而非依据数据模式的符合度。
目前有三种常见的失败模式。简短偏见认为简短的提示词效果更好;实际上,大型语言模型(LLMs)在面对长而详细的上下文时往往表现更佳,并且能够在运行时筛选出相关信息。 当反复重写将丰富的知识压缩成平淡的摘要时,就会发生上下文坍缩;在ACE的一个案例中,上下文在一次重写后从18,282个令牌(准确率66.7%)缩减至122个令牌(准确率57.1%)。而失控的冗余则会导致行为不一致、适应缓慢以及合规风险暴露。传统的MDM在此方面几乎无济于事。
掌握上下文管理(MCM)
什么是MCM
“上下文管理(MCM)”是一种规范化的方法,用于管理、版本控制并持续优化驱动人工智能行为的上下文。与将提示词视为一次性片段不同,MCM将其视为“活的指南”,这些指南会积累机构知识、政策、策略、边界情况和工具配方,并在不丢失记忆的情况下不断演进。

设计原则
MCM 基于几种能够保持高质量并减少偏差的习惯。首先,优先采用内容丰富的操作指南而非简短摘要;长上下文模型和推理优化(如 KV 缓存复用)使得这种做法切实可行。 其次,在学习循环中划分角色:生成器(Generator)执行任务并生成轨迹;分析器(Reflector)分析这些轨迹以提取洞见并诊断故障模式;策展人(Curator)将洞见转化为精准可控的更新。第三,优先采用增量编辑而非大规模重写,确保改进具有条目化、可测试且可逆的特性。 第四,从执行反馈、成败结果 、工具输出及用户评分中学习, 从而在无需标注数据的情况下提升上下文理解能力。最后,通过反复处理常见查询来实践多 epoch 精炼,在强化引导的同时剔除冗余。
实用分类法
为了在复用性和特定性之间取得平衡,MCM 将上下文划分为三个自然互锁的层级。企业级上下文包含全组织范围的规则、合规要求、安全态势以及经批准的工具。功能级上下文涵盖业务领域的运营知识、流程、边界情况、关键绩效指标(KPI)以及区域性差异。个人级上下文则针对特定用户或工作流,定制任务配置和偏好风格。通过这三者的结合,团队能够针对任何请求编写一份统一且连贯的操作指南,而无需重复造轮子。
核心能力
上下文存储库与组合。MCM 基于一个存储库,该存储库同时存储离线资产(系统提示、指令模板、策略手册、工具指南)和在线资产(代理记忆、执行轨迹、可复用的对话片段)。每个项目都包含元数据、所有者、领域、风险等级和溯源信息,并可根据需求组合成应用程序所需的上下文。
路由与组装。一个轻量级的路由层负责决定使用哪个模型,以及如何针对特定请求整合企业、功能和个人层面的上下文。这使得成本、质量和延迟之间的权衡变得明确且可重复,而非隐藏在临时性的提示词修改中。
版本控制与实验。所有变更均以增量链的形式记录。团队可以并行运行不同变体,附加对比指标(准确率、策略遵循度、延迟、幻觉率及业务影响),逐步推出变更,并在出现回归时自动回滚。结构化的更新可缩短适应时间并降低风险。
学习工作流。在生成阶段,代理程序根据当前指导方针运行,并记录计划、工具调用、输入/输出以及结果。 在反思阶段,这些日志会被分析为具体的指导原则,例如“聚合前需遍历 API 结果”、“写入前需验证模式”、“在 Z 区域中,策略 X 覆盖策略 Y”。在整理阶段,这些洞见将转化为带有 ID 和证据链接的可合并条目;系统会移除重复项,强制执行格式规范和安全防护措施,从而确保操作手册在不断扩充的同时保持结构完整。
治理与风险。MCM 为主要领域指派管理员,为拟议的更新设定审批门槛,执行安全分类(个人身份信息、受监管信息、机密信息),并确保对“谁、何时、为何”进行了哪些更改的完整可审计性。那些在数据管理中行之有效的治理理念——所有权、标准和升级路径——同样能完美地应用于上下文场景。
可观测性和反馈。使用分析揭示了上下文的注入位置及其运行状况。提示词分析可识别出对结果贡献最大的段落。漂移检测器会监控“有害”计数器的突然缩减或激增——这些是系统崩溃的早期征兆。用户反馈成为改进循环中的首要输入。
集成与运维。最后,MCM 融入了日常的 AI 运维工作:模型在 LLMOps 规范下进行评估和部署;工具和集成以受管控的能力形式对外提供;API 将组合上下文注入到代理和 RAG 系统中;缓存和代币经济机制则确保成本可控。
一个简短的示例
设想一位支持副驾驶,当忠诚度等级发生变化时,它有时会错误计算退款金额。系统生成失败案例的执行轨迹;通过代码反射发现了一条规则:“如果等级在过去 30 天内发生变化,应在退款前根据生效日期重新计算价格。” 通过内容优化,我们添加了一小段补充说明、两句话以及一个示例,将其标记在退款章节中,并附上指向失败日志的链接。在随后的部署中,首次联系解决率显著提升,且无需大规模重写代码,如有需要也可轻松回滚。这就是MCM的实际应用:微小的、可验证的修改不断积累,最终形成稳健的行为。
MCM能预防什么
通过实施这些做法,组织能够避免常见的陷阱:例如“每日提示”文化、会抹去来之不易的知识的大规模重写、跨团队的复制粘贴式代码蔓延,以及无法解释是哪条指导原则产生了特定结果等问题。MCM 为 AI 行为恢复了记忆、责任归属和可重复性。
未来:自我优化的上下文生态系统
借助 MCM,系统能够从执行过程中学习,并根据任务成败和工具结果等自然信号自动提出更新建议。 ACE 证明了这种无标签学习能够带来显著提升(例如,在代理任务上提升了 17.1 分),这预示着系统将在运行过程中不断改进,从而变得更加韧性。在 2010 年代,数据护城河最为重要;而在 2020 年代至 2030 年代,情境护城河——即系统化的 专业知识—— 将成为区分领军者的关键。 随着操作手册成为可审计、经执行验证的资产,知识管理将迎来复兴;系统将与知识图谱建立更紧密的联系以获取事实依据;通过明确且可逆的行为,安全性将得到增强。上下文窗口的扩展和推理优化,使得在规模化应用中构建丰富的操作手册变得经济可行。
结论
MCM 并非取代 MDM,而是将其扩展至新的资产类别。那些曾用于清理数据混乱、管理数据托管、建立黄金数据源、制定分类法、管理生命周期以及制定质量指标的治理理念,如今也适用于“语境”——即决定 AI 如何推理和行动的指令与启发式规则。 ACE 框架表明,将上下文视为不断演进的“操作手册”,并通过“生成 → 反思 → 整理”的流程进行更新,不仅能提高准确率(分别提升 10.6 和 8.6 个百分点),还能加速适应能力,并仅凭执行信号即可实现自我优化。 将上下文视为主数据,通过基于增量(delta)的整理防止系统崩溃,充分利用现有的治理基础,并将学习循环与强大的可观测性相结合。掌握 MCM 的团队将获得更可靠的 AI、更快的迭代速度和持久的竞争优势;而那些对上下文管理不严的团队,则会重蹈 MDM 实施前的混乱局面,且面临更高的风险和成本。

博客






