前途科技
  • 科技
  • AI
    • AI 前沿技术
    • Agent生态
    • AI应用场景
    • AI 行业应用
  • 初创
  • 报告
  • 学习中心
    • 编程与工具
    • 数据科学与工程
我的兴趣
前途科技前途科技
Font ResizerAa
站内搜索
Have an existing account? Sign In
Follow US
Copyright © 2024 AccessPath.com, 前途国际科技咨询(北京)有限公司,版权所有。 | 京ICP备17045010号-1 | 京公网安备 11010502033860号
AI 前沿技术

Anthropic发布AI Agent上下文工程指南:重要性及与提示词工程的区别

NEXTECH
Last updated: 2025年10月4日 下午1:04
By NEXTECH
Share
53 Min Read
SHARE

Anthropic 发布 AI Agent 上下文工程指南

作者:Anthropic Applied AI 团队

Contents
Anthropic 发布 AI Agent 上下文工程指南Anthropic对上下文工程与提示词工程的区别理解为何上下文工程如此重要上下文检索和智能体搜索结论致谢

今年6月,Andrej Karpathy 带火了一个词——上下文工程。他支持用“上下文工程”(context engineering)取代“提示词工程”(prompt engineering)。而就在 Claude Sonnet 4.5 推出后的第二天,Anthropic 发布了一篇工程博客《AI 智能体的高效上下文设计》,呼应了 Karpathy 的观点:在每个工业级 LLM 应用中,真正关键的是“上下文工程”。

Andrej Karpathy 强调上下文工程重要性的推文

Anthropic 明确指出:构建 AI 应用的重心,已经从寻找合适的提示词,转向一个更根本的问题:怎样的上下文配置最有可能引导模型做出期望的行为?

以下将深入解读Anthropic的这篇博客。

Anthropic对上下文工程与提示词工程的区别理解

上下文指的是从大语言模型采样时包含的所有 token。而工程问题在于如何在 LLM 固有的约束条件下优化这些 token 的效用,以持续实现期望的结果。有效驾驭 LLM 通常需要具备“上下文思维”。

You Might Also Like

智谱AI GLM-4.6:355B参数AI巨兽,代码与推理性能全面升级,国产大模型新突破
AI搜索如何精准筛选文档:RAG管线中的关键检索优化策略
AI时代:人类不会取代Python,编程的本质永存
Dify知识库从Demo到生产:RAG构建企业级私有知识库的7个关键步骤

换句话说:全面考虑 LLM 在任一时刻所能访问的整体状态,并预判该状态可能引发的行为。

Anthropic 认为,上下文工程是提示词工程的自然演进。

提示词工程专注于为获得最佳结果而编写和组织 LLM 指令的方法。而上下文工程指的是在 LLM 推理过程中策划和维护最优 token 集合(信息)的一系列策略,包括提示词之外可能出现的所有其他信息。

上下文工程与提示词工程关键区别示意图

在 AI 工程的早期阶段,提示词设计曾是 AI 工程的核心工作,因为绝大多数非日常聊天场景的应用都需要针对单次分类或文本生成任务进行优化的提示词。

就像其名字所示,提示词工程主要关注如何编写高效的提示词,尤其是系统提示词。

然而,随着逐步构建能够在多轮推理和更长时间跨度内运作的更强大智能体,需要制定策略来全面管理上下文状态,包括系统指令、工具、模型上下文协议(MCP)、外部数据以及消息历史等。

在循环中运行的智能体会生成越来越多可能与下一轮推理相关的数据,这些信息需要持续地进行筛选和提炼。上下文工程正是一门从这一动态演变的信息海洋中,精准选取适合的信息放入有限的上下文窗口内容的艺术。

为何上下文工程如此重要

尽管 LLMs 速度快,并且已经能处理越来越多的数据,但研究发现,这些模型与人类类似,在达到一定程度后也会出现注意力不集中或混淆的情况。通过“大海捞针”式的基准测试研究,研究者提出了“上下文衰减”这一概念:随着上下文窗口中 token 数量的增加,模型准确提取其中信息的能力会逐渐下降。尽管部分模型的性能下降较为平缓,但这一特性在所有模型中都会出现。因此,上下文应该被视为一种边际收益会递减的有限资源。就像人类的工作记忆容量是有限的一样,LLM 在处理大量上下文时也存在一个“注意力预算”。每一个新增的 token 都会在一定程度上消耗这个预算,因此必须更加慎重地筛选提供给 LLM 的 token。这种注意力资源的稀缺性源于 LLMs 的架构限制。LLMs 采用的是 Transformer 架构,该架构使得每个 token 都能关注整个上下文中的每个其他 token,从而导致 n 个 token 之间产生 n² 个成对的关系。
随着上下文长度增加,模型捕捉这些成对关系的能力会被稀释,也就是说在上下文长度与注意力集中之间会形成一种天然的权衡。此外,模型的注意力模式源自于训练数据中的分布:短文本和中等长度的文本远比特别长的文本更常见。这意味着模型对于全局上下文依赖关系(记住很久之前的文本并在后面用上)的经验较少,相关的专用参数也不足。

像位置编码插值这样的技术,能让模型通过扩展最初训练时较短的上下文来处理更长的序列,但会对标记位置的理解造成一定程度的下降。

这些因素导致模型性能呈现渐进式下降而非突然断崖式下跌:虽然在处理长上下文时模型依然具备较强能力,但在信息检索和长距离推理方面的准确度会略低于处理短上下文时的表现。

正因为这些问题,精心设计的上下文工程对于构建强大的智能体而言,至关重要。

高效上下文的结构

因为 LLMs 的注意力资源有限,优秀的上下文工程应该去寻找最少数量但信息量最高的token 集,从而最大程度地促使期望结果的出现。说起来容易做起来难,但在接下来的章节中,本文将具体说明这一核心原则如何体现在上下文各个组成部分的实际应用中。系统提示词应该极其清晰,使用简单、直白的语言,将信息以适合智能体理解的层级呈现出来。所谓合适的层级,是指处于两种常见错误模式之间的“黄金区间”。在一种极端,工程师在提示中硬编码一些复杂而僵化的逻辑,试图精确控制智能体的行为。这种做法容易导致系统脆弱,并随着时间推移增加维护难度。另一种极端则是提供过于模糊、笼统的指导,没有能够为 LLM 提供明确的行为信号,或错误地假定双方已经有了相同的知识背景。理想的提示层级应在两者之间取得平衡:既要足够具体来有效地引导 LLM 的行为,又要保持足够的灵活性,为模型提供强大的启发式方法来指导行为。高效上下文提示词层级平衡图一端是采用硬编码 if-else 的提示,另一端则是过于笼统或错误的提示。
建议将提示词分成若干清晰的部分(如<background_information>、<instructions>、## Tool guidance、## Output description等),并采用 XML 标签或 Markdown 标题等方式进行区分。不过,随着模型能力不断增强,提示词的具体格式可能逐渐变得不那么重要。

无论如何构建系统提示,都应努力寻找完全概述预期行为的最小信息集。(注意,最小并不一定意味着短;仍然需要预先为智能体提供足够的信息,以确保它遵守期望的行为。)

最好从使用可用的最佳模型测试最小提示开始,观察其在任务上的表现,然后根据初始测试中发现的失败模式添加清晰的指令和示例来提高性能。

工具允许智能体与其环境交互并在工作时引入新的额外上下文。因为工具定义了智能体与其信息/动作空间之间的契约,所以工具促进效率非常重要,既要返回 token 高效的信息,又要鼓励高效的智能体行为。

在《为 AI 智能体编写工具——用 AI 智能体》中,讨论了构建 LLM 能够很好理解且功能重叠最小的工具。与设计良好的代码库的函数类似,工具应该是自包含的、对错误具有鲁棒性,并且在其预期用途方面极其清晰。输入参数同样应该具有描述性、明确性,并发挥模型的固有优势。

一种常见的失败模式是工具集过于庞杂,涵盖的功能太多,或者在选择使用哪个工具时难以决策。如果连人类工程师都不能明确说出在给定情况下应该使用哪个工具,就不能期望 AI 智能体能够做得更好。

正如稍后将讨论的,为智能体策划一个最小可行的工具集也可以导致在长时间交互中更可靠的维护和修剪上下文。

提供示例,也称为少样本提示,是继续强烈建议的众所周知的最佳实践。然而,团队通常会在提示中塞入一长串边缘案例,试图阐明 LLM 应该为特定任务遵循的每个可能规则。不建议这样做。相反,建议努力策划一组多样化的、规范的示例,有效地描绘智能体的预期行为。

对于 LLM 来说,示例就是“一图胜千言”里的“图”。
对于上下文的不同组成部分(系统提示、工具、示例、消息历史等),总体建议是:要深思熟虑,确保信息充分的同时保持简洁。现在深入探讨在运行时动态检索上下文。

上下文检索和智能体搜索

在《构建有效的 AI 智能体》一文中,强调了基于 LLM 的工作流程与智能体之间的区别。自从《构建有效的 AI 智能体》一文发表以来,业界倾向于一个简单的智能体定义:LLM 在循环中自主使用工具。

在与客户的合作过程中,行业正趋同于这个简单的范式。随着基础模型变得更强大,智能体的自主水平也能相应提升:更强大的模型能让智能体独立处理复杂多变的问题,并自主从错误中恢复。
如今,工程师思考为智能体设计上下文的方式发生了转变。

许多 AI 原生应用程序已开始采用基于嵌入的推理前检索技术,以便为智能体推理提供重要上下文。随着行业逐步转向更加强调自主性的智能体架构,越来越多的团队采用“即时”上下文策略来增强现有检索系统的能力。

与预先处理所有相关数据不同,使用“即时”方法构建的智能体会保留轻量级标识符(文件路径、存储的查询、网络链接等),并在运行时通过工具动态调用这些引用,将所需数据实时加载至上下文。Anthropic 的智能体编码解决方案 Claude Code 正是采用这种方法,从而能够在大型数据库上进行复杂的数据分析。

模型可以编写有针对性的查询、存储结果,并利用像 head 和 tail 这样的 Bash 命令来分析大量数据,而无需将完整的数据对象加载到上下文中。这种做法模拟了人类的认知模式:通常不会死记硬背所有信息,而是借助文件系统、收件箱、书签等外部组织和索引系统,在需要时按需获取相关内容。

除了存储效率之外,这些引用的元数据还能有效引导行为的优化,无论是显式提供的信息还是基于直觉的判断。对一个在文件系统中运行的智能体来说,tests文件夹中名为test_utils.py的文件的存在意味着与位于src/core_logic.py中的同名文件不同的用途。文件夹层次结构、命名约定和时间戳都提供了重要的信号,帮助人类和智能体理解如何以及何时利用信息。

让智能体自主导航和检索数据也实现了渐进式披露——换句话说,允许智能体通过探索逐步发现相关上下文。每次交互都会产生为下一个决策提供信息的上下文:文件大小暗示复杂性;命名约定暗示目的;时间戳则可作为判断信息相关性的重要依据。

智能体可以逐层积累理解,只在工作记忆中保留必要的内容,并借助笔记等方式进行长期记录。这种自我管理的上下文机制,使智能体能聚焦于关键的信息片段,避免陷入大量冗余或无关的信息之中。

当然,这里有一个权衡:运行时探索比检索预计算数据慢。

不仅如此,还需精心的工程设计并融入明确的工程判断,来确保 LLM 具有正确的工具和启发式方法,从而高效地在它的信息环境中导航。如果没有适当的指导,智能体可能会误用工具、追逐死胡同或未能识别关键信息,导致浪费上下文。

在某些场景中,最有效的智能体可能会采用一种混合策略,预先检索一些数据以提升响应速度,同时根据需要自主地选择进行进一步探索。其自主程度的“最佳平衡点”取决于具体任务。Claude Code 正是采用了这种混合模式:CLAUDE.md 文件会被直接预先载入上下文,而像 glob 和 grep 等基础命令,它还能在环境中自主导航,按需即时获取文件,从而有效规避了索引过时和复杂语法结构带来的问题。
混合策略可能更适合动态内容较少的上下文,例如法律或金融工作。随着模型能力的提高,智能体的设计趋势将是让模型更自主地发挥智能,逐渐减少人类策划。鉴于该领域的发展迅速,“做最简单有效的事情”可能仍然是为在 Claude 之上构建智能体的团队提供的最佳建议。

针对长期任务的上下文工程

对于需要长时间连续操作的任务,例如大型代码库迁移或综合性的研究项目,智能体必须在动作序列中保持连贯性、上下文关联性和目标导向性,而这些序列的 token 数量往往会超出 LLM 的上下文窗口限制。因此,智能体需要专门的技术来绕过上下文窗口大小限制。

等待更大的上下文窗口似乎是个简单直接的策略。

但在可预见的未来,所有大小的上下文窗口都可能受到上下文污染和信息相关性问题的影响——至少在需要最强智能体性能的情况下。为了使智能体能在更长时间跨度上有效工作,Anthropic开发了一些直接解决这些上下文污染问题的技术:压缩、结构化笔记和多智能体架构。

压缩

压缩是将接近上下文窗口限制的对话进行总结,并用摘要重新启动新的上下文窗口的做法。压缩通常是上下文工程中最先使用的手段,来推动更好的长期连贯性。从本质上讲,压缩以高保真方式提炼上下文窗口的内容,使智能体能够在性能几乎不受影响的情况下持续运行。

例如,在 Claude Code 中,通过将消息历史传递给模型进行总结和压缩最关键的细节来实现这一点。模型保留架构决策、未解决的错误和实现细节,同时丢弃冗余的工具输出或消息。然后智能体可以继续使用这个压缩的上下文加上五个最近访问的文件。用户获得连续性,而无需担心上下文窗口限制。

压缩的艺术在于选择保留什么与丢弃什么,因为过于激进的压缩可能导致微妙但关键的上下文丢失,其重要性只有在以后才变得明显。对于实现压缩系统的工程师,建议在复杂的智能体轨迹上仔细调整提示。首先最大化召回率以确保压缩提示从轨迹中捕获每一条相关信息,然后通过消除多余内容来迭代提高精度。

一种容易处理冗余内容的方式是清理工具调用及其结果:一旦工具在消息历史深处被调用,为什么智能体需要再次看到原始结果?清除工具结果是一种既安全又轻量的压缩方式,该功能最近已作为 Claude 开发者平台的新特性正式上线。

结构化笔记

结构化笔记,也称为智能体记忆,是指智能体定期将信息以笔记形式记录下来,并持久地存储在上下文窗口之外的内存中,以便后续重新载入上下文窗口使用。

这种策略以最小的开销提供持久记忆。就像 Claude Code 创建待办事项列表,或自定义智能体维护 NOTES.md 文件一样,这种简单的模式允许智能体跨越复杂任务跟踪进度,维护关键上下文和依赖关系,否则这些将在数十个工具调用中丢失。

Claude 玩宝可梦展示了记忆如何在非编程领域显著提升智能体的能力。

该智能体能够在数千个游戏步骤中精准地进行记录和追踪,例如:“过去 1,234 步里,我一直让宝可梦在 1 号道路训练,皮卡丘已经升了 8 级,距离目标还差 2 级。” 即使没有接受任何关于记忆结构的提示,它仍能自动生成已探索区域的地图,清楚记得解锁了哪些重要成就,并持续记录战斗策略,从而不断学习面对不同对手时最有效的攻击方式。在上下文重置后,智能体通过读取自身记录的笔记,能够继续执行长达数小时的训练流程或地牢探索任务。这种在多次摘要之间保持的连贯性,使得原本仅靠 LLM 上下文窗口无法实现的长期规划策略成为可能。
作为 Sonnet 4.5 发布的一部分,Anthropic 在 Claude 开发者平台上以公开测试版发布了一个记忆工具。该工具采用基于文件的系统,可更便捷地在上下文窗口之外存储和调用信息。这使得智能体能够逐步构建知识库,跨会话保持项目状态,并能随时参考过往工作内容,而无需将所有信息都保留在当前上下文中。

子智能体架构

子智能体架构提供了另一种绕过上下文限制的方法。与其依赖单一智能体在整个项目过程中维持状态,不如采用专业化的子智能体来负责具体任务,并各自拥有独立清晰的上下文空间。主智能体负责统筹协调,制定高层计划,而子智能体则专注于执行深入的技术任务,或调用工具获取相关信息。每个子智能体可以在本地进行大量探索,使用数万个 token 或更多,但最终仅向主智能体返回精炼后的成果摘要(通常为 1,000-2,000 个 token)。

这种方法实现了清晰的关注点分离——详细的搜索上下文在子智能体中保持隔离,而主智能体专注于综合和分析结果。正如《如何构建多智能体研究系统》一文中所述,这一模式在应对复杂研究任务时,相比单智能体系统表现出显著的提升。

选择哪种方法取决于任务的特点。例如:

  • 压缩技术有助于在需要频繁交互的任务中保持对话的连贯性;
  • 笔记在具有明确里程碑的迭代开发中表现出色;
  • 多智能体架构适用于那些通过并行探索能显著提升效率的复杂研究与分析场景。

即使现在模型的性能在持续提升,但在较长的交互过程中保持一致性仍将是构建更有效智能体的关键挑战。

结论

上下文工程代表了使用 LLM 构建的根本转变。随着模型变得更强大,挑战不仅仅是制作完美的提示——而是深思熟虑地策划在每一步进入模型有限注意力预算的信息。无论是为长时间跨度任务实现压缩,设计 token 高效的工具,还是使智能体能够即时探索其环境,指导原则始终不变:找到最小的高信号 token 集,最大化期望结果的可能性。

随着模型不断进步,所提出的技术也将持续发展。已观察到,更智能的模型不再需要过于细致的规定性工程,而是允许智能体以更多的自主权运行。但即使能力不断增强,将上下文视为一种宝贵而有限的资源仍将是构建可靠、高效智能体的核心。

致谢

本文由 Anthropic 应用 AI 团队的 Prithvi Rajasekaran、Ethan Dixon、Carly Ryan 和 Jeremy Hadfield 撰写,Rafi Ayub、Hannah Moran、Cal Rueb 以及 Connor Jennings 等团队成员也有贡献。特别感谢 Molly Vorwerck、Stuart Ritchie 和 Maggie Vo 的支持。

TAGGED:AI AgentAI前沿上下文大模型提示词
Share This Article
Email Copy Link Print
Previous Article Ming-UniVision模型案例 蚂蚁金服Ming-UniVision模型:告别繁琐,一体化实现图像理解、生成与编辑
Next Article 302ai平台首页截图 OpenAI Sora2重塑短视频创作:告别相机,详解平台功能与国内使用指南
Leave a Comment

发表回复 取消回复

您的邮箱地址不会被公开。 必填项已用 * 标注

最新内容
20251205180959635.jpg
AMD为对华出口AI芯片支付15%税费,引发美国宪法争议
科技
20251205174331374.jpg
家的定义与核心价值:探索现代居住空间的意义
科技
20251202135921634.jpg
英伟达20亿美元投资新思科技,AI芯片设计革命加速
科技
20251202130505639.jpg
乌克兰国家AI模型选定谷歌Gemma,打造主权人工智能
科技

相关内容

李继刚在43 Talks分享现场
AI 前沿技术

李继刚解密AI时代:AI本质、提示词心法与未来人才进化论 | 43 Talks

2025年10月16日
AI心理辅导智能体TheraMind示意图
AI 前沿技术

AI心理咨询师TheraMind:大模型驱动的长期心理辅导新范式与知识增强应用

2025年11月2日
Nano Banana提示词框架示例图
AI 前沿技术

掌握Google Nano Banana:高效图像生成提示词框架及实战指南

2025年11月17日
RAG Chunking 核心概念:块大小与重叠窗口示意图
AI 前沿技术

RAG分块策略实战:从原理到优化,提升大模型问答效果

2025年10月30日
Show More
前途科技

前途科技是一个致力于提供全球最新科技资讯的专业网站。我们以实时更新的方式,为用户呈现来自世界各地的科技新闻和深度分析,涵盖从技术创新到企业发展等多方面内容。专注于为用户提供高质量的科技创业新闻和行业动态。

分类

  • AI
  • 初创
  • 学习中心

快速链接

  • 阅读历史
  • 我的关注
  • 我的收藏

Copyright © 2025 AccessPath.com, 前途国际科技咨询(北京)有限公司,版权所有。 | 京ICP备17045010号-1 | 京公网安备 11010502033860号

前途科技
Username or Email Address
Password

Lost your password?

Not a member? Sign Up