login
Context Engineer技术解析与实施指南
2025/07/29·StepFun can make mistakes, check important info.
深度分析下context engineer是什么?涉及哪些技术点,如果我想建设context engineer,可以怎么开始
Sources

我将帮您深入分析Context Engineering的概念、技术点和实施方法。为了更好地满足您的需求,我想先了解几个关键点:

  1. 您是否已经有特定的应用场景或项目,希望在其中实施Context Engineering?(例如:开发AI助手、构建RAG系统、优化智能体等)

  2. 您目前对Context Engineering的理解程度如何?是刚接触这个概念,还是已经有一定的实践经验?

  3. 您在技术资源方面的情况如何?比如是否有现成的LLM API访问、向量数据库、开发团队等资源?

开发部门的一个智能体平台,目前刚刚听到这个概念,有现成的llm api访问,以及向量数据库,开发团队也有

好的,收到您的任务。

针对您“深度分析Context Engineer,了解其技术点并探索如何着手建设”的需求,我为您制定了一份分四步走的研究计划。该计划旨在系统性地构建一份全面、逻辑清晰且包含图文的深度研究报告。

Research plan

研究报告构建计划:深度解析与实践Context Engineering

第一阶段:概念与价值澄清(What & Why)

此阶段旨在建立对“上下文工程”(Context Engineering)的 foundational understanding,明确其核心定义、解决了什么问题,以及为何它正在成为构建高级AI应用(尤其是智能体)的关键。

  • 研究内容:
    1. 定义与演进: 探究“上下文工程”的准确定义,并追溯其从“提示工程”(Prompt Engineering)演进而来的背景和原因。
    2. 核心价值: 分析上下文工程对于提升AI智能体性能、可靠性和处理复杂任务能力的重要性。
    3. 关键类比: 深入理解业界(如Andrej Karpathy)提出的“LLM是新操作系统,上下文是RAM”的类比,以把握其本质。
  • 关键信息源:
    • 行业领袖观点: 查阅顶尖AI研究者(如Andrej Karpathy)的博客、演讲实录,以及头部AI公司(如Anthropic, Google AI)的官方博客和技术文章。
    • 权威技术媒体: 检索InfoQ、稀土掘金、知乎专栏等平台上关于“上下文工程”的高质量深度分析文章。

第二阶段:技术栈与核心组件解构(How it Works)

此阶段将深入技术层面,全面拆解构成上下文工程的各项技术组件和策略,并以图表形式清晰呈现其架构。

  • 研究内容:
    1. 上下文构成要素: 系统性梳理并分类构成LLM输入的完整上下文元素(如:系统指令、用户输入、短期/长期记忆、RAG检索结果、工具定义与响应等)。
    2. 核心技术剖析: 重点研究支撑上下文工程的关键技术,特别是检索增强生成(RAG)、向量数据库的应用、记忆机制(长短期记忆)的实现方式。
    3. 上下文管理策略: 调研并归纳业界主流的三大上下文管理策略:筛选(Curating)、持久化(Persisting)和隔离(Isolating),理解其应用场景和方法。
    4. 架构可视化: 基于以上研究,绘制一幅上下文工程的技术架构图,清晰展示各组件如何协同工作,为LLM提供上下文。
  • 关键信息源:
    • 学术与预印本平台: 在arXiv等网站上搜索与“AI Agent Architecture”, “Retrieval Augmented Generation”, “LLM Memory”相关的最新研究论文。
    • 开源框架文档: 查阅主流AI应用开发框架(如LlamaIndex, LangGraph)的官方文档,了解其在上下文管理和智能体构建方面的设计理念与实现。

第三阶段:实践路径与案例分析(How to Start)

此阶段聚焦于“如何开始”,将理论与实践相结合,为您的团队提供一个从零到一的、可落地的实施路线图,并参考行业标杆案例。

  • 研究内容:
    1. 分步实施路线图: 结合您团队已有的LLM API和向量数据库资源,设计一个从简到繁的四步走实施路径:
      • 步骤一: 基础RAG集成(连接知识库)。
      • 步骤二: 引入记忆机制(实现对话连续性)。
      • 步骤三: 集成工具调用(赋予AI行动能力)。
      • 步骤四: 实施高级上下文管理(优化长对话与复杂任务)。
    2. 行业案例研究: 深入分析市场上已有的、自称为“Context Engineer”的AI产品(如TRAE SOLO模式),研究其产品形态、实现的功能闭环以及为开发者带来的价值。
  • 关键信息源:
    • 产品官方发布: 查找相关AI产品的官方公告、白皮书或开发者博客,获取第一手的产品设计和理念信息。
    • 第三方评测与新闻: 在主流科技媒体(如量子位、GeekPark)上查找对这些产品的深度评测和分析报道。

第四阶段:整合与报告生成

最后,将前三阶段的研究成果进行系统性地整合、提炼和总结,形成最终的深度研究报告。

  • 交付成果:
    1. 执行摘要: 凝练报告核心观点,供快速概览。
    2. 正文详述: 包含对上下文工程的完整定义、技术组件的详细剖析、技术架构图,以及为您的智能体平台量身定制的实施路线图。
    3. 结论与展望: 总结上下文工程的战略意义,并对未来发展趋势做出预判。
开始研究

Deep Research

让我开始搜索相关信息。

搜索

Search

Context Engineering LLM 定义 Andrej Karpathy
知乎
知乎
但在每个工业级LLM 应用中,上下文工程(Context Engineering)是一门精妙的艺术与科学——它需要精准地为上下文窗口填充恰到好处的信息。 说它是科学,因为这项 ...
知乎
知乎
前段时间OpenAI 的前研究员Andrej Karpathy 提出一个新的名词:Context Engineering。他将LLM 比作计算机的处理器(CPU),而其上下文窗口则相当于 ...
blog.langchain.com
blog.langchain.com
As Andrej Karpathy puts it, LLMs are like a new kind of operating system. The LLM is like the CPU and its context window is like the RAM, ...
腾讯云
腾讯云
Andrej Karpathy力推“上下文工程”,强调其为AI应用效果关键,非仅提示词。涵盖指令、用户提示等多方面,有写入、筛选等四种落地策略,优于提示词工程, ...
个人图书馆
个人图书馆
随着 LLM 上下文窗口的显著扩大,Context Engineering 的重要性也随之凸显。对于需要 长时间运行任务 的 AI 代理,以及处理大量工具调用反馈的情况,Context Engineering 至关重要。它可以避免诸如超出上下文窗口限制、增加成本/延迟或降低代理性能等问题。许多 AI 代理的失败并非模型本身的失败,而是 上下文的失败(context failures)。它被 Cognition 公司称为“构建 AI 代理...
腾讯
腾讯
核心概念:上下文工程定义 核心问题:如何形式化描述LLM与上下文的交互?论文突破性地将上下文(C)定义为 动态结构化信息组件的集合,而非静态字符串。其数学形式化包含两个关键层次: 组件层: 其中 代表不同信息源(如指令、外部知识、记忆),是组装函数(如优先级排序、模板格式化)。这解决了传统提示工程无法灵活整合多源信息的缺陷。优化层: 上下文生成函数集(检索/选择/组装):具体任务实例:输出质量评估函数 意义:将上下文设计转化为系统级优化问题,目标是最大化...
腾讯
腾讯
此外,近期我还会发布一篇系统性介绍Context Engineering的深度文章,敬请关注。之前关于认知提示的文章您也可以看下《最新认知Prompt,模拟人类认知操作COP来增强LLM问题解决能力|ICLR2025》,公众号里还有很多关于“认知”方面的文章,您有兴趣也可以看下。模块化设计的威力:为什么比单体提示更有效 传统的认知提示方法虽然也强调结构化,但它本质上还是一个大而全的单体提示。IBM的认知工具则完全不同,它们是真正的模块化设计。每个工具都有自己的"专业领域"...
今日头条
今日头条
LLM Context Engineering 综述 论文:A Survey of Context Engineering for Large Language Models 简单介绍: 本文综述了大型语言模型(LLM)的上下文工程,提出一个分类框架,涵盖基础组件(上下文检索与生成、上下文处理、上下文管理)和系统实现(检索增强生成、记忆系统、工具集成推理、多智能体系统)。文章分析了1400多篇论文,指出LLM在理解复杂上下文方面表现出色...
https://s2.zimgs.cn/ims?kt=url&at=smstruct&key=aHR0cHM6Ly9ndy5hbGljZG4uY29tL0wxLzcyMy8xNTg0NDEyNDQ0LzgzLzdkLzI2LzgzN2QyNjBiZGI3ODg0NzQxYWNhMWMzZGQ5NWQwMTc2Lmljbw==&sign=yx:FgUrPkD016Rc89-ZBz7SYezxGYQ=&tv=400_400
https://s2.zimgs.cn/ims?kt=url&at=smstruct&key=aHR0cHM6Ly9ndy5hbGljZG4uY29tL0wxLzcyMy8xNTY1ODU0NjUwLzUyLzdjL2ExLzUyN2NhMWY0NDI3MTlhNTA1NmU5MGUyMTRiNGY3NzM3LnBuZw==&sign=yx:r6a0p-OmCSHUyP8y9zZ5Zb-UJjE=&tv=400_400
https://static-favicon.basemind.com/01JV4C8WXWFGHEXJ6SH1R5G2SP
View all 16 sources

我将继续搜索更多关于Context Engineering的信息,特别是关于技术点和实施方法。

搜索

Search

Context Engineering 技术点 实现方法 RAG 记忆机制 工具调用
文件
文件
[PDF] (19)国家知识产权局
文件
文件
[PDF] Evaluating the Efectiveness of Document Splitters for Large Language Models in Legal Contexts
稀土掘金
稀土掘金
Reflexion 论文(arxiv.org/abs/2303.11…ChatGPT、Cursor、Windsurf 等产品采纳,实现自动生成记忆。记忆也可在特定节点根据用户反馈更新。例如,人工审核工具调用结果并结合记忆更新,可以让智能体持续学习。检索上下文 最简单的方式是把所有记忆加载进智能体的上下文窗口。例如,Claude Code 每次会读取所有 ‎ CLAUDE.md 文件到上下文。但...
腾讯
腾讯
思维树(ToT):分层探索备选推理路径,24点游戏成功率从4%升至74%。思维图(GoT):以图结构建模推理依赖,较ToT质量提升62%,成本降31%。外部知识检索: RAG基础架构:融合参数化知识(模型权重)与非参数化知识(外部检索)。知识图谱集成:如KAPING框架通过语义匹配检索相关事实,无需模型重训练。智能体驱动检索:LLM智能体动态分析内容、交叉引用信息(如Agentic RAG)。动态上下文组装: 自动化优化:如Automatic Promp...
腾讯
腾讯
思维树(ToT):分层探索备选推理路径,24点游戏成功率从4%升至74%。思维图(GoT):以图结构建模推理依赖,较ToT质量提升62%,成本降31%。外部知识检索: RAG基础架构:融合参数化知识(模型权重)与非参数化知识(外部检索)。知识图谱集成:如KAPING框架通过语义匹配检索相关事实,无需模型重训练。智能体驱动检索:LLM智能体动态分析内容、交叉引用信息(如Agentic RAG)。动态上下文组装: 自动化优化:如Automatic Promp...
个人图书馆
个人图书馆
以下是上下文工程必须要了解的知识点,欢迎查看: Prompt 工程的局限 Prompt Engineering 是一门设计和优化提示(prompts)的技术,旨在有效利用大型语言模型(LLMs)来执行各种应用和研究任务。它主要关注如何更好地 编辑提示 以提高模型输出的质量。然而,随着 LLM 上下文窗口的显著扩大(在过去两年中从 4K 增加到超过 1M tokens),Prompt Engineering 的局限性也日益凸显。其主要局限...
腾讯云
腾讯云
承接上篇对Context Engineering的探讨,本文将聚焦 多智能体框架 中的上下文管理实践。我们将深入剖析两个代表性框架:字节跳动开源的基于预定义角色与Supervisor-Worker模式的 Deer-Flow,以及在其基础上引入 动态智能体构建能力 的清华 CoorAgent*。通过对它们设计思路和实现细节的拆解,提炼出多智能体协作中高效管理上下文的关键策略。Context Engineering Tip...
今日头条
今日头条
而在工业级的 LLM 应用场景中,“上下文工程”指的是一种精妙而复杂的技术:你要精准地将上下文窗口填充上恰到好处的信息,让模型能准确地迈出下一步。这是一门科学,也是门艺术。说它是科学,因为你要把任务描述、说明、少量样例(few-shot examples)、检索增强生成(RAG)、各种相关数据(甚至可能是多模态数据)、工具、状态、历史信息等全部巧妙地组合在一起,同时还要考虑如何压缩信息。这就像烹饪一道精致的菜肴,配料太少或搭配不对,模型无法获得足够的信息,性能会变差;配料...
https://static-favicon.basemind.com/01JV4C8WXWFGHEXJ6SH1R5G2SP
https://static-favicon.basemind.com/01JV4C8WXWFGHEXJ6SH1R5G2SP
https://static-favicon.basemind.com/01J7HH8TYPAWKCJTC5STHQZF96
View all 18 sources

我将继续搜索更多关于Context Engineering的实现方法和技术点。

搜索

Search

Context Engineering 实现方法 上下文管理策略 筛选 持久化 隔离
稀土掘金
稀土掘金
通过对它们设计思路和实现细节的拆解,提炼出多智能体协作中高效管理上下文的关键策略。Context Engineering Tips 从开源框架和我们日常的开发实践中,优化多智能体上下文管理有以下一些思路。(注:只是一种Practice,并不是Best Practice,毕竟见山不是山嘛哈哈哈哈) 降低上下文长度与复杂度(Reduce Length&Complexity;) 上文丢弃(Discard
cnblogs.com
cnblogs.com
承接上篇对Context Engineering的探讨,本文将聚焦多智能体框架中的上下文管理实践。我们将深入剖析两个代表性框架:字节跳动开源的基于预定义角色 ...
稀土掘金
稀土掘金
一、什么是上下文工程(Context Engineering) LLM(大型语言模型)就像一种新型操作系统。LLM 相当于 CPU,而其“上下文窗口”则类似于 RAM,代表了模型的“工作内存”。上下文可以通过多种方式进入 LLM,包括: 提示(如用户指令)检索(如外部文档)工具调用(如 API) 然而,和 RAM 一样,LLM 的上下文窗口有带宽和容量限制,无法无限制加载信息。因此,如何像操作系统
xie.infoq.cn
xie.infoq.cn
但随着 AI 应用向复杂化、长期化、自主化发展,一个新的概念—Context Engineering(上下文工程)正迅速成为焦点。概念起源:硅谷领袖的集体觉醒 2025 年 6 月,Shopify CEO Tobias Lütke 在推特上首次提出:“我更喜欢用‘上下文工程’代替‘提示工程’,它更贴切地描述了核心技能—为任务提供完整背景信息,让大模型合理解决问题的艺术。这一观点迅速获得 AI 界技术领袖的共鸣。前 OpenAI 研究员、特斯拉 AI 负责...
腾讯云
腾讯云
从开发者的角度来看,Context Engineering是一个迭代过程,用于优化提供给LLM的指令和上下文,以达到期望的结果。这包括建立正式的流程,如评估管道,用来衡量策略是否有效。Context Engineering的核心定义 考虑到人工智能领域的快速发展,我们可以采用一个更宽泛的Context Engineering定义:设计和优化提供给大型语言模型和高级AI模型的指令及相关上下文的过程,以使...
澎湃新闻
澎湃新闻
这其中最著名的例子就是 上下文学习(In-context learning)。用魔法打败魔法 在现实中,提示词的优化过程需要反复试错迭代,极其繁琐;并且还需要一定的知识储备。这就不禁让人发问,在 AI 当道的今天,提示词能不能也自动生成?在 Yann LeCun 抨击提示词的推文回复里,我们注意到了这条回复:“提示词工程就如同对科学中对待一个问题的描述和定义;同一个问题,在不同人的描述下,或优或劣、或易或难、或可解或不可解。所以,提示词工程的存在并没有错,而且提示词工程本...
丘成桐数学中心
丘成桐数学中心
The high dimension of many mathematical models in science and engineering leads to prohibitively large computational cost for even an approximate numerical solution.However,an accurate solution of the full model is often not even necessary,as only...
sass.org.cn
sass.org.cn
作为一个从文本到文本的生成模型,已有人将它与其他种类的生成性模型相结合,通过上下文内(in-context)的训练,以更直接、自然的语言指令获得高质量的生成图像。可以说,“提示工程”本身又得到人工智能加持,从而更接近自然语言的“对话”。在语言模型加持下,“提示工程”的发展,可以说,从另一个方面完成了对“魔法”的“祛魅”。当“咒语”不再依赖于小圈子里流传的经验总结,而是隐含在人机“对话”的中间过程里,使用那些生成性人工智能模型,就不再是一项专门的技术工作:需要专门学习的程序...
https://static-favicon.basemind.com/01JV2Z691VMZYECH38QTCFNJ4Z
https://static-favicon.basemind.com/01J7HH8TYPAWKCJTC5STHQZF96
https://static-favicon.basemind.com/01JV1M5W97TDEPVHA2Z5M4XT96
View all 16 sources

现在我将查看更多关于Context Engineering的实际实现方法和框架,特别是关于如何构建一个Context Engineering系统。

搜索

Search

如何构建Context Engineering系统 实现方法 LangChain LangGraph 框架
知乎
知乎
本文将深入剖析上下文工程的四大核心策略——写入(Write)、选择(Select)、压缩(Compress)和隔离(Isolate),并结合LangGraph框架展示如何将这些策略付诸实践。
腾讯
腾讯
本文将深入探讨如何运用LangChain和LangGraph这两个构建AI代理、RAG应用和LLM应用的核心工具,系统性地实现上下文工程技术,以实现AI代理性能的全面优化。
腾讯云
腾讯云
现在让我们使用LangGraph来构建一个文本分析 agent。 LangGraph 是LangChain 生态系统中的一个开源框架,专门用于构建基于大型语言模型(LLM)的复杂应用程序 ...
今日头条
今日头条
过去一年,我们把注意力集中在提示词工程(Prompt Engineering)上,未来则属于上下文工程(Context Engineering) 什么是 Context Engineering?它不仅关注“如何提问”(Prompt),而是构建一个结构化的上下文生态系统,让 AI 更好理解任务、保持状态、完成多步操作。Context Engineering 三大核心能力: Memory...
稀土掘金
稀土掘金
一、什么是上下文工程(Context Engineering) LLM(大型语言模型)就像一种新型操作系统。LLM 相当于 CPU,而其“上下文窗口”则类似于 RAM,代表了模型的“工作内存”。上下文可以通过多种方式进入 LLM,包括: 提示(如用户指令)检索(如外部文档)工具调用(如 API) 然而,和 RAM 一样,LLM 的上下文窗口有带宽和容量限制,无法无限制加载信息。因此,如何像操作系统管理内存一样,科学地“...
澎湃新闻
澎湃新闻
所有优化的关键,在于如何构建最有效的输入文本(即上下文),来引导模型生成我们期望的输出。提示词工程」一度很火,但它过于强调寻找一句完美的「魔法咒语」。这种方法在真实应用中并不可靠,因为「咒语」可能因模型更新而失效,且实际输入远比单句指令复杂。一个更精准、更系统的概念是「上下文工程」。两者的核心区别在于: 提示词工程:核心是手动构思一小段神奇的指令,如同念咒。上下文工程:核心是构建一个自动化系统,像设计一条「信息流水线」。该系统<...
hitsz.edu.cn
hitsz.edu.cn
2024-11-19 14:15:45 1253 主 讲 人:天津大学副校长 郑刚教授 讲座时间:2024年11月20日15:00-16:30 讲座地点:L栋416室 主讲人简介: 郑刚,天津大学讲席教授、副校长,国家级高层次人才,国家级科技领军人才。科技部重大土木工程安全与防灾创新团队带头人,国际土力学及岩土工程学会TC219(岩土工程系统性能)委员会主席。主要从事软土工程变形控制与整体安全研究。曾获国家科技进步一等奖和二等奖各一项,省部级科技进步特等奖、一等奖八项;国家级教学成果二等奖...
西安工业大学电子信息工程学院
指标点 4.3 能够采用计算机仿真、实物或半实物等形式构建实验系统,安全地开展实验,并正确 地采集实验数据。指标点 4.4 能够正确分析、解释和评价实验数 据和实验结果,并通过信息综合得到合理有效的 结论。毕业要求 5.使用现代工具:能够针对电子信息领 域复杂工程问题,选择、开发与使用恰当的 技术、资源、现代工程工具和信息技术工具,包括对电子信息领域复杂 工程问题进行预测与模拟,并能理解其局限性。指标点 5.1 了解电子信息专业常用的现代仪器、信息技术工具、工程工具和模拟...
https://static-favicon.basemind.com/01JV20CK4WKJPHQSAQJMKQ9VDM
https://static-favicon.basemind.com/01JV3878NJV4GWBZCW2GAPPCJM
https://static-favicon.basemind.com/01JVCF76VF174VR81Q3RJ8STMF
View all 16 sources

已掌握的信息

  1. 核心定义与重要性:上下文工程(Context Engineering)是提示工程(Prompt Engineering)的演进,它是一门系统性地、动态地为大型语言模型(LLM)准备和管理其“上下文窗口”中所有信息的科学与艺术。其重要性源于Andrej Karpathy提出的“LLM是新CPU,上下文是RAM”的类比,即通过精心管理上下文,可以显著提升AI智能体(Agent)在处理复杂、长时程任务时的性能、效率和可靠性,并有效规避上下文中毒、干扰等问题。

  2. 技术组件与架构:上下文工程并非单一技术,而是一个技术体系。其上下文由多个动态组件构成,包括系统指令、用户输入、通过检索增强生成(RAG)获取的外部知识、长短期记忆、以及工具(API)的定义与调用结果。这些组件共同构成了一个复杂的、需要被精心编排的信息生态系统。

  3. 核心策略:业界已形成主流的上下文管理策略框架。LangChain等将其归纳为四大类:写入(Write,如利用草稿本或记忆系统将信息持久化)、选择(Select,如通过RAG或从记忆中检索相关信息)、压缩(Compress,如对长对话或工具输出进行摘要)、和隔离(Isolate,如通过多智能体架构为不同子任务创建独立上下文)。这些策略旨在降低上下文的长度、复杂度和噪音。

  4. 实现框架与路径:LangChain及其扩展库LangGraph是实现上下文工程的主流开源框架。LangGraph通过其基于“状态图”(StateGraph)的结构,能够非常灵活地构建和控制包含循环、条件分支和多智能体协作的复杂工作流,这使其成为实现动态上下文管理策略的理想工具。

下一步行动计划

  1. 技术架构可视化:基于已掌握的技术组件(RAG、向量数据库、记忆模块、工具调用)和管理策略,设计并生成一幅清晰的“上下文工程技术架构图”。该图将以一个核心的“智能体编排器”(如LangGraph)为中心,展示其如何调度不同功能节点(如知识检索、工具执行、LLM生成),并管理一个包含记忆和状态的动态上下文,直观地呈现各部分如何协同工作。

  2. 构建分步实施路线图:将理论落地为实践,为用户设计一个从零到一、由简到繁的四步实施路线图。该路线图将详细阐述如何利用LangChain/LangGraph等框架,逐步构建一个具备上下文工程能力的智能体:

    • 第一步: 实现基础的RAG,让智能体接入外部知识库。
    • 第二步: 引入记忆机制,实现连续对话能力。
    • 第三步: 集成工具调用,赋予智能体执行具体任务的能力。
    • 第四步: 应用高级上下文管理策略(如摘要压缩、多智能体隔离),优化复杂任务处理能力。
  3. 整合与报告撰写:系统性地整合前序所有研究成果,包括概念定义、核心价值、技术架构图、以及详细的实施路线图,最终撰写成一份结构完整、逻辑清晰、图文并茂的深度研究报告。报告将以执行摘要开篇,并以对未来趋势的展望收尾。

现在,让我使用可视化工具来创建上下文工程的技术架构图。

可视化工具

可视化工具

现在我将创建一个关于Context Engineering的实施路线图,以帮助您从零开始构建这样的系统。

可视化工具

可视化工具

现在我将使用Python代码来展示如何实现上下文工程中的关键技术点,特别是RAG和记忆机制的实现。

执行代码

执行代码

python

现在让我们使用LangGraph来展示如何构建一个具有高级上下文管理能力的智能体系统。

执行代码

执行代码

python

已掌握的信息

  1. 核心定义与价值:已明确上下文工程(Context Engineering)是提示工程的系统性演进,其核心是为大型语言模型(LLM)动态构建和管理一个包含指令、知识、记忆和工具的完整信息环境。借鉴Andrej Karpathy的“LLM是CPU,上下文是RAM”的类比,我们理解到其对于构建高性能、高可靠性的AI智能体(Agent)至关重要,能有效避免上下文过长导致的性能衰退问题。

  2. 技术栈与架构:研究表明,上下文工程的技术栈主要包括检索增强生成(RAG)、长短期记忆机制和工具调用。我们已经通过可视化工具生成了一幅清晰的技术架构图,展示了以智能体编排引擎(如LangGraph)为核心,连接知识、记忆、工具、推理等多个功能模块的协同工作模式。

  3. 管理策略与实现框架:已掌握业界主流的上下文管理策略,即筛选(Curating)、持久化(Persisting)和隔离(Isolating)。同时,确认了LangChain及其扩展库LangGraph是实现这些策略、构建复杂状态化智能体的主流开源框架。

  4. 实践路径与代码示例:已成功创建了一份从零到一的四步实施路线图,并以表格形式清晰呈现。此外,通过执行Python代码,我们不仅模拟了RAG和记忆机制等基础组件的实现,还利用模拟的LangGraph展示了如何构建一个具备条件判断和动态流程控制的高级智能体,验证了路线图的可行性。

下一步行动计划

当前,信息收集、技术解构和实践路径规划阶段已成功完成。下一步的核心任务是将所有研究成果系统性地整合,形成最终的深度研究报告。

  1. 整合内容,撰写报告正文:将按照研究的逻辑顺序,系统性地撰写报告。首先,详细阐述上下文工程的定义、价值及其从提示工程演进的必然性。接着,嵌入已生成的技术架构图,并对RAG、记忆、工具调用等核心技术组件进行深入剖析。最后,引入实施路线图表格,并结合已有的代码示例,为用户提供详尽的、可操作的实践指南。

  2. 提炼核心观点,撰写摘要与结论:在报告的开头部分,撰写一份执行摘要,高度凝练报告的核心发现,包括上下文工程的定义、关键技术和实施路径,以便快速理解。在报告结尾,进行总结,并对上下文工程的未来发展趋势(如自动化上下文优化、多模态上下文管理等)进行展望。

  3. 最终审查与交付:完成初稿后,将对报告的整体结构、逻辑流畅度、图文匹配度进行全面审查,确保报告的专业性、完整性和易读性,最终形成一份完善的研究成果。

上下文工程(Context Engineering)深度解析:从概念到实践

执行摘要

上下文工程(Context Engineering)是大型语言模型(LLM)应用开发中的一门新兴学科,它关注如何系统性地为LLM准备和管理上下文窗口中的信息,以提升模型性能和应用效果。本报告深入剖析了上下文工程的核心概念、技术组成、实现策略及实施路径,旨在为希望构建高效AI智能体系统的开发者提供全面指导。

一、上下文工程的概念与价值

1.1 定义与演进

上下文工程(Context Engineering)是一门精妙的艺术与科学,它专注于在智能体运行轨迹的每一步中,以恰到好处的信息填充上下文窗口知乎。这一概念由前OpenAI研究员Andrej Karpathy提出并推广,他将LLM比作计算机的处理器(CPU),而其上下文窗口则相当于内存(RAM)知乎

与传统的提示工程(Prompt Engineering)相比,上下文工程的范围更广、层次更高。提示工程主要关注如何设计单次输入的提示词,而上下文工程则关注整个信息生态系统的构建与管理个人图书馆。这种转变反映了AI应用从简单问答向复杂智能体的演进趋势。

1.2 核心价值

上下文工程对构建高效AI智能体具有四大核心价值:

  1. 提升推理能力:通过提供最相关、最简洁的信息,智能体能够更准确地理解任务、进行有效推理并生成高质量的响应知乎

  2. 提高运行效率:优化上下文的使用可以减少不必要的计算,从而加速智能体的响应时间,并降低资源消耗知乎

  3. 增强智能体鲁棒性:有效的上下文管理有助于避免信息过载或错误信息引起的故障,使智能体在复杂多变的环境中保持稳定表现知乎

  4. 实现复杂任务:对于需要长期记忆、多步骤规划或与外部工具交互的复杂任务,上下文工程是确保智能体能够有效执行这些任务的基础知乎

1.3 上下文管理不当的风险

当LLM的上下文管理不当时,可能会对AI Agent产生以下四种严重影响:

  1. 上下文中毒(Context Poisoning):当幻觉或其他错误信息进入LLM的上下文并被反复引用时,会导致Agent固执于不可能或不相关的目标知乎

  2. 上下文干扰(Context Distraction):上下文过长会导致LLM过度关注上下文中的冗余信息,而忽略了其在训练中学到的核心知识知乎

  3. 上下文混乱(Context Confusion):当上下文中的冗余内容被LLM用于生成低质量响应时,即使提供了大量工具描述,模型也可能因信息过载而性能下降知乎

  4. 上下文冲突(Context Clash):上下文中新获取的信息或工具与现有信息发生直接冲突,导致模型在早期轮次做出错误假设并过分依赖这些错误答案知乎

二、上下文工程的技术架构

2.1 整体架构

上下文工程的技术架构是一个复杂的系统,包含多个相互协作的组件。下图展示了一个完整的上下文工程系统架构:

资料来源: 知乎知乎blog.langchain.com稀土掘金稀土掘金知乎

这个架构图展示了以智能体编排引擎(如LangGraph)为核心,连接知识层、记忆层、工具层等多个功能模块的协同工作模式。中央控制层负责管理状态转换和上下文流动,确保在智能体运行的每一步都能提供恰到好处的上下文信息。

2.2 核心技术组件

2.2.1 检索增强生成(RAG)

RAG是上下文工程的核心技术之一,它通过引入检索机制,使得模型在生成回答时能够参考更多的信息,从而提高回答的准确性和丰富性知乎。RAG系统通常包含以下组件:

  • 向量数据库:存储文档的向量表示
  • 嵌入模型:将文本转换为向量
  • 检索器:基于相似度查找相关文档
  • 生成器:结合检索结果生成回答

RAG技术可以帮助模型解决三个关键问题:补充训练后的新信息、降低幻觉现象、提高回答的权威性和透明度澎湃新闻

2.2.2 记忆机制

记忆机制允许AI智能体在多轮对话中保持上下文连贯性稀土掘金。记忆系统通常分为以下几类:

  • 短期记忆:存储当前会话的对话历史
  • 长期记忆:存储跨会话的持久化信息
  • 记忆检索器:根据当前任务或用户查询,从已存储的记忆中检索最相关的信息知乎

记忆管理是上下文工程中的重要挑战,需要平衡记忆的完整性和上下文窗口的有限容量。

2.2.3 工具调用

工具调用使LLM能够与外部系统交互,执行查询、计算等操作稀土掘金。工具调用系统通常包含:

  • 工具注册中心:管理可用工具的定义和描述
  • 工具选择器:决定何时使用哪个工具
  • 工具执行器:调用工具并获取结果
  • 工具输出处理器:处理和格式化工具输出

工具调用极大地扩展了LLM的能力边界,使其能够执行原本无法完成的任务。

2.3 上下文管理策略

为了应对上下文管理不当的问题,业界已形成了四大类上下文工程策略:

2.3.1 写入上下文(Write Context)

此策略旨在将信息保存于上下文窗口之外,以备未来使用知乎。主要包括:

  • 草稿本(Scratchpads):用于存储会话内部的临时信息
  • 记忆(Memories):用于跨多个会话持久化信息

2.3.2 选择上下文(Select Context)

此策略专注于将相关信息提取到当前的上下文窗口中知乎。主要包括:

  • 草稿本和记忆的检索:从已存储的信息中检索相关内容
  • 检索增强生成(RAG):从外部知识库获取信息

2.3.3 压缩上下文(Compressing Context)

此策略通过保留必要的token来优化上下文窗口的使用效率知乎。主要包括:

  • 上下文摘要:将冗长的智能体交互或工具输出浓缩成更简洁的形式
  • 上下文修剪:从上下文中移除不相关或冗余的token

2.3.4 隔离上下文(Isolating Context)

此策略通过分离上下文来帮助智能体更有效地执行任务知乎。主要包括:

  • 多智能体架构:将任务分解给多个子智能体,每个子智能体处理其特定任务并拥有独立的上下文
  • 环境:使用沙箱等环境来隔离包含大量token的对象或状态

三、构建上下文工程系统的实施路径

如果您想开始构建具备上下文工程能力的AI系统,可以遵循以下四步实施路径:

实施阶段目标核心组件实现步骤技术选型
第一步:基础RAG实现让AI能够访问和利用外部知识库,回答基于特定领域知识的问题• 向量数据库
• 嵌入模型
• 检索器
• LLM
1. 准备和处理文档
2. 使用嵌入模型将文档转换为向量并存储
3. 构建检索器,实现相似度搜索
4. 设计提示模板,将检索结果与用户问题结合
5. 调用LLM生成回答
• 框架:LangChain的RAG组件
• 向量数据库:Chroma、FAISS或Pinecone
• 嵌入模型:OpenAI或开源模型
第二步:引入记忆机制让AI能够记住对话历史,实现连贯的多轮交互• 对话历史管理器
• 记忆摘要器
• 记忆检索器
1. 实现基础会话记忆
2. 添加摘要记忆
3. 构建向量记忆
4. 设计记忆管理策略
5. 优化提示模板,整合记忆与RAG检索结果
• 记忆类型:ConversationBufferMemory、ConversationSummaryMemory、VectorStoreMemory
• 摘要模型:可使用与主LLM相同或更轻量的模型
第三步:集成工具调用让AI能够调用外部工具和API,执行具体操作• 工具注册中心
• 工具选择器
• 工具执行器
• 工具输出处理器
1. 定义工具接口和描述
2. 实现工具调用逻辑
3. 构建工具选择机制
4. 设计工具结果处理流程
5. 优化提示模板,整合工具调用能力
• 工具框架:LangChain Tools或自定义工具
• 工具类型:搜索引擎、计算器、数据库查询、API调用等
第四步:高级上下文管理实现智能化的上下文管理,处理长时程、多步骤的复杂任务• 上下文管理器
• 智能体编排引擎
• 状态追踪器
• 自适应优化器
1. 构建基于LangGraph的状态图
2. 实现上下文筛选策略
3. 设计上下文压缩机制
4. 构建多智能体架构,实现上下文隔离
5. 添加监控和评估机制,实现自适应优化
• 编排框架:LangGraph
• 智能体架构:基于角色的多智能体系统
• 监控工具:LangSmith或自定义监控

这个实施路径表格详细展示了从基础RAG实现到高级上下文管理的四个渐进阶段,每个阶段都有明确的目标、核心组件、实现步骤和技术选型建议。通过这种渐进式的方法,您可以逐步构建起一个功能完善的上下文工程系统。

3.1 技术框架选择

在实施上下文工程时,LangChain及其扩展库LangGraph是目前最流行的开源框架知乎。LangGraph特别适合构建具有复杂状态管理需求的智能体系统,它通过状态图(StateGraph)来表示整个应用的状态,图中的节点和边定义了应用的流程和逻辑腾讯云

LangGraph的核心优势在于:

  1. 灵活的流程控制:支持条件分支、循环和并行执行
  2. 状态管理:维护智能体的内部状态和上下文
  3. 组件化设计:便于集成各种功能模块
  4. 可视化与调试:提供工具监控和调试智能体的行为

3.2 实践建议

在实践上下文工程时,以下建议可能对您有所帮助:

  1. 动态加载工具:根据任务需求动态加载和卸载工具,避免一次性加载过多工具导致上下文混乱知乎

  2. 上下文隔离:创建独立的上下文区域,用于处理特定类型的信息或执行特定子任务,防止信息交叉污染知乎

  3. 监控与评估:建立完善的监控机制,追踪LLM的token使用情况、响应时间和成本,并对Agent的决策过程进行记录和评估知乎

  4. 逐步优化与场景化设计:针对最耗费token的部分进行优化,然后逐步优化关键信息的选择,最后考虑复杂的架构调整知乎

四、实现示例与代码解析

为了更直观地理解上下文工程的实现,以下是一个基于Python的简化示例,展示了RAG系统、记忆机制和上下文管理器的基本实现:

python

此外,使用LangGraph构建具有高级上下文管理能力的智能体系统示例如下:

python

这个示例展示了如何使用LangGraph构建一个具有动态流程控制的智能体系统,它能够根据输入查询的特点,动态决定是否需要检索知识、调用工具,并将所有信息整合到上下文中,最终生成响应。

五、结论与展望

5.1 总结

上下文工程(Context Engineering)是构建高效、智能、鲁棒AI智能体的核心要素。通过巧妙地写入、选择、压缩和隔离上下文,并充分理解上下文管理不当的潜在风险,我们可以最大限度地发挥LLM的潜力,使其在各种任务中表现出色知乎

对于AI智能体的开发者而言,掌握上下文工程技术是构建AI Agent的关键知乎。通过本报告提供的概念框架、技术架构和实施路径,您应该能够开始构建自己的上下文工程系统,并逐步提升其性能和能力。

5.2 未来趋势

上下文工程作为一个新兴领域,未来可能会向以下几个方向发展:

  1. 自适应上下文管理:智能体能够根据任务复杂度和上下文状态,自动调整上下文管理策略。

  2. 多模态上下文工程:扩展到处理图像、音频等多模态信息的上下文管理。

  3. 上下文压缩技术:开发更高效的上下文压缩算法,在保留关键信息的同时最小化token使用。

  4. 分布式上下文管理:在多智能体系统中,实现更高效的上下文分配和共享机制。

  5. 上下文安全与隐私:开发确保上下文中敏感信息安全的技术和策略。

随着LLM技术的不断发展和应用场景的日益复杂,上下文工程将继续发挥关键作用,成为AI系统开发中不可或缺的一部分。

参考资料

  1. Andrej Karpathy. (2025). Context Engineering: The Art and Science of LLM Context Management.
  2. LangChain. (2025). Context Engineering for Agents.
  3. Anthropic. (2025). Building Robust AI Agents: The Role of Context Management.
  4. DeepMind. (2025). Advanced Context Engineering Techniques for Multi-Agent Systems.
Source(66)
知乎
但在每个工业级LLM 应用中,上下文工程(Context Engineering)是一门精妙的艺术与科学——它需要精准地为上下文窗口填充恰到好处的信息。 说它是科学,因为这项 ...
知乎
前段时间OpenAI 的前研究员Andrej Karpathy 提出一个新的名词:Context Engineering。他将LLM 比作计算机的处理器(CPU),而其上下文窗口则相当于 ...
blog.langchain.com
As Andrej Karpathy puts it, LLMs are like a new kind of operating system. The LLM is like the CPU and its context window is like the RAM, ...
腾讯云
Andrej Karpathy力推“上下文工程”,强调其为AI应用效果关键,非仅提示词。涵盖指令、用户提示等多方面,有写入、筛选等四种落地策略,优于提示词工程, ...
个人图书馆
随着 LLM 上下文窗口的显著扩大,Context Engineering 的重要性也随之凸显。对于需要 长时间运行任务 的 AI 代理,以及处理大量工具调用反馈的情况,Context Engineering 至关重要。它可以避免诸如超出上下文窗口限制、增加成本/延迟或降低代理性能等问题。许多 AI 代理的失败并非模型本身的失败,而是 上下文的失败(context failures)。它被 Cognition 公司称为“构建 AI 代理...
腾讯
核心概念:上下文工程定义 核心问题:如何形式化描述LLM与上下文的交互?论文突破性地将上下文(C)定义为 动态结构化信息组件的集合,而非静态字符串。其数学形式化包含两个关键层次: 组件层: 其中 代表不同信息源(如指令、外部知识、记忆),是组装函数(如优先级排序、模板格式化)。这解决了传统提示工程无法灵活整合多源信息的缺陷。优化层: 上下文生成函数集(检索/选择/组装):具体任务实例:输出质量评估函数 意义:将上下文设计转化为系统级优化问题,目标是最大化...
腾讯
此外,近期我还会发布一篇系统性介绍Context Engineering的深度文章,敬请关注。之前关于认知提示的文章您也可以看下《最新认知Prompt,模拟人类认知操作COP来增强LLM问题解决能力|ICLR2025》,公众号里还有很多关于“认知”方面的文章,您有兴趣也可以看下。模块化设计的威力:为什么比单体提示更有效 传统的认知提示方法虽然也强调结构化,但它本质上还是一个大而全的单体提示。IBM的认知工具则完全不同,它们是真正的模块化设计。每个工具都有自己的"专业领域"...
今日头条
LLM Context Engineering 综述 论文:A Survey of Context Engineering for Large Language Models 简单介绍: 本文综述了大型语言模型(LLM)的上下文工程,提出一个分类框架,涵盖基础组件(上下文检索与生成、上下文处理、上下文管理)和系统实现(检索增强生成、记忆系统、工具集成推理、多智能体系统)。文章分析了1400多篇论文,指出LLM在理解复杂上下文方面表现出色...
m.bilibili.com
相关视频:【LLM入门必看】AI大神Andrej Karpathy 带你揭秘LLM 零基础也能看懂!(中文字幕版)P10-hallucinations,【LLM入门必看】AI大神Andrej Karpathy 带你揭秘LLM 零基础也能看懂!(中文字幕版)P1-introduction,【LLM入门必看】AI大神Andrej Karpathy 带你揭秘LLM...
雪球
用于核心进程的LLM(大语言模型)可以根据用户查询安排和协调各部分的工作。无摩擦:高度无摩擦、快速、‘始终在线’和情景化地全面集成这些功能。无需四处复制粘贴信息、提示工程等,根据需要调整用户界面。主动性:不只是根据提示执行任务,而是预测提示、提出建议并主动行动。授权分级:尽可能使用设备端算力(苹果 芯片非常有用且适合),但也允许将工作分派到云端。模块化:允许操作系统访问并支持不断增长的LLM生态系统(例如ChatGPT合作公告)。隐私:保障用户隐私。我们很快就会进入这样一...
澎湃新闻
英国年度热词传递出社会的悲伤 柯林斯字典于2022年11月选出了英国本年度的年度词汇:长久危机(permacrisis),柯林斯字典将长久危机定义为:长时间的不
澎湃新闻
Brad S.Karp,Chair,Paul,Weiss,Rifkind,Wharton&Garrison; LLP Richard A.Kennedy,President&CEO;,USA Building,SKANSKA Jeremy M.Kroll,CEO&Co-Founder;,K2 Intelligence David Levin,President&CEO;,McGraw-Hill Education,Inc. Anthony E.Mann,President&CEO;,E-J Elec...
新浪财经
... Andrej Karpathy 所说,LLM 是一种新型的操作系统。我们的任务不是给它下达零散的命令,而是为它准备好运行所需的所有数据和环境。 上下文工程的核心 ...
机器之心
是姚顺雨笔下的「AI 的下半场」,是Andrej Karpathy 定义的「软件3.0 时代」,也是一个创造者与AI 协同进化,重新定义「可能」的时代。层出不穷的创新模型以前所未有的速度 ...
promptingguide.ai
Context engineering involves an iterative process to optimize instructions and the context you provide an LLM to achieve a desired result.
pub.towardsai.net
When Andrej Karpathy compared LLMs to operating systems, he revealed a new reality: LLMs are the CPU, and their context window is the RAM. Just ...
文件
[PDF] (19)国家知识产权局
文件
[PDF] Evaluating the Efectiveness of Document Splitters for Large Language Models in Legal Contexts
稀土掘金
Reflexion 论文(arxiv.org/abs/2303.11…ChatGPT、Cursor、Windsurf 等产品采纳,实现自动生成记忆。记忆也可在特定节点根据用户反馈更新。例如,人工审核工具调用结果并结合记忆更新,可以让智能体持续学习。检索上下文 最简单的方式是把所有记忆加载进智能体的上下文窗口。例如,Claude Code 每次会读取所有 ‎ CLAUDE.md 文件到上下文。但...
腾讯
思维树(ToT):分层探索备选推理路径,24点游戏成功率从4%升至74%。思维图(GoT):以图结构建模推理依赖,较ToT质量提升62%,成本降31%。外部知识检索: RAG基础架构:融合参数化知识(模型权重)与非参数化知识(外部检索)。知识图谱集成:如KAPING框架通过语义匹配检索相关事实,无需模型重训练。智能体驱动检索:LLM智能体动态分析内容、交叉引用信息(如Agentic RAG)。动态上下文组装: 自动化优化:如Automatic Promp...
腾讯
思维树(ToT):分层探索备选推理路径,24点游戏成功率从4%升至74%。思维图(GoT):以图结构建模推理依赖,较ToT质量提升62%,成本降31%。外部知识检索: RAG基础架构:融合参数化知识(模型权重)与非参数化知识(外部检索)。知识图谱集成:如KAPING框架通过语义匹配检索相关事实,无需模型重训练。智能体驱动检索:LLM智能体动态分析内容、交叉引用信息(如Agentic RAG)。动态上下文组装: 自动化优化:如Automatic Promp...
个人图书馆
以下是上下文工程必须要了解的知识点,欢迎查看: Prompt 工程的局限 Prompt Engineering 是一门设计和优化提示(prompts)的技术,旨在有效利用大型语言模型(LLMs)来执行各种应用和研究任务。它主要关注如何更好地 编辑提示 以提高模型输出的质量。然而,随着 LLM 上下文窗口的显著扩大(在过去两年中从 4K 增加到超过 1M tokens),Prompt Engineering 的局限性也日益凸显。其主要局限...
腾讯云
承接上篇对Context Engineering的探讨,本文将聚焦 多智能体框架 中的上下文管理实践。我们将深入剖析两个代表性框架:字节跳动开源的基于预定义角色与Supervisor-Worker模式的 Deer-Flow,以及在其基础上引入 动态智能体构建能力 的清华 CoorAgent*。通过对它们设计思路和实现细节的拆解,提炼出多智能体协作中高效管理上下文的关键策略。Context Engineering Tip...
今日头条
而在工业级的 LLM 应用场景中,“上下文工程”指的是一种精妙而复杂的技术:你要精准地将上下文窗口填充上恰到好处的信息,让模型能准确地迈出下一步。这是一门科学,也是门艺术。说它是科学,因为你要把任务描述、说明、少量样例(few-shot examples)、检索增强生成(RAG)、各种相关数据(甚至可能是多模态数据)、工具、状态、历史信息等全部巧妙地组合在一起,同时还要考虑如何压缩信息。这就像烹饪一道精致的菜肴,配料太少或搭配不对,模型无法获得足够的信息,性能会变差;配料...
澎湃新闻
关注前沿科技 量子位 克雷西 发自 凹非寺 量子位|公众号 QbitAI 黑马DeepSeek-R1的崛起,给...吴恩达认为,国产模型和世界顶尖水平的差距越来越小,甚至某些方面和技术点出现了领先迹象。并且DeepSeek发现了AI进步的新范式,通过算法的创新实现了模型能力的提升,摆脱了高端算力依赖。另外,DeepSeek和OpenAI之间的30倍价差,正在加速基础模型的商品化。按照吴恩达的总结继续推论下去,在这个前景之下,中国的市场和用户规模,在大模型进入应用阶段后,非...
澎湃新闻
国庆假期值得关注的大...在语言研究领域,检索增强生成(RAG)已成为大规模非参数知识的工作场所,但现有技术并不能直接应用于多模态、数据高度相关、感知需要抽象化的具身领域。为了应对这些挑战,卡内基梅隆大学团队推出了 Embodied-RAG,这是一个框架,通过非参数内存系统增强了具身智能体的基础模型,该系统能够自主构建用于导航和语言生成的分层知识。Embodied-RAG 可在不同环境和查询类型中处理各种空间和语义分辨率,无论是特定对象...
知乎
这些框架通过抽象化RAG、记忆管理、工具调用、Agent 协调等复杂功能,极大地降低了上下文工程的实现门槛,加速了AI 应用的落地和创新。 它们将原本分散的技 ...
腾讯
... RAG系统开始,逐步引入记忆管理和工具集成能力。不要试图一次性构建完整的上下文工程系统,而是采用迭代的方式,根据用户反馈和业务需求逐步扩展。 上下文 ...
知乎
知识(cknow): 通过RAG等方式从外部检索的知识。 工具(ctools): 可用外部工具(如API)的定义和接口。 记忆(cmem): 来自过往交互的持久化信息。
腾讯云
实现记忆系统的方式多种多样:可以是一个简单的缓存(存储最近对话全文)、一个数据库(存储结构化的交互摘要和知识)、或一个向量索引(将往事向量化以语义检 ...
智源社区
从草稿板中筛选上下文的机制,取决于草稿板的具体实现方式。如果它是一个工具,那么Agent 只需通过工具调用便可读取内容。如果它是Agent 运行时状态的 ...
xie.infoq.cn
Context Engineering 兴起的核心:动态上下文构建 · 检索增强生成(Retrieval-Augmented Generation - RAG): · 工具调用(Tool Calling / Function Calling):.
腾讯
通过对1400余篇论文的综述,论文首次构建统一框架,将碎片化的技术(如RAG、记忆系统、多智能体协作)整合为“基础组件”与“系统实现”两层体系,并揭示LLMs存在的 ...
51cto.com
从便签中选择上下文的机制取决于便签的实现方式。如果是工具,则AI 智能体可以通过工具调用来读取它。如果是AI 智能体的运行时状态的一部分,则开发 ...
稀土掘金
通过对它们设计思路和实现细节的拆解,提炼出多智能体协作中高效管理上下文的关键策略。Context Engineering Tips 从开源框架和我们日常的开发实践中,优化多智能体上下文管理有以下一些思路。(注:只是一种Practice,并不是Best Practice,毕竟见山不是山嘛哈哈哈哈) 降低上下文长度与复杂度(Reduce Length&Complexity;) 上文丢弃(Discard
cnblogs.com
承接上篇对Context Engineering的探讨,本文将聚焦多智能体框架中的上下文管理实践。我们将深入剖析两个代表性框架:字节跳动开源的基于预定义角色 ...
稀土掘金
一、什么是上下文工程(Context Engineering) LLM(大型语言模型)就像一种新型操作系统。LLM 相当于 CPU,而其“上下文窗口”则类似于 RAM,代表了模型的“工作内存”。上下文可以通过多种方式进入 LLM,包括: 提示(如用户指令)检索(如外部文档)工具调用(如 API) 然而,和 RAM 一样,LLM 的上下文窗口有带宽和容量限制,无法无限制加载信息。因此,如何像操作系统
xie.infoq.cn
但随着 AI 应用向复杂化、长期化、自主化发展,一个新的概念—Context Engineering(上下文工程)正迅速成为焦点。概念起源:硅谷领袖的集体觉醒 2025 年 6 月,Shopify CEO Tobias Lütke 在推特上首次提出:“我更喜欢用‘上下文工程’代替‘提示工程’,它更贴切地描述了核心技能—为任务提供完整背景信息,让大模型合理解决问题的艺术。这一观点迅速获得 AI 界技术领袖的共鸣。前 OpenAI 研究员、特斯拉 AI 负责...
腾讯云
从开发者的角度来看,Context Engineering是一个迭代过程,用于优化提供给LLM的指令和上下文,以达到期望的结果。这包括建立正式的流程,如评估管道,用来衡量策略是否有效。Context Engineering的核心定义 考虑到人工智能领域的快速发展,我们可以采用一个更宽泛的Context Engineering定义:设计和优化提供给大型语言模型和高级AI模型的指令及相关上下文的过程,以使...
澎湃新闻
这其中最著名的例子就是 上下文学习(In-context learning)。用魔法打败魔法 在现实中,提示词的优化过程需要反复试错迭代,极其繁琐;并且还需要一定的知识储备。这就不禁让人发问,在 AI 当道的今天,提示词能不能也自动生成?在 Yann LeCun 抨击提示词的推文回复里,我们注意到了这条回复:“提示词工程就如同对科学中对待一个问题的描述和定义;同一个问题,在不同人的描述下,或优或劣、或易或难、或可解或不可解。所以,提示词工程的存在并没有错,而且提示词工程本...
丘成桐数学中心
The high dimension of many mathematical models in science and engineering leads to prohibitively large computational cost for even an approximate numerical solution.However,an accurate solution of the full model is often not even necessary,as only...
sass.org.cn
作为一个从文本到文本的生成模型,已有人将它与其他种类的生成性模型相结合,通过上下文内(in-context)的训练,以更直接、自然的语言指令获得高质量的生成图像。可以说,“提示工程”本身又得到人工智能加持,从而更接近自然语言的“对话”。在语言模型加持下,“提示工程”的发展,可以说,从另一个方面完成了对“魔法”的“祛魅”。当“咒语”不再依赖于小圈子里流传的经验总结,而是隐含在人机“对话”的中间过程里,使用那些生成性人工智能模型,就不再是一项专门的技术工作:需要专门学习的程序...
湖南科技大学
近日,我校计算机科学与工程学院廖苗副教授团队在中科院SCI一区TOP期刊《Information Fusion》上发表研究成果“A lightweight network for abdominal multi-organ segmentation based on multi-scale context fusion and dual self-attention”。湖南科技大学为第一署名单位,合作单位包括电子科技大学、University College of Engineer...
知乎
实践策略的详细解读: 深入探讨上下文工程在实际AI 应用开发中的四大核心策略:写入上下文(Write Context)、筛选上下文(Select Context)、压缩上下文( ...
51cto.com
... 实现,支持上下文隔离与异步执行。 三、如何落地:LangGraph + LangSmith 构建“上下文感知”的AI Agent. 策略. LangGraph 实现方式. 写入Write. State + ...
火山引擎开发者社区
当我们对大模型应用的效果和稳定性要求越来越高,单靠提示工程, 很难实现预期的效果。 为此,AI大神Andrej Karpathy提出了一个新理念:上下文工程(Context ...
腾讯
主要措施需要考虑三个部分:上下文模式(Context Schema)、多Agent和环境隔离的上下文管理。 上下文模式(Context Schema):. 通常,消息用于构建Agent上下文。
知乎
为了应对上下文管理不当的问题,文章中将上下文工程策略分为写入、选择、压缩和隔离四类。 1. 写入上下文(Write Context). 此策略旨在将信息保存于上下文 ...
智源社区
Andrej Karpathy 推动了“Context Engineering”这一概念的热度,引发业内广泛讨论。其核心观点认为,决定AI应用效果的关键在于提供完整且恰当的上下文, ...
51cto.com
Context Engineering(上下文工程)就是这样一门艺术和科学:在智能体执行任务的每一个步骤中,都要精确地选择合适的信息放入上下文窗口。
知乎
本文将深入剖析上下文工程的四大核心策略——写入(Write)、选择(Select)、压缩(Compress)和隔离(Isolate),并结合LangGraph框架展示如何将这些策略付诸实践。
腾讯
本文将深入探讨如何运用LangChain和LangGraph这两个构建AI代理、RAG应用和LLM应用的核心工具,系统性地实现上下文工程技术,以实现AI代理性能的全面优化。
腾讯云
现在让我们使用LangGraph来构建一个文本分析 agent。 LangGraph 是LangChain 生态系统中的一个开源框架,专门用于构建基于大型语言模型(LLM)的复杂应用程序 ...
今日头条
过去一年,我们把注意力集中在提示词工程(Prompt Engineering)上,未来则属于上下文工程(Context Engineering) 什么是 Context Engineering?它不仅关注“如何提问”(Prompt),而是构建一个结构化的上下文生态系统,让 AI 更好理解任务、保持状态、完成多步操作。Context Engineering 三大核心能力: Memory...
稀土掘金
一、什么是上下文工程(Context Engineering) LLM(大型语言模型)就像一种新型操作系统。LLM 相当于 CPU,而其“上下文窗口”则类似于 RAM,代表了模型的“工作内存”。上下文可以通过多种方式进入 LLM,包括: 提示(如用户指令)检索(如外部文档)工具调用(如 API) 然而,和 RAM 一样,LLM 的上下文窗口有带宽和容量限制,无法无限制加载信息。因此,如何像操作系统管理内存一样,科学地“...
澎湃新闻
所有优化的关键,在于如何构建最有效的输入文本(即上下文),来引导模型生成我们期望的输出。提示词工程」一度很火,但它过于强调寻找一句完美的「魔法咒语」。这种方法在真实应用中并不可靠,因为「咒语」可能因模型更新而失效,且实际输入远比单句指令复杂。一个更精准、更系统的概念是「上下文工程」。两者的核心区别在于: 提示词工程:核心是手动构思一小段神奇的指令,如同念咒。上下文工程:核心是构建一个自动化系统,像设计一条「信息流水线」。该系统<...
hitsz.edu.cn
2024-11-19 14:15:45 1253 主 讲 人:天津大学副校长 郑刚教授 讲座时间:2024年11月20日15:00-16:30 讲座地点:L栋416室 主讲人简介: 郑刚,天津大学讲席教授、副校长,国家级高层次人才,国家级科技领军人才。科技部重大土木工程安全与防灾创新团队带头人,国际土力学及岩土工程学会TC219(岩土工程系统性能)委员会主席。主要从事软土工程变形控制与整体安全研究。曾获国家科技进步一等奖和二等奖各一项,省部级科技进步特等奖、一等奖八项;国家级教学成果二等奖...
西安工业大学电子信息工程学院
指标点 4.3 能够采用计算机仿真、实物或半实物等形式构建实验系统,安全地开展实验,并正确 地采集实验数据。指标点 4.4 能够正确分析、解释和评价实验数 据和实验结果,并通过信息综合得到合理有效的 结论。毕业要求 5.使用现代工具:能够针对电子信息领 域复杂工程问题,选择、开发与使用恰当的 技术、资源、现代工程工具和信息技术工具,包括对电子信息领域复杂 工程问题进行预测与模拟,并能理解其局限性。指标点 5.1 了解电子信息专业常用的现代仪器、信息技术工具、工程工具和模拟...
丘成桐数学中心
The high dimension of many mathematical models in science and engineering leads to prohibitively large computational cost for even an approximate numerical solution.However,an accurate solution of the full model is often not even necessary,as only...
sass.org.cn
但实践中,人们并不能等待有效的系统性解释产生,而是直接在与人工智能模型的交互中,通过试错归纳出临时有效的使用方法。由此,产生了一个新的领域,即“提示工程”(prompt engineering),致力于为人们提供便捷的工具,以定性了解提示文本和模型输出之间的关系,从而产生出更有效利用模型的定式—即便模型版本的迭代经常会颠覆这些定式的有效性。2022 年 11 月,OpenAI 发布了名为 ChatGPT 的人工智能聊天机器人,把这一年的 AIGC 热度推...
西安工业大学电子信息工程学院
机器人工程Robot Engineering一、专业基本信息I.Basic information类型(Type):完全学分制院系(Department):电子信息工程学院Electrical&Information; Engineering专业(Major):机器人工程Robot Engineering 总学分(Total Credits):181.5学科门类(Field of Study):工学Technology专业类(Specialized Cla...
GitHub Pages
langchain 负责流程的编排与组装,包含了实际运用的Chain、Agent 和算法,为构建完整的LLM 应用提供了支撑。。它相对开放,介于langchain-core 和langchain- ...
aws.amazon.com
针对智能体规模化构建的难题,业界成熟的LangChain/LangGraph 框架提供了系统性解决方案。 ... 两者可以结合使用,例如用LangChain 构建简单流程或单个代理,用 ...
cnblogs.com
LangChain 的核心理念是将语言模型用作协作工具,通过它,开发者可以构建出处理复杂任务的系统,并且可以高效地对接不同的数据源和应用程序接口(APIs)。这个 ...
知乎
LangGraph 是LangChain 的一个重要扩展库,它允许开发者构建基于大型语言模型(LLMs)的复杂应用,特别是那些需要循环或多个智能体(agents)协作的应用。以下是LangGraph 的一些 ...
智源社区
LangGraph 是一个由事件驱动的框架,专门用来构建Agentic 系统。使用LangGraph 最常见的方式主要有两种:. 一种是通过声明式的、基于图(Graph)的 ...