红杉汇 09月11日
《记忆碎片》启示录:AI Agent如何有效思考与行动
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

《记忆碎片》中的主角莱纳德,虽然患有顺行性遗忘症,但他通过一套独特的信息处理系统,成功执行了复仇任务。这个系统,正是AI Agent设计的绝佳隐喻。文章深入探讨了上下文工程的重要性,以及如何构建一个高效、可靠的AI Agent。文章还分析了莱纳德系统中的两大致命漏洞:上下文投毒和内部污染,并强调了验证与反思机制在Agent设计中的关键作用。

📸 外部知识管理系统:莱纳德使用拍立得照片和笔记来记录关键信息,这对应着AI Agent中的知识管理系统,例如RAG技术,用于存储和检索历史信息。

📝 上下文提炼与结构化:莱纳德将关键信息提炼并纹在身上,这是一种信息压缩和结构化的过程,在AI Agent中,也需要对检索到的信息进行压缩和提取关键实体。

🗺️ 分层记忆管理:莱纳德的记忆系统分为核心任务层、情景工作记忆层和瞬时处理窗口,这种分层结构有助于AI Agent在长期任务中保持目标一致性。

🚫 外部投毒:莱纳德的朋友向他提供错误信息,这对应着AI Agent中的上下文投毒问题,需要采取措施防止错误信息的影响。

🌀 内部污染:莱纳德自己写下的错误笔记导致他被自己欺骗,这对应着AI Agent中的自我强化的认知牢笼问题,需要引入验证与反思机制来避免错误信息的循环放大。

yan5xu 2025-09-01 08:04 北京

一个系统是如何“思考”和“行动”的?

很多人提到“人工智能”,都会想到电影《Her》中的聊天机器人“萨曼莎”——有斯嘉丽的迷人声线、极致的共情能力和无所不知的学识,简直是聊天机器人这一范式的终极形态。在过去很长一段时间里,整个AI行业的叙事,几乎都是围绕着“聊天机器人”这条主线展开的。

但到了2025年,大家讨论的不再是“意图识别”和“多轮对话”,而是任务分解、工具调用和自主规划——AI Agent。那么,又有哪部电影能代表这个全新的Agent时代?

今天,我们将为你推荐一部。它虽然和AI毫无干系,却可能是最好的Agent入门电影——它不探讨AI的灵魂,只展示一个系统如何在信息不完整的残酷现实中,为了一个目标去“思考”和“行动”。

它,就是诺兰的第一部长篇电影——《Memento》(记忆碎片)

在《记忆碎片》中,主角莱纳德是一个有明确目标(复仇)、会使用工具(相机、笔)、并试图复杂的真实世界中执行任务的自主系统(Agent)——他的所作所为,都是为了“完成任务”。

但莱纳德的整个悲剧,也都源于他那套为了“行动”而构建的、天才而又脆弱的信息处理系统。这套系统,就是我们今天要深入探讨的核心——上下文工程(Context Engineering)。本质上,它是一套围绕着LLM有限的“注意力”(即上下文窗口),设计和管理信息输入(Input)与输出(Output)的综合性技术栈,它的目标是在Agent每一个决策点,都为其提供“恰到好处”的信息。而这,正是决定一个Agent是走向成功还是陷入混乱的关键。

十八般武艺,却只有鱼的记忆

莱纳德曾经是一名顶尖的保险调查员,他懂得如何追踪线索,如何审问嫌疑人,如何像猎犬一样咬住目标不放。

一场入室袭击夺走了他妻子的生命,也摧毁了他大脑中负责"写入新记忆"的功能——顺行性遗忘症。

这意味着,尽管他记得妻子的一切,记得那晚的惨剧,记得自己的名字和过去的所有人生,但从那天起,他的时间就被冻结了——他无法形成新的长期记忆,每过十几分钟,他脑中的"缓存"就会被清空,一切归零。他唯一剩下的,只有一个驱动他所有行为的最终目标:找到杀害妻子的凶手,为她复仇。

这个设定,简直就是为今天LLM的完美隐喻。莱纳德完好无损的长期记忆,在功能上就像是LLM的训练数据(Training Data)。它们共同构成了系统行动的"世界知识"基础,但这个基础是静态的。莱纳德无法学会在袭击后认识新朋友,LLM也无法知道训练截止日期后的任何新闻。

而他那只有15分钟的短期记忆,正是LLM最著名、也是最致命的阿喀琉斯之踵——上下文窗口(Context Window)。在这个窗口内,它可以完美地理解和关联所有信息;但窗口之外,就是它无法触及的世界。如果输入超出一个字,系统就会报错。

好了,现在问题来了。莱纳德,以及我们开发的Agent,面临着同一个地狱级难度的工程挑战:

如何在一个本质上无状态(Stateless)的、记忆窗口极其有限(或信息过载)的系统中,去执行一个需要长期有状态(Stateful)跟踪的复杂任务?

莱纳德的复仇之路,可能需要耗费数周甚至数月。我们的Agent,要完成一个自动化研究项目,也需要调用上百次API、处理数万字的文档。

面对这个看似无解的困局,莱纳德没有放弃。他做了任何一个优秀的工程师都会做的事:既然无法修复硬件(他的大脑),那就为它构建一套强大的外部系统。

这套系统,就是我们今天所说的上下文工程

莱纳德的记忆系统:上下文工程的三大支柱

莱纳德对抗遗忘的方法,遵循着一套严谨的信息处理架构。这套架构,恰好完美对应了构建一个高效LLM Agent所需的三大核心支柱。

第一支柱:外部知识管理系统——拍立得照片

这是整个系统的“记忆扩展模块”,负责突破短期记忆的限制,为Agent在每个决策点提供必要的历史信息。在Agent技术栈中,这对应着一套完整的知识管理系统,其中最为人熟知的实现方式就是 RAG(检索增强生成)。

莱纳德的拍立得系统,恰好展示了一个完整的知识管理闭环是如何运作的:

• 信息采集与固化 (Information Capture):当莱纳德遇到关键人物或地点时,他会立即举起相机。这个看似简单的动作,实际上是将流动的、转瞬即逝的现实,固化成可以永久保存的“知识单元"”。对于Agent 而言,这相当于将API返回的数据、用户的关键指令、或执行过程中的重要状态,持久化存储到知识库中。

• 上下文标注 (Context Annotation):莱纳德从不满足于单纯的照片。他会立刻在背面写下“泰迪,别信他的谎言”这样的关键笔记。这个细节揭示了一个深刻的工程智慧:原始数据本身往往是不够的,真正有价值的是数据背后的判断和洞察。在RAG系统中,这对应着为文档添加元数据、生成嵌入向量、或创建知识图谱——让信息不仅“存在”,更要“可被理解”和“可被检索”。

• 按需调用 (On-Demand Retrieval):每当莱纳德从失忆中“重启”,面对一个陌生人时,他会本能地翻找口袋里的照片。找到匹配的照片后,背面的笔记会立即告诉他该如何行动。这个过程完美诠释了RAG的核心价值:在Agent需要做决策的精确时刻,为它注入最相关的历史知识。

莱纳德系统最令人赞叹的,是他对“什么值得记录”的直觉判断。他不会给早餐拍照,不会记录天气,只会捕捉那些与复仇任务直接相关的关键信息。这种选择性记录,恰恰是许多Agent系统所缺失的。一个不加选择就把所有对话历史都存入向量数据库的 Agent,最终只会在检索时被无关信息淹没。

第二支柱:上下文提炼与结构化——关键笔记

信息并非越多越好。如果每次决策都翻阅所有照片,莱纳德很快就会在信息的海洋中迷失。他必须对信息进行处理,筛选出那些真正重要、不可动摇的“事实”。

他的核心处理手段,是将信息从照片的背面,升级到纹身。

• 提炼与压缩 (Distillation & Compression): 莱纳德只纹那些经过反复验证、足以构成他世界观基石的核心信息。这是一种极致的信息压缩,将无数的线索和推论,提炼成一句不可更改的“断言”。

 

• 结构化 (Structuring): 纹身的位置也极有讲究。关键线索和数字纹在最容易看到的大腿上,而最终目标“找到他,杀掉他”则纹在胸口,每次照镜子都能看到。这是一种物理上的信息结构化,确保最重要的信息拥有最高的“读取优先级”。

 

在Agent设计中,这一步同样至关重要。从API或文档中检索到的冗长信息,必须经过压缩、总结、提取关键实体,甚至转换成更精简的JSON格式,才能在有限的“Token 预算”内最大化信息密度

第三支柱:分层记忆管理——纹身系统

一个单一、扁平的记忆系统是脆弱且低效的。莱纳德的生存智慧在于,他本能地为自己构建了一套分层式的记忆架构。这对于设计一个能在长期任务中保持不“迷航”的Agent至关重要。

 

我们可以将莱纳德的记忆系统看作三个功能不同的层次:

 

1. 核心任务层 (Core Mission Layer)-纹身:这是Agent的“最高指令”。它定义了Agent的身份(“你是一个复仇者”)和终极目标(“找到并杀死凶手”)。这一层的信息是几乎不可变的(Immutable),拥有最高的决策权重。它的作用是确保Agent无论在执行多少步子任务后,都不会偏离最初的战略意图。

 

2. 情景工作记忆层 (Episodic Working Memory)-照片与笔记:这是 Agent 的“任务日志”。它存储着与当前长期任务相关的、动态变化的状态和观察结果。比如“泰迪的照片”和背面的笔记“别信他”。这一层是可读可写的(Read/Write),记录了任务的中间步骤、遇到的障碍、收集到的证据。它使得 Agent 的行动具有连续性,而不是一系列孤立的操作。

 

3. 瞬时处理窗口 (Volatile Processing Window)-15分钟的大脑记忆:这直接对应LLM那有限的上下文窗口。它是真正的“思考”发生的地方。在每一个决策点,Agent会将“核心任务层”的最高指令,与“工作记忆层”中最相关的几条情景信息,一起“加载”(Load)到这个窗口中进行处理,然后做出下一步行动的判断。这个窗口是高度易失的(Volatile),每次调用后都会被清空。

莱纳德为什么会失败?

Agent设计的两大“致命漏洞”

通过这套天才的“上下文工程”系统,莱纳德成功地将一个有严重生理缺陷的个体,变成了一个能够执行长期复杂任务的Agent。他成功了吗?电影的结局给了我们一个残酷的否定答案。

漏洞一:外部投毒——被 “喂”了谎言

好友一直在利用莱纳德的失忆症,向他提供精心筛选甚至扭曲的信息。这完美地诠释了Agent设计的第一个风险:上下文投毒(Context Poisoning)。在LLM Agent的时代,我们进入了一个“垃圾进,真理出”的新范式。Agent不仅会处理错误的信息,更可怕的是,它会以一种充满权威和自信的口吻,将基于这些错误信息得出的结论,当作“真理”一样呈现和执行。我们的Agent如果无条件信任互联网上的所有信息,其后果不堪设想。

漏洞二:内部污染——被自己写下的笔记所欺骗

电影最具讽刺性的一幕,是莱纳德在某个瞬间做出了一个决定:他在一张关键人物的照片背面写下了一条误导性的笔记。这不是别人对他的欺骗,而是他对未来的自己设下的陷阱。当他下次“重启”看到这张照片时,他会毫不怀疑地相信自己写下的话——毕竟,谁会怀疑自己亲手写下的“事实”呢?他用一个谎言,“编程”了未来的自己。这揭示了比外部投毒更隐蔽的漏洞:自我强化的认知牢笼(Self-Reinforcing Cognitive Prison)。

当Agent在多步骤任务中执行第N步时,它可能会生成一个带有微小偏差的中间结论。在执行第N+1步时,它会从自己的“记忆”中,将这个错误的结论当作一个可信的事实来检索,并在此基础上继续行动。

这个问题在目前流行的多步任务规划Agent中尤为突出。它缺乏一个独立的、批判性的“自我审查”视角,这也是当前从最简单的ReAct到更复杂的树状搜索(Tree of Thoughts)等框架都在试图解决的核心难题。

也就是说,莱纳德的悲剧,源于他的系统只有“检索-处理-行动”的单向循环。它缺少了一个能抵御外部投毒和内部污染的关键模块——验证与反思 (Verification & Reflection)

对于Agent而言,“反思”是一个 工程模块。它意味着在行动之后,系统需要有一个机制,去比对行动结果与预期目标之间的差距,生成一份“误差报告”,并将这份报告作为下一次行动的关键上下文输入。

一个没有反思能力的Agent,同样会陷入自己生成的“代码bug”或“错误事实”中,并在循环里不断放大这个错误,最终离目标越来越远。

所以,当我们惊叹于Agent能自动编写代码、预订机票时,不如先回头看看莱纳德的结局。他用自己的悲剧提醒我们:构建一个能“行动”的系统只是第一步,构建一个能“可靠地行动”的系统,才是我们真正漫长而艰巨的征程。

而这,正是《记忆碎片》在 25 年后,依然是每个Agent工程师必修课的根本原因。

本文经授权转载自@言午,有删减。

推荐阅读

人工智能大模型开始瞄准抗衰老与肥胖|HealthcareView

消费心理学,正在叩开消费者的心门 | 红杉爱生活

看到更远的未来 | 从一个红杉成员企业Offer开始

小心!你的思考力可能正在被AI“外包” | 创业Lifestyle

理性之上,重新审视科学的认知“盲点” | 红杉Library

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI Agent 上下文工程 记忆碎片 验证与反思 RAG
相关文章