Datawhale 10月15日 10:16
AI Agent 落地生产环境的关键挑战与解决方案
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文探讨了 AI Agent 在生产环境中成功的关键因素,指出95%的部署失败并非模型本身问题,而是围绕其支撑体系(如上下文工程、安全性、记忆设计)的不足。文章深入剖析了上下文工程的本质,强调其超越简单提示词技巧,涉及LLM原生特征工程、语义与元数据分层。同时,讨论了Text-to-SQL的现实挑战,以及治理与信任(包括安全、溯源、权限管理)的重要性。此外,文章还阐述了记忆设计的架构化思路、多模型推理与流程编排模式,并探讨了何时聊天界面最合适以及未来AI Agent可能的发展方向,强调了上下文质量、记忆设计、编排稳定性和用户信任体验是未来竞争的关键。

💡 **高级上下文工程超越提示词技巧,是AI Agent成功的基石。** 真正的上下文工程并非简单的提示词堆砌,而是将上下文视为可版本化、可审计的工件。这包括面向LLM的原生特征工程(如选择性上下文剪枝和上下文验证),以及通过语义层和元数据层进行分层管理,以应对多变的输入格式(如PDF、音频、日志)并确保检索结果的结构化和相关性,而非仅仅是相似内容。

🔒 **安全、溯源和权限管理是AI Agent部署的关键,而非形式。** AI Agent在生产环境中必须严格遵守行级别、基于角色的访问控制,并能追踪输入与输出的对应关系(溯源/谱系)。即使提示词相同,也需为不同用户定制输出,以防止权限泄露和合规问题。信任源于系统一致、可解释、可审计的行为,并强调“human-in-the-loop”的设计模式,将AI定位为辅助而非自主决策者。

🧠 **记忆设计是架构决策,而非简单功能,需平衡用户体验与隐私。** 记忆应被抽象为独立的上下文层和行为层,具备版本控制和可组合性,并区分用户级、团队级和组织级记忆。虽然记忆能提升用户体验和个性化,但过度个性化可能侵犯隐私。理想的解决方案是安全、可跨应用且由用户控制的可移植内存层,目前仍是技术空白。

⚙️ **多模型推理与流程编排是实现高效、自适应AI Agent的关键。** 生产环境中的AI Agent常采用模型编排,根据任务复杂性、延迟约束、成本敏感度和数据合规性等因素智能调度不同模型。这种模式类似编译器设计,通过有向无环图(DAG)执行决策流程,而非简单地将内容发送给单个LLM,以实现流畅、无缝且自适应的用户体验。

💬 **对话式交互价值在于降低用户学习成本,但需与图形界面结合。** 自然语言交互尤其适用于消除BI工具等复杂工具的学习门槛,进行探索性查询。然而,当用户需要精细化操作时,图形界面更为高效。理想的混合模式是,以聊天界面作为易于上手的起点,并提供图形界面支持后续操作,让用户能自由选择最合适的交互方式。

2025-10-14 23:03 浙江

探讨了AI Agent在生产环境中成功的关键因素。

 Datawhale干货 

作者:Oana Olteanu,编译:Datawhale

近日,在旧金山硅谷内部的一个行业交流活动中,谷知名风险投资人 Oana Olteanu 与来自Uber、WisdomAI、EvenUp 和 Datastrato 的工程师和机器学习负责人们,探讨了 AI Agent 在生产环境中成功的关键因素。

他们提到,95% 的 AI Agent 部署在生产环境中会失败。原因并非模型不够智能,而是因为其周围的支撑体系——如上下文工程、安全性、记忆设计——尚未到位。

原文链接:https://www.motivenotes.ai/p/what-makes-5-of-ai-agents-actually

大多数创始人以为自己在打造 AI 产品,但实际上他们真正在构建的是上下文选择系统。

这场专题讨论深入剖析了隐藏在 Agent 表象之下的复杂核心:上下文选取、语义层、记忆编排、治理机制以及多模型的路由策略。

本文是 Oana 基于研讨会内容的深度整理,由Datawhale进行编译。

上下文工程 ≠ 提示词技巧

在讨论会中,多位嘉宾都表达了相同的一个观点:其实模型微调一般通常用不上。只要把检索增强生成(RAG)做得到位,就足够用了。但目前大多数 RAG 系统设计都还太过简单,做得不够成熟。

常见的失败的模式:

对所有内容一股脑地索引,导致检索结果过多,从而让模型无法判断重点并产生混淆

那么,真正的高级上下文工程到底是什么样的呢?

a) LLM 的特征选择

一位嘉宾将上下文工程重新定义为面向 LLM 的原生特征工程:

这种框架很重要。这意味着我们可以将上下文视为一个可版本化、可审计、可测试的工件,而不仅仅是一串字符串。

b) 语义 + 元数据分层

多个团队提到了采用双层架构:

这一混合层有助于对杂乱的输入格式(如 PDF、音频、日志、指标)进行标准化处理,确保你检索到的不仅是“相似内容”,而是相关的结构化知识。可以理解为:在嵌入向量基础上构建的分类体系、实体链接以及特定领域的模式。

这种混合架构能够统一处理各种杂乱的输入格式(如 PDF、音频、日志、指标等),确保检索结果不仅仅是“相似内容”,而是真正相关的结构化知识。比如那些基于嵌入向量构建的分类体系、实体关联以及特定领域的数据模式。

c) Text-to-SQL 的现实挑战

当主持人向观众提问:“你们当中有谁开发过文本转 SQL 系统并已将其投入实际应用?” 没有人举手。

这不是因为问题太小众,而是因为理解查询本来就极为困难。自然语言充满歧义,商业术语又高度依赖具体领域,如果没有经过充分的上下文工程, LLM 根本无法了解某一企业对“收入”或“活跃用户”的具体定义。

那些成功的团队不会简单地把 SQL 结构丢给模型,而是会主动构建一套体系:

治理与信任并非“仅限企业”的问题

安全、溯源和权限管理一次又一次被提及,它们不是作为走形式的核对项,而是阻碍部署的关键因素。

在垂直领域构建产品的创始人请注意:

一位嘉宾说:

“如果两个员工问同一个问题,模型的输出应该不同,因为他们的权限不同。”

没有这些控制,Agent 在功能上可能是正确的,但在组织层面是错误的,会泄露访问权限或违反合规。

当前主流的解决方案是:针对结构化和非结构化数据构建统一的元数据目录,并在索引和查询时嵌入访问策略。

信任问题源自于人,而不是技术本身。

一位嘉宾分享了一个他的个人故事,很好的说明了这一点:他的妻子拒绝让他使用特斯拉的自动驾驶。为什么?不是因为它不管用,而是因为她不信任它。

“当 AI 触及到与你的安全、你的钱等非常敏感的领域时,你会信任它吗?我认为这是当前最大的障碍之一。我们确实有时候会使用 AI Agent,但最终还是会要考虑:我真的能信任这个 AI 吗?”

这不仅仅适用于消费产品。对于在营收确认、病历或合规报告等方面做出决策的企业级 AI Agent,存在同样的信任障碍。对于信任问题来说,原始的技术能力并不重要,关键在于系统能否一直做出一致、可解释、可审计的行为。

那些 5% 在生产环境中真正可用的 AI Agent 都有一个共同点:以“human-in-the-loop”的方式设计。它们把 AI 定位为助理,而不是自主的决策者。整个系统能通过人为纠正形成反馈回路并不断学习,同时让人类能够方便地核查并更改 AI 的决定。

记忆不仅仅是存储,更是一种架构设计

每个人都希望给 AI“加上记忆功能”,但记忆并非简单的功能,而是一项关乎用户体验、隐私和系统设计的决策。

记忆的不同层级:

用户级:个人偏好(如图表类型、样式和写作风格)

团队:常见查询、数据看板和运维手册

组织级:机构知识、规章制度以及过往决策

大多数初创企业会将记忆功能直接硬编码在应用程序逻辑或本地存储中。而顶尖团队则会把它抽象成独立的上下文层和行为层,具备版本控制和可组合性。

一位嘉宾将这种做法形容为:

利用记忆实现个性化

在应用程序层面,记忆主要有两个作用:

有一个团队分享了他们在 Uber 开发对话式商业智能工具时面临的冷启动问题:用户往往不知道该问什么。

他们的解决方法是,利用用户过往的查询记录建立记忆,并据此主动推荐相关问题作为对话的开场。

但这样的问题在于:个性化的帮助在什么时候会越过界限,变成一种令人不适的监控?

一位与会者提到,他曾让 ChatGPT 推荐一些适合全家观看的电影,结果对方却根据他孩子的名字——克莱尔和布兰登——给出了个性化建议。他随即表示:“我不喜欢这样的回答,你怎么会这么了解我的儿子和女儿?不要侵犯我的隐私。”

设计记忆过程中的冲突与平衡

这里缺失了一个关键的基础要素:一种安全、可跨应用使用、由用户控制的便携式内存层。它不会被服务的提供商锁定。目前还没有人成功实现这一点。一位讨论嘉宾提到,如果他没做现在的创业项目,他就会选择这个方向作为下一个创业目标。

多模型推理与流程编排模式

另一种新兴的设计模式:模型编排。

在实际生产环境中,并不是所有任务都直接调用 GPT-4。越来越多团队开始依据以下因素,来实现对于模型的智能调度:

一个示例模式:

这种模式更像是编译器设计,而不是传统的网页应用路由。你所做的不应该仅仅是“将内容发送给 LLM”,而是在多个异构模型、工具和验证环节之间执行一系列有向无环图(DAG)式的决策流

为何这很重要:

如果你的系统随着使用的增长而变慢或成本上升,首先应该优化的就是这一层。如果你希望 AI 给用户带来流畅无缝的体验,路由机制就不能很脆弱或长期依赖人工调优,而应采用自适应策略。

有一个团队分享了他们的做法:简单问题由小型且快速的模型处理,而复杂的推理任务则交由先进的大模型完成。其核心理念是:通过持续追踪不同模型对各类查询的处理效果,模型的选择过程本身也可以随着时间不断学习和优化。

什么时候聊天界面是最合适的?

并不是所有任务都必须使用聊天机器人。

一位观众直接提出了质疑:“我觉得自然语言并不是总比图形界面更好。比如我要叫辆优步时,我根本不想跟手机对话,只想要轻轻点几下,车就来了。”

在这点上,嘉宾们达成的共识是:对话式交互的价值,在于它能够消除用户的学习成本

对于 BI 仪表板、数据分析这类传统上需要专业技能的复杂工具,自然语言能够显著降低使用门槛。然而,当用户获得结果后,往往仍希望借助图形界面进行操作和调整——例如将饼图切换为条形图,这时候不应该再依赖额外的文字输入

一种理想的混合模式:

一位嘉宾提到了自然语言处理(NLP)的两个理想应用场景:

关键在于:应该去理解用户使用自然语言的真正意图,并据此进行设计,而非一味地将所有交互都强加于聊天界面之中。

还缺少什么?(一些具有潜力的方向)

在讨论中提到了一些还没有被深入挖掘的方向,但其实它们是真正有待产品化的核心组件:

上下文可观测性

哪些输入能够持续提升输出质量?什么样的上下文容易引发模型幻觉?你该如何像测试模型提示词那样来测试上下文?

目前,大多数团队都处于盲目前行的状态,缺乏系统性的方法来评估哪些上下文真正提升了模型性能,哪些反而造成了负面影响。

可组合记忆

记忆是否可以随用户携带(而非依附于应用),具备安全性和可移植性,并支持用户按需选择组织、团队或个人状态的层级?

这将解决两个问题:

这是整个技术栈中最关键的缺失环节。

面向特定领域的领域感知语言

大多数企业用户的需求都是结构化且重复的。与其费力地将自然语言解析成容易出错的 SQL,为何不直接设计更高层次、具备约束安全性且更可靠的专用语言(DSL)呢?

有团队建议,不应该局限于文本转 SQL,而是应该构建一个语义化的企业业务逻辑层,例如“显示第四季度收入”直接对应到一个经过验证的计算方法,而不是直接生成原始 SQL。

具备延迟感知的用户体验

一位讨论嘉宾提到,他们开发的带记忆增强功能的聊天机器人,虽然响应速度较慢,但体验却令人欣喜。原因在于,机器人会根据用户上周的提问,智能地生成一系列后续回应。

这为异步、主动式 AI 如何提升用户体验提供了新思路,不仅限于聊天场景。想象一下:Agent 在你开会前自动生成好简报,在你打开文档时动推送相关信息,或是在你尚未察觉时就提前预警数据中的异常

关键洞见:不同任务对延迟的要求不同。如果是一个笑话任务,需要即时呈现,而如果是一个深度分析任务,即使延迟 10 秒,只要系统能展示它的思考过程并最终给出有效的答案,用户体验就不会差。

生成式 AI 领域的未来方向

参加完这场专题讨论后,我更加确信:我们很快将迎来一波基础设施工具、记忆模块、编排框架以及上下文可观测性技术的发展浪潮。这些技术在将来回顾时,可能会显得顺理成章,但目前仍处于混乱且未被解决的状态。

生成式 AI 领域真正的壁将不在于模型的获取,而在于:

如果你是一位致力于开发基础设施、应用或智能体的创业者,不妨想一下:你的产品路线图中有多少内容是围绕上述四项关键问题而设计的?

创始人需要自问的 5 个关键问

一起“三连

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI Agent 生产环境 上下文工程 安全性 记忆设计 模型编排 治理 信任 AI 人工智能
相关文章