Shopify 分享了他们构建 Agent 的经验,整体架构也是目前主流的 Agentic Loop,就是不停的循环,让大模型判断需要调用什么工具,Agent 去调用工具,根据调用工具的结果看是继续调用工具还是任务完成。

他们针对打造 AI 智能体给了4条核心建议
架构简单化,工具要清晰有边界
模块化设计(如即时指令)
LLM 评估必须与人类高度相关
提前应对奖励作弊,持续优化评估体系
我看下来主要是两点值得借鉴的地方:
一、工具不要太多,尽量控制在 20 个https://baoyu.io/uploads/2025-09-16/1758024464260.png758024464260.png" data-width="100%" data-align="center">
如果工具数量太多会极其影响 Agent 的能力,很难精确选择工具
那么解决方案是什么呢?
不要看他们分享的 JIT 方案,明显是一个过渡性的产物,需要动态的去生成调用工具的指令,为了保证不影响 LLM 的 Cachehttps://baoyu.io/uploads/2025-09-16/1758024484961.pngads/2025-09-16/1758024484961.png" data-width="100%" data-align="center">
真正的靠谱方案其实 PPT 里面也写了(看图3),只是它们还没实现,而实际上 Claude Code 这部分已经很成熟了,就是用 SubAgent(子智能体),通过 Sub Agent 分摊上下文,把一类工具放在一个 SubAgent 中,这样不会影响主 Agent 上下文长度,也可以让子 Agent 有一定自制能力,有点类似于一个公司大了就分部门,每个部门就是一个 SubAgent。
二、Agent 生成的结果要 Evaluate(评估)
Agent 要做得好,很重要的一点就是要能评估它生成的结果是好还是坏,这样 Agent 自己就能对自己的结果进行改进优化。

所以他们先找了一些人类专家,从正式环境中抽取了足够多样的结果,来人工标记是好还是坏,然后把这个结果作为基准数据集,再去写提示词让 LLM 来评估,让 LLM 评估的结果和人类的结果保持一致。当 LLM 评估https://baoyu.iohttps://baoyu.io/uploads/2025-09-16/1758024524265.png果,这样就不需要人工介入。

至于会不会误判,我想肯定还是会的,但不管怎么说还是一个比较好的折中方案。
其他还有一些强化学习的训练方法,有兴趣可以自己去看看原文。
https://baoyu.io/translations/building-production-ready-agentic-systems
