index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
近期,Bilt公司部署了数百万AI智能体,并引入“睡眠计算”机制,使其在“睡眠”期间整理和评估过往互动,决定记忆的存储与遗忘。此举旨在解决AI的记忆短板,提升其效率和稳定性。与人脑不同,AI的记忆受限于上下文窗口,容易导致信息过载和逻辑混乱。Bilt的睡眠计算通过区分长期记忆和快速提取区,并将信息写入共享内存,实现AI个体间的经验共享和行为一致性。这一创新不仅模仿了人类的梦境,更是主动智能的开端,有望在数学和逻辑测试中展现出更高效率。同时,文章也探讨了AI“学会遗忘”的重要性,以应对灾难性遗忘和伦理挑战,这可能是AI未来发展的一大关键。
🧠 AI的“睡眠计算”机制:Bilt公司通过引入“睡眠计算”,让数百万AI智能体在非交互时段内进行记忆整理。这一过程类似于人类的睡眠,AI会评估过去的对话和经验,区分需要长期保存的关键信息(如用户偏好、历史事件)和可快速调用的短期信息,旨在解决AI在记忆方面的不足,提升其智能和稳定性。
🧽 解决AI记忆短板的创新:与人脑容量巨大且能处理情绪权重不同,AI的记忆受限于有限的上下文窗口,容易导致信息过载、逻辑混乱甚至“幻觉”。Bilt的“睡眠计算”通过将零散信息压缩成结构化的“记忆档案”,并写入共享的memory blocks,使得AI能够拥有更清晰、更稳定的认知,并实现AI个体间的经验共享,一次更新即可影响整个系统。
🚀 主动智能与效率提升:文章指出,“睡眠计算”不仅是模仿人类梦境,更是“主动智能”的雏形。AI不再是被动响应,而是在“睡眠”中优化推理策略。实验表明,应用此机制的模型在数学和逻辑测试中表现更佳,推理时间和成本均显著下降,预示着AI在处理复杂任务时将更高效。
🤔 学会遗忘是AI未来的关键:文章强调,AI的进化不仅在于记住更多,更在于学会遗忘。人类通过“智能忘却”来抑制无效信息,集中注意力。AI则面临“灾难性遗忘”的问题,即学习新任务时覆盖旧知识。未来的AI需要发展出“人工遗忘”机制,能够删除敏感或过时信息,这不仅是技术挑战,更是关乎隐私和伦理的重要议题。
【新智元导读】人类的大脑,会在梦里筛选记忆。如今,AI也开始学会在「睡眠」中整理、保存,甚至遗忘。Bilt部署数百万智能体,让科幻小说里的设问——「仿生人会梦见电子羊吗?」——逐步成真。那么,当AI也能选择忘记时,它会变得更像人,还是更陌生?一图看透全球大模型!新智元十周年钜献,2025 ASI前沿趋势报告37页首发
几十年前,菲利普·迪克提出了一个看似荒诞,却直击人心的问题:「仿生人会梦见电子羊吗?」如果机器也能做梦,它们梦见的,会不会是人类记忆的残影?半个世纪后,这个问题正在以另一种方式被回应。人类在睡眠中整理记忆,而今天,一些AI也开始「学会」这样做。
AI也会「做梦」睡眠中的记忆整理实验对人类来说,睡眠不仅是休息,更是一次「后台整理」。大脑会自动把白天的精力归档:记住重要的,忘记无关的。在今天,这个问题正在以另一种方式被回应。Bilt公司,最近部署了数百万个AI智能体,并为他们安排了「睡眠时间」。在这段时间里,AI会停下对话,启动「睡眠计算」(sleeptime compute)的机制,像人脑一样整理记忆。它们会评估过往的互动,决定哪些内容进入长期记忆库,哪些放在快速提取区。Fast Company指出,这不仅是模仿人类的梦,更是主动智能的开端:AI 不再被动回答,而是在睡眠中「预演未来」,在推理任务上展现出更高的效率与更低的成本这种看似科幻的实验,让「AI会做梦」不再只是文学隐喻,而是正在发生的现实。
从人脑到AI记忆机制的巨大差距人类大脑的记忆,就像一块不断吸水的海绵。
这意味着,人类不仅能记住事情本身,还能带着情绪权重来筛选信息,并且能在不知不觉中提炼重点,把情绪、场景、细节打包成长期经验。而AI的大脑远没这么灵活。它们的「记忆」取决于上下文窗口——它只能调用输入的信息。即便GPT-4 Turbo的上限是128k tokens,也不过相当于几百页书。相比之下,人脑的容量被估算高达2.5PB(250万GB)。因此,想让AI记得上次说了什么,就需要把内容再输入一遍。但问题是,上下文窗口长度有限。如果信息量太大,AI就容易「过载」:逻辑混乱、答非所问、凭空幻觉。相比之下,人类不仅能牢牢记住重要信息,还能在需要时灵活调用。正如Letta的CEO Charles Packer所说:人类大脑会因为不断吸收而进化,但语言模型在同一个上下文里循环太久,只会被污染,越跑越偏,直到不得不重置。这意味着,人类的「梦境」能让我们更清醒,而AI的「上下文」却常常让它迷失。
Bilt+Letta百万智能体的「睡眠计算」在Bilt的实验中,睡眠计算是核心。数百万AI智能体同时运行时,大部分其实都处于空闲状态
这些智能体会在后台进入一种「休眠」状态,暂停与用户的交互,转而对过去的对话和经验做一次系统化梳理。它们会自动区分两类信息:第一类:长期记忆。像用户的偏好、历史记录、关键事件,这些会被牢固保存。第二类:快速提取。更短期、临时性的信息,可以随时调用,也能很快被替换。在 Letta 的演示中,用户Chad的偏好最初是零碎的描述:Chad 喜欢蓝色,比蓝色更喜欢红色,最喜欢灰色,讨厌绿色。经过睡眠计算后,这些信息被整理成清晰的偏好表。这就像把零散的对话记录压缩成一份长期「记忆档案」。图:睡眠代理整理用户输入的内容,并把用户对颜色的喜好排序更具颠覆性的是,这两个区间并非孤立存在。Letta的技术支持对某一个「记忆块」进行单点更新,随后数十万智能体的行为便会随之改变。这意味着,AI个体之间的「经验」是可共享的。正如 Bilt 的工程师 Andrew Fitz 所说:「我们可以通过一次更新,就让整个系统的表现发生连锁变化。」根据Letta的介绍,该机制采用的是「主代理+睡眠代理」的架构。前者负责实时交互,后者在后台持续整理记忆,把信息写入共享的memory blocks,让AI在「醒来」后拥有更清晰、更稳定的认知。对此,Fast Company评论道:这不仅是模仿人类的梦境,更是「主动智能」(proactive intelligence) 的雏形。AI 不再只是被动回答,而是在睡眠中提前优化推理策略。实验显示,在数学和逻辑测试中,应用睡眠计算的模型表现更好,推理时间和成本也显著下降。如果说人类的梦境是私密的,那AI的「睡眠记忆」更像是一场同步的大规模演练。
从健忘到记忆AI的短板与突围越来越多的用户抱怨AI健忘、答非所问,甚至编造「回忆」。不少研究者认为,记忆缺陷是限制AI智能与稳定的根源。如果没有稳定可靠的记忆,AI无法形成真正的个性化与长期价值。也正因如此,「提高记忆力」成为行业的集体突围方向。LangChain的CEO Harrison Chase把记忆视为「上下文工程的核心」。他认为,AI的智能很大程度取决于开发者选择放进上下文的信息。LangChain因此提供了不同的记忆存储机制,从用户长期画像到近期交互记录,都能灵活调用。对此,OpenAI也在尝试。今年2月,它宣布ChatGPT将具备记忆功能,能在多轮对话中逐步学习用户偏好——只不过细节并未公开。与此不同的是,Letta和LangChain把「记忆回调」的过程完全透明化,方便工程师理解和管理。AI托管平台Hugging Face的CEO Clem Delangue也强调:MemGPT则在探索如何把短期与长期记忆区分开,避免AI被「污染」。这套思路后来被Letta进一步扩展,用在了大规模智能体的「睡眠计算」中。可以说,「谁先解决记忆问题,谁就更接近下一个AI时代」。
学会遗忘AI未来的关键一步在大多数人眼里,AI的进化意味着要「记住更多」。但Charles Packer却提出另一种思路:在人类世界,遗忘是进化出优势。研究显示,睡眠中的「智能忘却」能帮助大脑抑制无效信息,把注意力集中在真正重要的片段上。如果没有遗忘,我们的大脑就会像塞满文件的硬盘,总有一天会崩溃。而对于AI来说,这是它面临的另一难题:灾难性遗忘(catastrophic forgetting)因为,AI的神经网络在学习新任务时,往往会覆盖旧知识 。这和人类的「选择性遗忘」不同,它是一种有层次的、可控的机制。因此,未来的 AI 需要发展出「人工遗忘」。当用户对AI说「把那个项目删掉,不要再记了」,未来AI的回应不止是停止调用这段记忆,还能追溯性地清除所有相关内容。即使是AI,也必须学会删除涉及敏感或过时的信息。在欧洲,「被遗忘权(Right to Be Forgotten)」已写进隐私法规。这不仅是技术挑战,更是伦理问题。那么,谁有权利决定AI记得什么、忘记什么?当遗忘成为可能,它会带来更安全的使用体验,还是新的操控手段?或许,真正让AI更像人的,不是「永不遗忘」,而是「学会遗忘」。https://www.wired.com/story/sleeptime-compute-chatbots-memory/https://www.fastcompany.com/91368307/why-sleep-time-compute-is-the-next-big-leap-in-ai?utm_source=chatgpt.comhttps://www.letta.com/blog/sleep-time-compute?utm_source=chatgpt.com
文章原文