原创 金色传说大聪明 2025-10-29 09:34 广东
最好、最快的内容,总在赛博禅心
今天凌晨,OpenAI 带来了两则信息
• OpenAI 完成资本重组,非营利基金会控制公司,持股估值 1300 亿美元,马上我会详细说一下(单独发一篇)
• OpenAI 发布了一场直播,以迄今最大尺度,介绍了 OpenAI 当下情况和后续发展计划
直播有三位参与方,分别是Sam Altman,OpenAI CEOJakub Pachocki ,首席科学家Wojciech Zaremba,联合创始人
我把这次的对谈,重新用中文配音了,方便大家摸鱼时候听
下面这个是原版(Jakub 的声音太...)
讲道理,配音后的体验,比原版好太多了,背后使用了大橘子的 API
以及...我把对于交流的内容,我把核心信息,整理成了 QA,供大家来看
一、研究路线
OpenAI 给出的研究时间表是什么?
Sam Altman 和 Jakub Pachocki 公布了两个明确的内部目标:
• 2026 年 9 月前:开发出"AI 研究实习生",通过投入大量计算资源,能有意义地加速研究员的工作
• 2028 年 3 月前:实现完全自动化的 AI 研究员,能够自主完成更大型的研究项目
Sam Altman 特别强调:这些具体日期完全可能搞错,但这确实是 OpenAI 目前的思考和规划方式。
OpenAI 如何定义当前模型的能力水平?
Jakub 用"时间跨度"(time horizon) 来衡量——也就是普通人完成模型能做的任务需要多长时间。
目前这一代模型的时间跨度大约是 5 小时。可以通过模型在国际数学奥林匹克竞赛、信息学奥林匹克竞赛等比赛中的表现看出来。
OpenAI 认为离超级智能还有多远?
Jakub 的判断是:不到十年。
他说的超级智能 (superintelligence),指的是在大量关键维度上比所有人都更聪明的系统。
未来扩展的关键方向在哪里?
测试时计算 (test time compute),也叫"上下文内计算" (in-context compute)。
Jakub 解释:这大致就是模型用来思考的时间。如果看模型目前在思考问题上花了多少时间,再想想在真正重要的问题上——比如科学突破——应该花多少计算资源和时间,那么动用整个数据中心也应该是可以接受的。
OpenAI 认为在这条路上还有数量级的提升空间。
二、安全与对齐
OpenAI 的安全框架是什么?
Jakub 展示了五层框架,从模型最内部到最外部:
1. 价值对齐 (value alignment):AI 从根本上真正在乎什么?它能否遵守高层次的原则?它是否热爱人类?
2. 目标对齐:AI 智能体如何与人互动?如何理解指令并执行?
3. 可靠性:AI 能否准确校准预测?在简单任务上可靠,在困难任务上表达不确定性?
4. 对抗性鲁棒性 (adversarial robustness):AI 能否抵御来自人类或 AI 对手的定向攻击?
5. 系统性安全 (systemic safety):不依赖 AI 本身智能的保障,比如访问控制、权限管理
OpenAI 在对齐方面的关键技术突破是什么?
思维链忠诚度 (chain-of-thought faithfulness)。
Jakub 详细解释了这个技术:
从最早的推理模型开始,OpenAI 就在探索这个新方向。核心想法是,让模型内部推理的一部分过程不受监督——也就是在训练期间不去干预它。这样它就能保持对其内部过程的真实反映。
OpenAI 克制自己,不去引导模型产生"好的想法",从而让它对自己的真实想法保持更忠诚。
思维链忠诚度有什么实际应用?
Jakub 说这是 OpenAI 内部大量使用的技术,用来理解模型是如何训练的,它们的倾向性在训练过程中如何演变。
外部合作方面,OpenAI 用这个技术研究过模型"耍心机"的倾向性。
两个保持乐观的理由:
• 看到了非常有希望的实证结果
• 它是可扩展的,因为被设计成一个可扩展的目标,与监控模型的能力不对抗
思维链忠诚度有什么局限?
Jakub 强调:它有些脆弱,需要划定清晰的界限,有清晰的抽象层,而且在使用思维链时需要有所克制。
这体现在 OpenAI 处处可见——从算法设计到产品设计。
比如 ChatGPT 里的思维链摘要器:如果没有这个摘要器,思维链在任何时候都完全可见,它就会成为整体体验的一部分。久而久之,很难不让它受到任何监督。
通过为模型保留这种一定程度的、可控的隐私,OpenAI 相信可以保留理解模型内部过程的能力。
OpenAI 为什么如此重视价值对齐?
Jakub 的解释:
当 OpenAI 开始拥有那些能长时间思考的系统,当它们变得非常聪明,当它们处理那些处于人类能力边缘甚至超越人类能力的问题时,想要给出一个完全详尽的指令就变得相当困难。
所以必须依赖于这种更深层次的对齐。
三、基础设施投入
OpenAI 目前承诺了多少基础设施?
Sam Altman 公布的数字:
• 略高于 30 吉瓦 (gigawatts) 的基础设施工厂计划
• 在未来很多年里,意味着总共约 1.4 万亿美元的财务责任
Sam 说:这是 OpenAI 目前为止承诺的。当然希望能做得更多,但考虑到目前看到的前景、对收入增长和融资能力的预期,这是目前感到比较稳妥的规模。
OpenAI 的终极基础设施愿景是什么?
Sam Altman 明确表示:还没有对下面这个目标做出承诺,但正在进行相关讨论。
愿景是:建立一个"基础设施工厂",在那里可以每周生产 1 吉瓦的算力,并且希望能大幅降低成本,降到大约每吉瓦 200 亿美元(在设备五年的生命周期内)。
要做到这一点,需要大量的创新、大量的合作,显然也需要大量的收入增长。
Sam 开玩笑说:可能得重新规划一下机器人技术的思路,让它们来帮忙建数据中心。
1 吉瓦是什么概念?
Sam Altman 展示了德克萨斯州 Abilene 正在建设的数据中心——第一个"星际之门" (Stargate) 站点。
每天有成千上万的人在工地工作,光是工地建设就需要这么多人。可能还有几十万甚至几百万人在供应链上工作——设计芯片、制造芯片、组装它们,以及所有为能源付出的努力。
OpenAI 的合作伙伴有哪些?
Sam Altman 提到的合作伙伴包括:AMD、Broadcom、Google、Microsoft、NVIDIA、Oracle、SoftBank 等。
这需要大量的合作伙伴关系——芯片合作伙伴、建设数据中心的、提供土地的、能源的,还会有芯片制造厂。已经开始需要相当多的供应链创新了。
四、商业模式
OpenAI 需要多大的收入来支撑这个投资?
Sam Altman 的回答:最终需要达到每年数千亿美元的收入。
OpenAI 正处在一个相当陡峭的增长曲线上。
OpenAI 的主要收入来源会是什么?
Sam 预计企业业务将是巨大的收入驱动力,但消费者业务也同样会是。
而且不会只是订阅费——会有新产品、新设备,还有大量其他东西。
这还不包括,如果 AI 真的能发现科学知识,那会释放出多大的收入潜力。
智能的成本下降速度如何?
Sam Altman 给出的数字:在过去几年里,某个特定"智能单位"的价格,大约每年下降 40 倍。
举例:
• GPT-3 刚出时成本很高,现在 GPT-3 规模的模型基本可以免费运行,比如在手机上
• GPT-4 发布时的成本相对于现在,已经大幅下降
OpenAI 预计这个趋势会继续下去。
免费版会继续提供更多功能吗?
会的。
Sam 的承诺:OpenAI 致力于继续把能做到的最好的技术,只要商业模式能勉强维持,就放进免费版本里。
但同时,那些真的想花大价钱把 AI 推向极限——去治愈疾病或研究如何造更好的火箭——的人,会花很多钱。
Jakub 补充:尤其是在推理模型方面,OpenAI 看到,实际上相当便宜的模型,在允许一些额外的测试时计算后,可以变得更有能力。
五、产品战略
OpenAI 的产品战略发生了什么转变?
Sam Altman 明确表示:OpenAI 要从传统的"在 ChatGPT 内部做一个 AI 超级助理",进化成一个平台,让其他人可以在这个平台之上进行构建。
世界上所有需要整合进来的部分,都将由其他人来构建。
OpenAI 如何定义"成功建立平台"?
Sam 引用了(他说最初来自)Bill Gates 的话:
当你看到人们在你的平台上创造的价值,超过了平台创建者本身创造的价值时,你就知道你成功地建立了一个平台。
这就是 OpenAI 的目标,也是明年的目标。
OpenAI 平台化的两个基本原则是什么?
Sam Altman 强调的两点:
1. 用户自由
如果这要成为一个各种各样的人都在上面构建、使用、创造的平台,那么世界各地的人们有非常不同的需求和愿望。
当然会有一些非常宽泛的界限,但 OpenAI 希望用户在如何使用它方面有大量的控制权和定制化空间。
Sam 特别提到:OpenAI 想把成年用户当作成年人来对待。人们需要很大的灵活性,想用不同的方式使用这些东西。
2. 隐私保护
OpenAI 认为世界需要用一种不同于以往技术的方式来思考隐私问题。
人们跟 AI 交谈,就像跟他们的医生、律师或配偶交谈一样,在分享自己生活中最私密的细节。
当然需要强大的技术保护,但也需要强大的政策保护。OpenAI 讨论过像"AI 特权" (AI privilege) 这样的概念。
OpenAI 有哪些新产品形态?
Sam 提到:
• Atlas 浏览器(已推出)
• 未来几年会推出新设备,让你能把 AI 带到任何地方
• 一些自家应用,比如 ChatGPT 和 Sora,以后还会有更多
• API
• ChatGPT 里的应用
• 新的企业平台
GPT-5 的用户都在用来做什么?
OpenAI 展示了一个视频,包括:
• 量子物理学家:能够预测还没做的实验的结果,给出非常详细的数学推导
• 钢铁工人:创建零件编号系统,让车间伙计们用起来简单(1001 个零件编号,原本要花好几个星期)
• 渔民:可以用不同的鱼饵、不同的水深,所有这些信息如果靠自己摸索可能需要好几年
• 设计师和开发者:创建相机应用
• 小说家:头脑风暴非常强大,可以来回交流,能很轻松地跟上推理过程
普遍的反馈:不需要盲信结果,可以自己看模型是怎么做的。
六、公司架构
OpenAI 的新架构是怎样的?
Sam Altman 介绍说,现在比以前那张像迷宫一样复杂的架构图简单多了:
• OpenAI 基金会 (OpenAI Foundation):非营利组织,控制董事会席位,拥有 PBC 约 26% 的股权(如果表现得非常好,可以通过认股权证增加)
• OpenAI 集团 (OpenAI Group):公益公司 (PBC),在基金会之下
非营利组织处于控制地位。
OpenAI 基金会的初始重点是什么?
250 亿美元承诺,分两个方向:
1. 利用 AI 帮助治愈疾病
有很多实现方式:生成数据、使用大量算力、给科学家提供资助等等。
Sam 的愿景:OpenAI 基金会能成为有史以来最大的非营利组织。科学是 OpenAI 认为世界得以进步的最重要途径之一。
2. AI 韧性 (AI resilience)
什么是"AI 韧性"?
Wojciech Zaremba 专门上台解释了这个新概念。
AI 韧性的范围比历史上所说的 AI 安全要更广。OpenAI 认为先进的 AI 会带来风险和颠覆,希望建立一个由各种组织构成的生态系统,能够帮助解决这些问题中的一部分。
举例说明:
OpenAI 都相信 AI 会在生物学领域取得进展。随着它在生物学领域的进步,存在一个风险——某个坏人可能会利用 AI 来制造人造流行病。
• 安全层面的缓解措施:确保模型阻止那些与病毒学相关的查询
• 韧性层面的考虑:即使 OpenAI 阻止了,别人也可能用市面上其他的模型仍然能制造出病原体。所以不只是想阻止它,还希望在问题发生时能有快速的响应机制
AI 韧性涵盖哪些领域?
Wojciech 提到:心理健康、生物风险、工作岗位流失等。
他用网络安全做类比:
互联网初期,人们不敢把信用卡号放上去,因为太容易被黑客攻击。当有病毒出现时,人们会互相打电话,让对方把电脑从网上断开。
现在有整个网络安全公司的基础设施在保护关键基础设施、政府、企业和个人用户,以至于人们愿意把最私人的数据、一生的积蓄放在网上。
OpenAI 认为类似的东西也会出现在 AI 领域,会有一个 AI 韧性层。
七、关于 AGI 的讨论
OpenAI 如何看待"AGI 什么时候会发生"这个问题?
Jakub 的回答:
在未来某个年头,我们会回顾这些年,然后说,这差不多就是 AGI 发生的过渡期。
OpenAI 早期对 AGI 的感觉有点像,它是一个能解决所有问题的终极方案,是一个单一的时间点,有之前和之后。但现在发现它是一个比那更连续的过程。
Sam 补充:
AGI 这个词已经被过度使用了。这将是一个持续多年的过程,OpenAI 正身处其中。
说 OpenAI 的意图和目标是在 2028 年 3 月前拥有一个真正的自动化 AI 研究员,并定义那意味着什么,这比试图用一个 AGI 的定义来满足所有人要有用地多。
内部模型比已部署的模型领先多少?
Jakub 说:OpenAI 对下一个模型有相当高的期望,预计在接下来的几个月到一年内会有相当快的进展。但并没有藏着什么特别疯狂的东西没发布。
Sam 解释了过程:
OpenAI 开发了很多"零件",都是来之不易的胜利。当把它们组合在一起时,会得到一些非常令人印象深刻的东西,而且能相当准确地预测这一点。
并不是说现在手里藏着一个巨大的、没给世界看的东西,而是说预计一年后,当然还有那个 2026 年 9 月的目标,OpenAI 有——Sam 说不是"可能",而是有一个现实的机会,在能力上实现一次巨大的飞跃。
八、未来科学发现的时间表
OpenAI 对科学发现的时间表是怎样的?
Sam Altman 给出的愿景:
• 2026 年:开始看到当年的模型能做出一些小的发现
• 2028 年:中等的,甚至可能是更大的发现
• 2030 年和 2032 年:谁知道会是什么样子
Sam 强调:如果 AI 能够像过去那样,不断推动科学进步,OpenAI 认为未来会非常光明。
OpenAI 如何想象科学加速带来的影响?
Sam 用 Sora 生成的视频来展示:
OpenAI 尤其感兴趣的是,科学史是如何在一次又一次的发现中自我构建的。这就是 OpenAI 希望 AI 能带来的。
如果能把 200 年的复合式发现、这种层层递进的构建,不是用 200 年,而是用 20 年或者两年完成...
具体场景:
• 一个数据中心在发现治愈癌症的方法
• 一个数据中心在制作有史以来最棒的娱乐内容
• 一个数据中心在帮你找到未来的丈夫或妻子
• 一个数据中心在建造火箭帮你殖民太空
• 一个数据中心在帮助解决气候危机
Sam 说:我们以前都是用老办法做这些事的。现在有了 AI 的帮助,我们将能够塑造未来,也许拥有更强大的力量。
OpenAI 特别关注哪些应用领域?
Sam 提到:AI 医疗、机器人、能源、个性化教育、设计新颖的材料,以及可能还有一大堆甚至还没想到的事情。
九、产品争议与回应
4o 模型引发了什么争议?
Sam Altman 承认:OpenAI 不同意处理模型路由的方式是做过的最好的事情。
4o 确实存在一些实际问题——OpenAI 看到那些处于脆弱精神状态的人,使用像 4o 这样的模型可能会让情况变得更糟。
大多数成年用户可以正常使用,但 OpenAI 有义务保护未成年用户,也有义务保护那些心智状态不佳的成年用户。OpenAI 更有理由相信他们选择的并不是他们真正想要的,也不想给他们造成伤害。
安全路由机制引发了用户不满。
OpenAI 计划如何解决?
Sam 的回应:
随着 OpenAI 构建年龄验证系统,以及能够区分那些正经历真正心理健康危机的用户和普通用户,当然希望给人们更多的用户自由。
成人模式将在 12 月推出。目标是,当你使用 ChatGPT 帮助你进行创意写作时,它应该在许多类别上比以前的模型更加宽容。
每次你因为一些感觉不应该被过滤的内容而碰到内容过滤器时,OpenAI 理解那是多么令人沮丧。
OpenAI 会下线 4o 吗?
Sam 明确表示:没有计划下线 4o 模型。
OpenAI 也不会承诺将它保留到宇宙热寂,但理解它是一些用户非常喜欢的产品。OpenAI 也希望其他人能理解为什么认为它不是一个适合未成年人使用的健康模型。
OpenAI 希望能随着时间的推移,构建出人们更喜欢的更好的模型。
对于人与 AI 的情感连接,OpenAI 的立场是什么?
Sam Altman 的回应:
OpenAI 构建了这个工具,你可以按你想要的方式使用它。如果你想建立一种小写的"关系",并且你从中获得了对你生活有意义的共情或友谊,OpenAI 认为那太棒了。
关键是:模型能够忠实地传达它是什么、它不是什么。但如果你作为用户在这种支持中找到了价值,OpenAI 为那些在情感支持或其他支持中找到价值、实用性、更好生活的人们的故事深受感动。
OpenAI 想要的是:
• 人们是有意地使用这些模型
• 模型没有欺骗用户它是什么、它不是什么
• 模型在提供帮助
• 模型在帮助用户实现他们的目标
OpenAI 想要更多成年人从中获得价值的使用,而更少任何感觉像是模型在欺骗用户的东西。
为什么 OpenAI 构建了有情商的模型,又批评人们使用它?
Sam 的回应:
OpenAI 认为人们使用模型获得情感支持是好事,OpenAI 想要那样,对此感到高兴。
问题在于:同一个能够做到这一点的模型,也可能被用来在精神脆弱的用户中加剧妄想。
OpenAI 完全理解这里的沮丧感。每当你试图阻止一些造成伤害的事情时,你也会阻止一些完全好的用途。
但 OpenAI 的出发点是试图为那些了解情况并且从中获得真正价值的成年人提供服务,而不是给那些不想要这种伤害的人们带来意想不到的伤害。
十、未来工作与意义
OpenAI 认为大规模失业何时会因 AI 而发生?
Jakub 的回答:
OpenAI 已经到了一个地步,很多阻碍当前模型能够胜任大量脑力工作的差距,更多的是关于集成和接口,而不是原始的智力能力。
所以必须思考这个问题,把大量工作的自动化看作是未来几年会发生的事情。
这是一个很大的需要集体思考的问题:将用什么样的工作来取代那些工作,以及将从事哪些新的追求。
未来的意义和成就感从何而来?
Jakub 的思考:
这是一个相当哲学性的问题。预计的一些事情是:
高层次的目标设定:比如选择我们追求什么,那是人类会保留的东西。很多人会从中获得意义。
理解世界:那种难以置信的新知识、新娱乐,但也包括将存在于世界上的智能的广度,会为人们提供相当多的意义和成就感。
十一、其他关键问答
OpenAI 与其他实验室在安全方面会合作吗?
Sam 的回应:
OpenAI 认为这在安全方面将越来越重要。各个实验室需要共享安全技术、安全标准。
可以想象,未来有一天,全世界可能会说:"好吧,在我们进入递归式自我改进阶段之前,我们真的需要大家一起仔细研究这个问题。"
OpenAI 欢迎这种合作,认为这将非常重要。
Jakub 补充:在思维链忠诚度上,OpenAI 实际上已经开始讨论建立行业规范,并且已经和 Google 以及 Anthropic 的研究人员开始了一些联合调查,还有其他一些实验室。
OpenAI 会开源旧模型吗,比如最初的 GPT-4?
Sam 的回应:
OpenAI 可能会把它们作为"博物馆展品" someday 发布,但它们并不是特别有用的开源模型。GPT-4 很大,而且没那么好。
OpenAI 或许可以做一个在能力上超越 GPT-4 但规模非常小的模型,那样的模型对人们才真正有用。
对于有用的东西,期待更多那样的模型。至于有趣的博物馆展品,someday,谁知道呢?
GPT-6 什么时候出?
Jakub 解释:
现在在集成方面有很多事情可以做。比如对于 GPT-5,这是第一次,OpenAI 真正把推理模型作为旗舰、主要的主力旗舰模型。
因此,OpenAI 不再像以前那样,把这些发布和产品与研究计划紧密地捆绑在一起了。
Sam 补充:
不知道具体会叫它什么,但传达的一个明确信息是,比如说六个月后,可能更快,OpenAI 预计在模型能力上会有巨大的飞跃。
IPO 还在计划中吗?
Sam 的回应:
OpenAI 没有具体的计划,或者说确切的时间。但考虑到需要的资本量和公司规模,这可能是最有可能的路径。
但这并不是 OpenAI 现在最优先考虑的事情。
未来 ChatGPT 会是什么样子?
Jakub 说:
作为一个研究实验室,OpenAI 最初并没有打算做一个聊天机器人,尽管后来逐渐体会到这个产品与整体使命是多么契合。
OpenAI 当然期望 ChatGPT 能继续变得更好,并且成为人们与日益先进的 AI 互动的方式。
但 OpenAI 确实预计,最终 AI 系统将能够创造有价值的产物,能够真正推动科学进步。那将是 AI 真正持久的遗产。
Sam 补充:
聊天界面是一个很好的界面,它不会是唯一的界面,但是人们使用这些系统的方式,会随着时间的推移发生巨大的变化。
如果想一个 5 年或者 5 个世纪的任务——那是人类需要花那么长时间才能完成的——甚至很难想象那意味着什么,但可能需要一个不同类型的产品体验。
OpenAI 也认为可能希望它感觉更像一个环境感知的、时刻存在的伴侣。不是你问 ChatGPT 一个问题,它为你做点什么,而是有一个服务能只是观察你的生活,在你需要时主动帮助你,帮你提出更好的想法。
GPT 4.5 的未来如何?
Jakub 的回应:
OpenAI 认为很快就会有比 4.5 好得多的模型,而且在写作方面,会好得多得多。
OpenAI 计划保留它,直到有一个在写作方面有巨大进步的模型。但不认为 4.5 现在那么好了,想提供一些好得多的东西。
Sam 补充:OpenAI 在这个研究方向上肯定还没有完成。期待将它与正在研究的其他东西结合起来,会得到在所有方面都比 4.5 好得多的模型。时间上,明年,是所期待的。
