index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
本文深入探讨了当前 AI 领域的热点话题“AI Bubble”。文章从 OpenAI 宏大的资本支出计划出发,分析了算力、数据中心 ROI,并讨论了 AI 技术范式的潜在风险。尽管 OpenAI 的 1.4 万亿美元 CapEx 计划面临财务挑战,但作者指出,市场更应关注大型科技公司(Mag 7)真实的 CapEx 投入和盈利能力。文章还探讨了算力需求持续扩大的原因,包括模型竞争的激烈以及推理需求的爆发。同时,作者认为数据中心建设的 ROI 可控,并类比互联网泡沫时期的“暗光纤”指标,指出当前 GPU 并非闲置状态。最后,文章展望了 AI 的商业化前景,分析了订阅制、按量收费及电商广告等模式,并探讨了 AI 进步可能带来的“黑天鹅”事件,认为当前 AI 发展仍处于可理解和可定价阶段,市场可能高估短期,低估长期。
🚀 **OpenAI 的巨额资本支出计划与市场担忧:** OpenAI 提出的 1.4 万亿美元 CapEx 计划引发了对 AI 泡沫的讨论。尽管该计划在财务上极具挑战,但分析显示,大型科技公司(Mag 7)真实的 CapEx 投入和稳健的现金流表明,AI 基础设施建设仍在有序推进,市场更应关注实际投入而非宏观计划。
💡 **算力需求持续增长与模型竞争:** AI 算力需求仍在不断扩大,这主要得益于激烈且快速迭代的模型竞争,以及推理侧需求的爆发式增长。模型能力的持续提升和 Agent 等新应用场景的出现,都驱动着对更强大算力的需求,尽管边际进步可能放缓,但参与者普遍不愿意落后。
📊 **数据中心 ROI 可控与 GPU 并非闲置:** 数据中心的建设 ROI 被认为是可控的,并且当前市场上的 GPU 并非闲置状态。与互联网泡沫时期的“暗光纤”不同,AI 领域的 GPU 需求强劲,AWS Spot Instance 的价格波动也印证了算力的紧张。更准确的泡沫指标应关注实际需求创造的增量收入是否与 CapEx 合理匹配。
📈 **AI 商业化前景多元与用户增长潜力:** AI 的商业化前景广阔,订阅制、按量收费以及电商广告等多种模式并存。文章指出,AI 的用户渗透率在全球范围内仍有巨大增长空间,且用户单次使用 Token 数量也在指数级增长,为 AI 商业化提供了坚实基础。AI 在企业降本增效和数据利用方面也展现出巨大价值。
❓ **AI 进步的“黑天鹅”与长期价值:** AI 发展中最具不确定性的“黑天鹅”事件是出现颠覆性模型机制,但目前 Transformer 架构仍是主流,AI 发展仍处于可理解和可定价阶段。文章认为,AI 是一场真实的长期生产力革命,市场可能高估短期波动,低估其长期潜力,当前投资性价比有所下降,但泡沫顶峰尚未到来。
原创 Best Ideas 社群 2025-11-14 14:52 北京
宏观环境可能是更重要的影响因素

内容 Cr.:拾象 Best Ideas 社群 AI Bubble 毫无疑问是近两个月几乎成为和 AI 相关最热的话题之一。无论是 OpenAI 1.4 万亿美元的超大规模 CapEx,还是 Mag 7 巨头持续攀升的 CapEx,都让市场再次想起二十年前“光纤铺满世界”的泡沫隐喻。这一次是否会不同?在这样的背景下,我们组织了一场聚焦「AI Bubble」的 拾象 Best Ideas 讨论会,沿着 OpenAI 和 M7 的巨额 CapEx、算力周期,数据中心的 ROI、以及 AI 技术范式的潜在黑天鹅等话题进行了理性讨论。本篇内容是对讨论的系统整理与精华提炼。我们希望它不仅是一份对当前 AI 投资阶段性问题的复盘,也能帮助大家更清晰地理解 AI 进程。每一次技术革命,市场往往会高估短期,低估长期,也正如Coatue 在最新报告中所强调,表示 AI 是一次真实且长期的生产力革命,过分纠结于短期回调会付出极高的机会成本。 关键问题 1:OpenAI 的 1.4 万亿 CapEx 意味着什么?在一系列“循环交易”之外,最近又一个引起 AI 泡沫讨论的触发事件是 OpenAI 提出的 1.4 万亿 CapEx:Sam Altman 在 10 月的一次直播中表示,OpenAI 要建立约 30GW 的计算资源,对应的资本投入规模约 1.4 万亿美元。Sam Altman 还提到 OpenAI 在 2027 年会达到 1000 亿美元的营收目标,也就说 OpenAI 营收从百亿到千亿美元只需要两三年。客观来说,这是从未见过的变现速度,如果用互联网时代经典产品商业框架去分析 OpenAI 的付费率、DAU 等指标,这个目标大概率是无法实现的。因此,市场上都在猜测 OpenAI 无论如何都会在未来一两年内加速融资和变现。Sam Altman 在 X post 上表示希望美国政府支持 AI 基础设施建设。这里可以先对 OpenAI 现金流做一个简单测算:假设 OpenAI 在 2033 年实现 4000 亿美元的收入,并在 2029 年开始现金流转正,OpenAI 最多只能拿出约 2000 亿美元的现金。这意味着,OpenAI 需要融资 1.2 万亿美元才能填补 1.4 万亿美元的 CapEx 缺口。但这个缺口是没办法填上的。以 2024 年的 Mag 7 公司现金情况为例,在没扣除 CapEx 的前提下,Mag 7 账上现金总额约为 5000 亿美元,经营现金流之和约 6500 亿美元,换句话说,这些公司加总的现金流还不到 1.2 万亿美元。Data source: Company financial reports; analysis powered by ChatGPT.但需要指出的是,OpenAI 能否完成 1.4 万亿美元的计划,和整个市场是否存在泡沫,其实是两个需要区分的问题。相比 OpenAI 的 1.4 万亿计划,华尔街更看重大厂真实的 CapEx 投入。虽然 OpenAI 的 CapEx 计划从财务角度确实极具挑战,但如果看其他大厂 AI 业务进展, 今天 AI 的进展和表现仍然偏乐观:• Mag7 公司从 2023 年以来基本都大规模提升了 CapEx,且大部分 ROIC 都提升了。Data source: Company financial reports; analysis powered by Manus.• 自 2005 年以来,美国标普 500 公司的 CapEx 占现金流的比例平均约为 46%,远低于 1990 年代的 70-80%,也就是说,虽然 CapEx 增大了,但这些公司的盈利能力也变强了,现在这个比例依然处于一个比较健康的区间。• 今天美国科技巨头每年扣减 CapEx 后大概能产生~5000 亿美元的自由现金流(FCF),账上还有 ~3000 亿现金储备。因此它们现在每年有~8000 亿美元现金做缓冲,并且还要考虑到每年的现金流增长;也有不同的观点认为,动态来看,虽然 Mag 7 过去的利润率非常高,如今却逐渐演变为类似台积电的重 CapEx 商业模式发展,因为未来它们可能不得不与 OpenAI 等 AI 公司争夺共同的流量入口。一旦这些大厂在这轮竞争中落败,原有的盈利能力将受到严重挤压,因此,存在 2026 年起,部分公司甚至可能需要投入超过 100% 的自由现金流用于 CapEx的情况,从结果来看,一些Mag 7 的 ROE 已经开始出现下滑,估值也应该相应降低,但实际上这并没有完全体现在市场定价上。
Data source: Company financial reports; analysis powered by ManusOpenAI 和 Anthropic 两家 AI labs 同样也在经历市场对其估值的质疑。接下来市场心态反转的关键因素可能在于 2026 年 OpenAI、Anthropic 等公司的收入能否达到它们目前宣称的水平。如果业绩达到,当前的高估值仍有机会被消化,但如果业绩无法兑现,要让华尔街重新建立强烈信心将会非常困难。市场对 AI 进程的心态其实已经反映在了债券价格中:例如,xAI 的债券利率从 12% 提高到 13% 才成功发行;OpenAI 的借款成本约为 6%;而 Google 的发债利差也在 SOFR 基础上增加了 60 个基点。Source: CNBCMeta 与 Blue Owl Capital 最近的合作同样吸引了很多关注:Meta 只需出资 20%就能共同投资一个数据中心,其余 80%资金来自外部投资者或国家资本。关键问题 2:为什么算力投入规模还在扩大?Nvidia 黄仁勋在最近的 GTC 上提到从现在到 2026 年底,Blackwell 加上 Rubin 的订单金额会在未来五个季度内达到 5000 亿美元,这个数字意味着,即使按五个季度平均分配,每个季度也有 1000 亿美元的订单规模,而英伟达上个季度(截至 2025 年 7 月 27 日的 Q2 2026 财季)的收入仅为 467 亿美元。也就是说,未来英伟达每个季度确定的需求至少是最近季度的两倍。在前段时间的云栖大会上,阿里也表示未来十年阿里云全球数据中心的能耗规模将提升 10 倍。假设折旧期有四年,每年的 CapEx 实际增长将近 30%,10 年后每年的 CapEx 将变成当前水平的 9-10 倍。由此带来一个问题:为什么已经投入这么多 CapEx 后 AI 基建投入规模还在不断加大?1. 模型竞争远没有停止2025 年模型竞争仍旧非常激烈。几乎每个季度都会有新的 SOTA 模型出现,但这种领先地位往往维持不到一个月,和 2023、2024 年每半年出现 SOTA 模型的周期相比,模型能力提升周期急剧缩短。虽然大概率相当长一段时间内,模型仍会停留在工具层面,或者处于 L2 到 L3 之间,但模型的能力在未来一段时间可以提升这个事情还是有很强确定性的。因此,未来前沿 Labs 还是会投入大量的算力,且会以 training compute 为主:• Meta、xAI 等玩家需要靠大量的算力去快速追赶、跟随最一线的 labs;• 头部的 labs 在现有路径之外,还得要去探索一些新的范式。尤其是从历史经验来看,scaling law 带来的 Magic Moments 也值得继续投入:• 2025 年初 Anthropic 明白怎么做 pre-training 之后,Claude 3.7、Claude 4 等模型都在 coding 和 agent 的能力上明显领先,Anthropic 今年可能有百亿美金收入;• OpenAI 明白怎么做 reasoning 之后,到目前为止 OpenAI 所有的模型、能力都是基于 reasoning 在做,OpenAI 今年可能有 8、9 亿的 WAU;• Google 解决了很多 pre-training 的 bug,2025 年上半年就重新回到了模型第一梯队,甚至今年年底模型会做到 SOTA。此外,训练投入属于 R&D 类型支出,影响因素更多来自宏观环境(如利率变动)、市场参与者的实力以及他们在不同情况下是否愿意退出,同时还要考虑模型前沿的边际进步是否在持续。更进一步,如果模型技术真的发展到全新范式,整个互联网科技行业的格局都可能被重构,因此巨头更不可能轻易退出。尤其考虑到目前巨头的资产负债表和现金流状况远比 2000 年互联网泡沫时期稳健。也就是说,即便模型训练的 ROI 可能在下降,但只要边际仍在变好,再加上任何参与方都不愿意在 AI 上落后,训练所带来的算力需求就无法用传统商业逻辑去衡量。Bear case 出现的可能性在于:如果 12 月不降息反而加息,或者巨头发现训练边际进步非常有限而决定停止投入,那才会对整个 AI 需求和行业发展趋势产生重大影响。2. 推理爆发是需求增量除了模型训练端,推理侧算力需求前景也是偏乐观的,核心大逻辑在于 AI 应用落地和已经被初步验证。对于今天的模型能力来说,如果做好 Context、UI 以及产品 Workflow 的设计,就可以解锁很多应用场景,随着 Agent 的 tool Use 能力增强,预计 2026 年还有多模态应用的爆发。Nivida 曾提出过每年 token 成本可能下降 10-100 倍的估算,考虑到现在所有大厂都在做模型软件和硬件的优化,所以推理成本只会降得越来越低,而一旦推理成本降低势必会带来需求爆发。虽然模型的单 Token 成本确实在下降,但像 Cursor 这样的产品毛利率仍然为负的原因在于,用户总是希望在产品中使用最新模型,导致每次刚刚节约下来的成本就会被最新的模型消耗掉。因此对于产品来说,一直在使用的模型的成本其实没有下降,而且正是由于推理毛利率不够高,导致模型公司短期内往往有很大现金流压力,这也是现在要计算 OpenAI 1.4 万亿能否实现的原因之一。此外,2024 年 o1 模型推出后,reasoning 成了一个非常重要的 scaling law,同样的任务原来可能要消耗 10 个 token,现在要花 100 倍 token。短期内,这让所有任务都变得非常昂贵,要消耗大量算力,这覆盖了芯片层面的很多进步以及成本节约措施,也就是说,虽然芯片从 Hopper 到 Blackwell 进步了 30-50 倍,但芯片层面的成本节约也会被推理层面的成本激增所抵消,市场基本没有感受到成本下降。Nvidia 黄仁勋在今年 3 月 GTC 上提出的“三个 Scaling Law”3. 数据中心建设 ROI 可控所以 AI 基金还会持续投资的逻辑在于:AI 目前没有大的质变,但也不至于崩盘,所以依赖行业 beta 的公司可能就会出现横盘或者跟着市场信息震荡,因此所有市场投资人都会把焦点都会集中在 AI 价值链上最紧缺的环节,这是今天存储、算力储能还在继续上涨的原因,因为最终这些要建设的项目还是得继续推进。在数据中心的建设上,云厂商是否建设、在哪里建设、是租赁还是自建,需要综合考虑负债率、不同数据中心的电费和地理位置差异,以及网络差异等因素。简单来说,ROI 是可以计算的,但不同数据中心之间的成本和折旧摊销差距非常大。比如,很多云厂商会选择建设用于推理业务的数据中心,因为虽然电费角度可能贵 1.3-1.4 倍,甚至贵 2 倍以上,但时延更短。如果以业务推理为主,建设这样的数据中心会有更好的 ROI。关键问题 3:LLM 时代的“暗光纤”指标出现了吗?2000 年互联网泡沫时有一个标志信号是 dark fiber(暗光纤)的数量,“暗光纤”指是光纤铺设后没有点亮使用,在当时美国电信公司新铺设的光纤中有 97% 是暗光纤。如果以暗光纤的逻辑评估 AI 泡沫,等价于现在的 GPU 有 90%或者 70%以上是闲置的,但实际上,现在市场上找不到闲置的 GPU。AWS Spot Instance 价格可以作为理解 GPU 空闲率的参考,GPU 空闲率衡量了在 24 小时内有多少分钟能够租到空闲 GPU,当 GPU 最紧缺时,这个数字是 0%;当 GPU 用量最宽松,也就是在任何地方都能租到 GPU 的时候,这个数字是 100%。AWS Spot Instance 价格是 Amazon EC2(Elastic Compute Cloud)的一种计费模式中所使用的价格。它代表了 AWS 的可用空闲计算资源的市场价格,在 Spot 模式下,AWS 会利用空闲的计算容量向用户提供低于 On-Demand Instance 价格的计算资源,并且 Spot 价格是价格是浮动的,根据供需关系自动变化。
而有观点提到这个数字在 10 月份左右还是 5%左右,说明今天的算力供应仍就非常紧张,远不到闲置的状态,至少在云服务市场上是没有闲置 GPU,因为本地部署 GPU 的情况与云市场不同,苹果等很多大企业可能会将 GPU 用于训练,但使用并不连续,因此出现闲置,但这不能算作真正的闲置。更进一步,用互联网泡沫时期的“暗光纤”来类比当下或许本来就是一个思维误区。1999 年的市场生态与现在完全不同。当时市场结构更简单,运营商购买光纤铺设后直接面向消费者提供 30 或 50 美元每月的套餐,光纤没有被点亮是因为错估了真实需求。而今天 AI 市场的生态复杂度远比当年高。今天 GPU 已成为生产资料,所以更准确的标志信号不应该是 “GPU 是否点亮”,而是投入这么多 CapEx 之后,真正需求创造的增量收入在哪里,这个收入对应 CapEx 是否合理。如果要从历史视角找到参考的话,除了暗光纤,企业违约情况也可以作为泡沫的观察指标。互联网泡沫和 2008 年次贷危机本质上都存在违约情况。当时光纤企业破产涉及的债务不到千亿级别,2008 年雷曼兄弟有 6000 多亿债务。如果这一轮出问题,肯定会有一个或多个代表性企业出现万亿级别的债务违约。关键问题 4:AI 能增长到什么程度?所有围绕 CapEx、ROI 的讨论背后都隐藏着一个“AI 到底能长多大”的商业化预期的问题。更直白来说,OpenAI 已经有接近 5 亿用户,但它能否成长为 Meta 一样有 30 亿 DAU 的规模?AI 商业化之所以广受关注,是因为目前市场对 CapEx 投入的预期很高,对现有的 ChatGPT 等产品以及一级公司在 2026 年的预期都处于顶部,但从正在训练的下一代模型能力来看,未来 6-12 个月内不会有全新场景的解锁,不会出现像 2025 年 Agent 爆发那样的现象。因此,目前最大的问题是如何在几年时间内,把每家公司千亿美元级别的 CapEx 赚回来。我们在前面提到,中美大厂在加大 CapEx 的同时,收入利润表现都很好?核心原因在于 AI 给大企业带来的收入增长、成本节约和利润增长都比较隐蔽,很难从 C 端用户或者终端应用看出来,类似于 Coatue 报告中提到的“直接”和“间接”收益:• 降本增效:截止 2025 年 10 月,美国约有 110 万人失业,比 2024 年同比增加了 65%,这其实就是成本节约,与此同时,大量企业因为 AI 缩减了新的招聘需求,这也是效率提升的表现;• 大量传统企业已经开始使用 AI:之前国内许多企业虽然通过各种信息工具积累了大量数据,但缺少对话界面,导致无法有效利用这些数据来提升公司运营效率,大模型的出现相当于为这些企业添加了一个非常方便的 UI。这也解释了为什么阿里云 2025 财年 Q3 AI 相关业务同比增长达 100%,而传统云服务业务增长仅约 10%。在 2025 财年第 3 季度(截至 2024 年底),阿里云整体收入同比增长约 13%,其中 AI 相关产品实现了超过 100% 的同比增长。
黄仁勋提出过一个双重指数级增长逻辑:1. 首先是用户数量的指数增长目前市场可能高估了当下 AI 的渗透率,因而对 AI 的市场空间产生悲观:• 美国当前 AI 渗透率今天可能在 ~40%,相比互联网或 PC 90%以上的渗透率,AI 渗透率至少在美国还有翻倍空间;• 中国的渗透率比美国低得多,即使将豆包、元宝、DeepSeek 等用户数据全部去重后,整体 MAU 还不到 2 亿,渗透率可能不到 20%;• 中美之外的全球渗透率更低,可能只有 5-10%,全球用户渗透率从 5-10%提升到 90-100%就有大约 10 倍的空间。大量资本涌入的真正节点,通常出现在技术被更广泛接受之后,也就是普及率突破 30-40%,到了甚至连原本不熟悉 AI 的人也能轻松使用的时候。所以从用户视角看 AI 离泡沫也还很远。2. 其次是单个用户单次使用 Token 数量的指数增长:简单来讲,有了 Deep Research、Agent 等模式后,用户单次查询的 Token 使用量会明显提升。比如,就有人表示自己过去 6 个月在大模型平台上的非编程代码类支出增长了约 20 倍,这个数字还不包括在 Replit 上做网站、购买域名等费用。具体来看,个人的支出增长主要来自 2 个方面:• GPT-5 Pro 和 Google Deep Think 等产品的单价提升:这些产品的 token 单价大约是 GPT-5 thinking 版本的 15-20 倍以上,接入的上下文也更长,单次会话的 API 使用费用普遍在 1-3 美元之间,比 GPT-5 贵了一倍。• 各类 agent 应用的使用:虽然 agent 本身还不够完善,但目前已经有一些效果较好的应用场景了,比如 Excel 处理。在 OpenAI 或者 Anthropic 支持的优质产品里,定价普遍在每月 200 美元,ARPU 的提升非常明显,从目前来看,很多场景确实能够收取比之前高 20-30 倍的费用。从具体商业模式角度来看,AI 产品的商业模式主要三种:订阅制、按量收费(即 AI 开始替代部分程序员工作从而替代部分工资),以及广告或电商,我们在下面展开分析。支持 AI 没有泡沫的观点指出,目前除了模型在亏损,其他环节都还在盈利,整个 AI 产业链还没有出现大问题。以蓄水池打比方的话,这个水池有多个入口,目前除了电力类的,总体每个入口还算安全。但是会有可能在某一个环节、某些企业存在泡沫。但认为今天 AI 已经出现泡沫的观点则认为目前模型公司或者前端应用大部分都在亏钱,商业模式是不够健康的。未来可能的情况是,订阅制可以覆盖掉 80%值钱的能力,能收高价的还是偏 SOTA 的能力,但一年前能够按用量收费的 SOTA 模型,可能一年后就只能用订阅制收费,再过一年可能就全文免费了,所以第三种商业模式中能替代程序员工资部分的收入可能没有预期得那么大。1. 订阅制AI 的代表性产品 ChatGPT 目前已经有 5 亿 DAU,接近 10 亿 MAU,如果从订阅收费的视角来看,今天的 AI 产品可能已经覆盖了大量知识工作者,尤其是欧美地区的知识工作者,因此要持续提高订阅制的客单价是非常困难的。从历史上,针对大众用户的订阅制产品提价能力往往比较弱,因为虽然模型能力提升了,但 token 成本变便宜了,所以认为 AI 有泡沫的人会认为,大概率大部分付费用户还是维持 20 美元的价格,只是 20 美元能买到的能力越来越多。此外,即便是收入在纽约前 25% 的人也不太有可能每个月在 AI 产品上花费 200 美元,一个月也没有 200 美金可以花在 AI 产品上。这也是为什么随着互联网产品交付的功能、提供的生产力一直在变多,但长期来看,这些产品是不涨价甚至降价的。而且,如果用户要付 2000 美金一个月,那这个人大概率是企业主或者老板,那么产品能够覆盖的用户规模会进一步缩小。因此,AI 产品要收到高价,AI 必须能自主干活,也就是达到 L4 的状态。对比特斯拉自动驾驶,自动驾驶软件在 L2.5 时代卖不上高价,或者是和硬件打包低价出售,到了接近 L4 的水平才能收 99 美金一个月。而且,AI 发展的过程中,由于竞争、Sam 要提高产品 DAU,可能还会选择降价,甚至免费能力会越来越多且越来越够用。总体来看,订阅制模式的收入规模已处于相当高的水平,以目前的用户体量计算,面对数亿订阅用户、每人每年支付数百美元的费用,整体收入已达到数百亿美元。2. 按量收费按量收费的逻辑是,市场上有大量程序员,AI 替代他们的工作,就能分走他们的工资收入。然而这一假设存在明显漏洞,也是部分人认为 AI 有泡沫的原因之一:AI 虽然能完成更多工作,但这并不意味着能直接分摊相应的工资,因为 AI 带来的最大影响是原来值钱的工作变得不值钱了。3. 电商及广告ChatGPT 从最近几个月开始围绕电商、广告进行投入布局这一领域,考虑到广告和电商是互联网领域最重要的商业模式,是否会给 AI 商业化带来 upside 自然也成为一个重要问题,但随之而来的另外一个问题是,AI 的广告和电商是创造增量还是抢夺存量?一部分论调认为,因为电商总体规模和渗透率息息相关,广告也受制于整体在线交易带来的广告比例,因此这两块的增量蛋糕相对没那么大,更多是分存量蛋糕,这也是为什么 Meta、Google、字节都要把产品做起来,去防御 OpenAI 带来的潜在竞争。但也有观点认为电商、广告是能带来增量市场的。以 ChatGPT 为例,2026 年 ChatGPT 的 DAU 可能达到 10 亿人。如果每位用户每天平均提出 3-5 个问题,总 query 量将达到 30-50 亿次。作为对比,Google 当前的每日 query 量约为 150 亿次,意味着 ChatGPT 的规模将达到 Google 的 1/3 或者 1/5。Google 的 query 中商业化导向的占比很高,尤其集中在导购、商品推荐和旅行规划等领域,但 ChatGPT 的 query 比 Google 的更细,内容匹配度可能会更高,意味着广告精准度、广告价值会有提升。一些海外 DTC 品牌的实践中也已经观察到在电商自然流量里来自 ChatGPT、Gemini 的流量占比开始出现,且相当高,而目前 ChatGPT、Gemini 都没有专门针对电商流量做优化,一旦 OpenAI 针对有电商意图的 query 做更精细化的运营或流量优化,电商市场可能会比预想的空间更大。需要指出的是,从实际的增长曲线来看,ChatGPT 并未明显分流 Google 的自然流量。尽管 Google 的基数远高于 ChatGPT,但双方的流量增速曲线斜率基本一致,也就是说 2025 年 Google 自然流量的增长速度并不比 ChatGPT 低。AppLovin 这样的公司之所以成功,核心理念就在于广告是创造经济增量的。所以如果 ChatGPT 在精准化上能做得更深,是可以创造出增量,本质上就是对用户更了解后,能激发出很多可选消费,而不是纯粹去抢 Meta、Google、亚马逊的生意。关键问题 5:AI 进步的“黑天鹅”是什么?AI 存在泡沫的前提假设是技术进步呈双曲线式加速,并伴随难以预测的风险事件。但从现状来看,AI 的发展虽快,却仍处于可理解和可定价的阶段。AI 的“黑天鹅”是如果出现一种全新的模型机制,能以更低成本达到超越 Transformer 的效果,那么现有技术体系可能会被颠覆。在这种情境下,对冲方式就是买 CSP 做空电厂,或者买半导体设备做空 AI 服务器。但只要 Transformer 加上强化学习这条主线仍能持续演进,AI 就难以被称为泡沫。相较之下,反而是自动驾驶、VLA 等领域更可能存在估值虚高的风险。而在今天现有的技术路线能否继续推进这个问题上同样存在分歧。认为 “AI 存在技术黑天鹅”的人认为:• 虽然对 AI 长期价值丝毫不质疑,但现在对 pre-training 加上 RL scaling 这条路径能否到达 AGI 或者 ASI 开始有一些质疑,这可能是 Ilya 开始探索另一条路径(比如 online learning、self-learning)的原因。• 从目前的进展来看,虽然 Transformer 这一路径可能会让 AI 在知识层面超越绝大多数人类,但还不能真正端到端完成具备经济价值的任务,这条路线在某种程度上正面临和自动驾驶一样的瓶颈:模型能在具备明确数据分布的场景中表现出色,但在缺乏数据分布的情境下,仍然需要先大量采集和标注数据,再压缩进模型,才能获得可靠结果。这也解释了为什么近期数据标注公司(如 Mercor、Surge)发展非常快速。如果从类人脑的视角来理解 AI 的演化路径,目前 AI 的技术路线可能就是终局,这样发展下去至少能取代很多人的工作,再加上宏观环境、巨头的现金流以及国家意志的支持,AI 故事一定会继续,并且在 5-10 年后投资能够回本。更激进一点来看,Sam Altman 曾表示 OpenAI 现在的重大决策不是基于现在的产品能力,而是基于 1-2 年之后模型能力会有很大质变,那 AI 泡沫就更加不可能发生。Sam Altman 说的质变指的就是下一代 learning 范式,我们猜测,核心是模型的 Online learning 能力,这是在 pre-training 和 RL scaling 之后最有可能的发展方向,虽然目前前沿 labs 在具体实现方法上还未达成一致,但在未来 3-6 个月,也就是明年夏天之前,市场是能看到积极信号的。因此,如果乐观一点看,现在这个时间点可能正处在草莓模型或 o1 诞生前半年。但需要注意的是,Andrej Karpathy 最近在采访中表示,人脑不是一个 pre-training 的过程,而是一个生物进化(evolution)的过程。人脑变强的过程更多是大脑成熟(mature)或生长(growth)的过程,而不仅仅是学习的过程。但现在的 AI 模型没有这样的进化过程,它基本上是通过 pre-training 把所有东西压缩起来,做一个非常高度的总结。因此,Andrej 认为这更像是一个 ghost,而不是真正的人脑,因此 AGI 到来的时间点不会像 Sam Altman 预测得那么乐观。事实上,从 Sam Altman 与微软的协议上也可以看出,微软也不认为 AGI 会很快到来。如果这个判断成立,那又回到了现在是否存在过度投资的问题。目前最有可能的情况是:市场会高估短期,低估长期,中间仍需经历波动与调整。当然,也有人表示,所谓泡沫更多是从资本市场的角度来定义的,与底层技术的真实进展并没有直接关系。以互联网为例,初期确实涌现了大量新技术,当时的投资决策相对理性,但在市场普遍认为互联网浪潮接近尾声时,投资突然变得非理性了。相比之下,目前英伟达的 P/S 倍数不到 30 倍,说 AI 存在泡沫并不合理,只能说当前投资的性价比有所下降。而且,当互联网产品主要局限在高知识的专业工作者或研发人员之间的时候,是很难出现泡沫的,因为这些人都是非常理性的。而当互联网开始被大众熟知,再叠加降息的环境,反而容易造成泡沫。目前模型能力、应用的进展较为平稳,没有突变,考虑到宏观环境等因素,可能在 OpenAI 上市前后才是泡沫的顶峰。 排版:夏悦涵延伸阅读Leogra AI:BVP 投资的欧洲版 Harvey,给每位律师配一位协作 Copilot
对谈 Sora 核心团队:Sora 其实是一个社交产品,视频生成模型会带来科研突破
联手 OpenAI 发布 ACP,Stripe 是如何思考 Agent 支付的?
Coatue 最新报告:复盘 400 年、 30+ 次泡沫,我们离 AI 泡沫还很远
领投 Ilya 新公司,13 年净 IRR 33%,Greenoaks 的科技投资哲学
阅读原文
跳转微信打开