index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
![]()
OpenAI 近期与 AWS 达成 380 亿美元的算力协议,引发市场对其基础设施建设的广泛关注,据传其总投入已逼近 1.4 万亿美元,预示着 OpenAI 欲摆脱对微软的依赖。然而,行业报告显示,在企业级 LLM API 实际使用量方面,Anthropic 以 32% 的份额悄然领先,而 OpenAI 的市场份额则从近乎垄断的 50% 下滑至 25%。尽管 OpenAI 在开发者采用率上仍占据主导地位,但企业 API 支出更能反映市场实际消耗。Anthropic 通过在数据控制、合规性和系统集成方面的优势赢得了企业信任,特别是在代码生成领域表现突出。尽管如此,OpenAI 的“万亿 Token 俱乐部”客户显示了其在工业级应用中的巨大潜力。面对 OpenAI 推出的竞争性产品,企业正倾向于采用“多供应商设置”以降低风险。
💰 OpenAI 巨额算力投入:OpenAI 与 AWS 达成 380 亿美元算力协议,并与多家科技巨头签订合作,基础设施总投入或达 1.4 万亿美元,显示其构建独立算力基础的决心。
📊 Anthropic 企业市场份额领先:行业报告指出,在企业级 LLM API 实际使用量上,Anthropic 以 32% 的份额超越 OpenAI 的 25%,表明其在企业级应用中获得了显著进展,尤其在数据控制和合规性方面更受认可。
🧑💻 开发者采用与企业支出的差异:尽管 OpenAI 在开发者 SDK 下载量上遥遥领先,但在企业 API 支出方面 Anthropic 更胜一筹,这说明开发者多在进行学习和测试,而企业级应用则更倾向于 Anthropic 的服务。
🏢 企业客户的精明选择:随着 LLM 主战场转向大规模推理,企业客户更加关注系统的稳定性、成本效益和安全性,推动了“多供应商设置”的趋势,例如 Notion 同时采用 Anthropic 和 OpenAI 的模型。
🌐 OpenAI 的“万亿 Token 俱乐部”:OpenAI 披露有超过 30 家客户年消耗 Token 超过 1 万亿,这些“巨鲸”客户主要包括 AI 原生新贵、AI 深度嵌入、Token 加工商和 To C 高频多模态应用,显示了其在特定场景下的巨大消耗量。
🔪 OpenAI 推出竞争性产品引发担忧:OpenAI 发布 AI 浏览器 ChatGPT Atlas,直接与部分大量消耗其 Token 的初创公司形成竞争,加剧了市场对平台垄断和“绞杀”的担忧,进一步促使企业考虑多供应商策略。
原创 小鹿 2025-11-04 11:47 北京

家人们,今天 AI 圈又出现天价数字了!就在昨天,OpenAI 与 AWS(亚马逊云服务)官宣了一项长达七年、总价高达 380 亿美元的算力协议。这笔交易的条款非常“简单粗暴”:OpenAI 将在 AWS 上部署工作负载,首批就启动了美国地区数十万块 NVIDIA GPU。不仅如此,AWS 还承诺将为 OpenAI 搭建额外的“专属基础设施”。(ps:这个动作的信号很明显,估值达到 5000 亿美元的 OpenAI,正在公开宣布自己“不再依赖微软”。。。。)消息一出,华尔街立刻给出了回应,亚马逊股价应声上涨 4+%这 380 亿美元,不过是 OpenAI“疯狂基建”计划中,浮出水面的冰山一角。近期,OpenAI 已经与英伟达、博通、甲骨文、谷歌等签下了一系列协议,据传整个基础设施的总赌注,已经逼近 1.4 万亿美元。这个数字确实太震撼了,但是,当主角在聚光灯下享受掌声时,真正的金矿,正被悄悄挖走。一份来自 2025 年中的行业报告数据显示,在企业级 LLM API 的真实战场上,一直低调的 Anthropic,已经用实际使用量完成了“偷家”—以 32% 的份额悄然登顶。而曾经被视为“绝对王者”的 OpenAI,则从 2023 年末近乎垄断的 50% 份额,滑落到了 25%而其他家同样在蚕食市场,谷歌的份额接近 20%,Meta 的份额接近 9%,并且在不同应用场景(如 AI 代理、代码生成、RAG)中,领头羊各不相同。这条指标背后是真金白银的流向啊!报告指出,仅 2025 年上半年,全球企业在 LLM API 上的总支出就达到了惊人的 84 亿美元。“一旦进入实际工作负载阶段,品牌光环本身,并不能维持市场份额。”那么,Anthropic 究竟做对了什么?答案是:信任。在数据控制、合规性以及与企业现有 IT 系统“干净利落”的集成上,Anthropic 下的功夫,正在转化为客户的续约合同和扩张订单。一个最典型的例子发生在开发者社区。在代码生成领域,Anthropic 的市场份额高达 42%,几乎是 OpenAI(21%)的两倍。为什么会这样?开发者们的反馈非常真实:GPT-4o 是快,延迟仅 9 秒(Claude 为 13 秒),但处理一个 500-1000 行的代码文件后,就可能需要“刷新上下文”,这在处理复杂项目时是致命的。相比之下,Claude 那史诗级的 200K(甚至更高)上下文窗口,能一口气“吞下”整个大型代码库。无论是重构遗留系统、进行代码审计,还是维护复杂应用,Claude 都表现得像一位经验丰富、记忆力超群的架构师。
看到这里,你可能会觉得“反转”已成定局。但是,一个巨大的矛盾出现了。如果 Anthropic 真的在企业端“偷家”成功,那为什么我们的“体感”里,OpenAI 的还是“绝对统治”?这个“体感”是没有错。就在 2025 年 11 月,另一份关于“开发者采用率”的数据,描绘了完全相反的战况:OpenAI 月度 SDK 下载量: 高达 3160 万 (碾压式占比 66.9%)Anthropic 月度 SDK 下载量: 仅为 1040 万 (占比 22.1%)而,SDK 下载量 追踪的是“开发者采用情况” ,API 份额 追踪的是“企业支出”,大量的 SDK 下载只是为了“学习”和“测试”,实际使用率很低。而企业 API 支出,才真正反映了谁在规模化地消耗 AI 资源。也就是说:OpenAI 赢得了“新项目和快速原型”的场景,需要灵感迸发、快速迭代的时刻。Anthropic 则拿下了“企业存量代码库”的场景,真正沉淀了企业核心资产、需要精耕细作的领域。当然。对于企业来说,后者的价值显然要大得多!LLM 的主战场从“模型跑分”全面转向“大规模推理”。这意味着:系统的正常运行时间、稳定的延迟和高效的事件响应的重要性已经压倒了原始基准测试的胜利。市场,终于从“炒作”进入了“实用”。企业客户变得前所未有的精明,他们现在关心的,就是那些过去被视为“无聊”的细节:每个 Token 的真实成本数据是否能存储在本地流程是否可审计有没有 SOC 合规报告能否进行细粒度的权限控制那么,当炒作褪去,谁在真正“下重注”?在 10 月的 DevDay 上,OpenAI 罕见地透露了一份 Top 100+ 的客户名单。其中一个数据,堪称恐怖: 有超过 30 家公司,在 2025 年消耗了超过 1 万亿(Trillion)Token。那 1 万亿 Token,是什么概念呢?我们来做个直观的类比:1 万亿 Token,大约相当于 7500 亿个英文单词。而整个英文维基百科(Wikipedia)的内容,大约是 30 亿个单词。这意味着,这 30 多家中的任何一家,在一年内处理的数据量,都相当于把整个英文维基百科的内容,翻来覆去“阅读”和“重写”了 250 遍。这才是真正的工业级用量!按目前 OpenAI 模型的价格估算,这 30 多家“万亿 Token 俱乐部”成员,每家的年支出都可能超过 6000 万美元。这些“千万俱乐部成员”主要分为四类:那么,这些“巨鲸”到底是谁第一类:AI 原生新贵这些 2023 年后成立的公司,从出生就带着最开始的 AI 基因。Cognition AI (Devin)AI 编程独角兽 Cognition ,2025 年估值飙升至 102 亿美元 。它的产品 Devin 本身就是一个“Token 燃烧机器”,它的产品就是一个自主运行的 Agent,每一次“运行”都可能涉及成千上万的 Token(代码理解、生成、调试、验证)。Genspark由前百度“小度”CEO 景鲲创办 ,估值超 10 亿美元。最有趣的是 Genspark 的第三方用户数据并不高(据称不超过 500 万),但它的 Token 消耗量却高得惊人,硬是挤进了 Top 30 。这可能是因为 Genspark 的单用户 Token 消耗高得离谱。一个普通聊天 API 调用可能只有几千 Token。根据 Genspark 自己发布的情况来看,一个“深度市场研究”或“规划旅行” 的 Agent 任务,可能涉及几十个步骤、多次搜索、内容生成和总结,单次任务消耗的 Token 可能是聊天的 100 倍。第二类:AI 深度嵌入这里,有一个非常好的例子就是是很多人都非常熟悉的 Notion!作为成熟公司 AI 转型的典范,截至 2024 年底,超过 50% 的财富 500 强企业在使用它 。在最新的 Notion 3.0 中,它引入了“AI Agents”。这些 Agent 可以执行多步骤工作流,比如“跨越数百个页面”自主工作长达“20 分钟”。 更关键的是,这些 Agent 通过“AI 连接器”深度集成了 Slack、Google Drive、Email 等工具。一个“总结 Slack 频道反馈”的 Agent 任务,背后就是海量的 Token 调用。
但 Notion 最“聪明”的策略在于:它的 AI 后端是教科书级的“多供应商设置” (Multi-vendor setup),集成了包括 Anthropic 的 Claude Sonnet 4 和 OpenAI 的 GPT-5。Notion 利用“Agent”外壳,将底层的 LLM 模型彻底“商品化”。用户只与 Notion 交互,而 Notion 则在后端根据任务类型(编码、写作、合规)智能路由到最合适、最经济的模型上。它既是 OpenAI 的大客户,又没有被 OpenAI“锁定”。这是对“平台风险”的完美对冲。
第三类别:Token 加工商企业搜索 GleanGlean 的 Work AI 平台通过 100 多个 SaaS 连接器 ,索引企业_所有_的文档和 SaaS 工具。它的每一次搜索,都是一次昂贵的、大规模的 RAG(检索增强生成)调用,消耗海量 Token 来实时索引和检索上下文。JetBrains这家的 AI Assistant 深度集成在 IDE 中,进行代码库分析和重构。那 Token 消耗有多猛?我们甚至可以从 JetBrains 的用户抱怨中看到:“我的配额半天就用完了” ,“3 天烧光了 10 欧元的信用点”。第四类:To C:“高频 + 多模态”名单上的 C 端产品无一例外都是高频使用、场景空间大的设计。Duolingo (多邻国)它的消耗大户是付费版 Duolingo Max 中的“AI 角色扮演” (AI Role Play) 。一次 10 分钟的“模拟在巴黎咖啡馆点餐” ,是一系列连续不断的、有状态的 API 调用。Read AI这个可能大家不是很熟悉,它是会议工具 AI,截至 2025 年,用户超 100 万,12 个月增幅 720% 。它的消耗逻辑是“多模态”。它不仅仅是转录文字,而是将“60 分钟的会议”转为“2 分钟的视频高光”。它的专利技术会“Read the Room”(阅读房间氛围),分析参与者的反应(视频)和语气(音频)来判断重点。分析 60 分钟的多模态数据流,所消耗的计算量是天文数字。然而,就在这些“巨鲸”疯狂消耗 Token 时,一个对初创公司而言最可怕的剧本,发生了。引爆点发生在 2025 年 10 月 21 日:OpenAI 正式推出了自己的 AI 浏览器——ChatGPT Atlas。Atlas 基于 Chromium,拥有 ChatGPT 侧边栏、“浏览器记忆”,以及最致命的——为付费用户提供的“Agent Mode”,Agent 可以直接“操作”浏览器界面,预订酒店、创建文档。这就构成了一个 AI 圈的终极“地狱笑话”: 几周前,OpenAI 还在 DevDay 上热情地给 Perplexity 和 Genspark 颁发“万亿 Token 俱乐部”的奖杯;几周后,它就发布了精准扼杀它们的产品。“我不仅要挣你的钱,我最终还要吞掉你的业务。”面对这种“平台绞杀”与“成本焦虑”的双重压力,其实很多企业的最理性选择就是“多供应商设置” 。完全可以复制 Notion 的路线:需要合规和长上下文时,路由到 Anthropic。需要创意生成和多模态时,路由到 OpenAI。需要低成本和高速度时,路由到 Llama/DeepSeek。所以,其实成为“万亿 Token 俱乐部”的成员,可能不是一个“奖杯”,而是一个“紧箍咒”。现在,真正的赢家,不是那些被“锁定”的最大客户;而是那些像 Notion 一样,有能力在巨头之间游刃有余,真正掌握“路由权”的最聪明的玩家。在这场游戏中,永远别被锁死你的路由权。 阅读原文
跳转微信打开