快科技资讯 09月17日
英伟达云战略转型:从DGX Cloud到Lepton
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

英伟达市值突破4万亿美元,但其云平台野心仍在演变。曾高调推出的DGX Cloud因面临渠道冲突和与云巨头竞争等问题,将于2025年中退出核心业务,转为内部基础设施用途。取而代之的是,英伟达将在2025年上线Lepton平台,一个GPU租赁与调度的市场型产品,旨在连接全球GPU云提供商与AI开发者,打造“AI工厂”。此举标志着英伟达从直接提供云服务转向充当算力市场的调度者和掌控者,通过“卖一手、租一手”的模式,构建“英伟达系”云生态,巩固其在AI时代的价值链地位。

☁️ **DGX Cloud战略调整,退居幕后**:英伟达曾寄予厚望的DGX Cloud,因其与AWS、Azure等云巨头在企业市场存在直接竞争,且面临GPU供应缓解后的价格劣势,以及可能促使合作伙伴加速自研芯片的风险,将从2025年中期起退出核心业务。其角色将转变为英伟达的内部基础设施与研发用途,而非面向企业市场的主打产品,显示了英伟达在云服务策略上的务实调整。

🌐 **Lepton平台崭露头角,连接算力生态**:为弥补DGX Cloud的退出,英伟达将于2025年推出Lepton平台。Lepton并非直接提供GPU租赁,而是作为算力需求的“入口”和“调度者”,连接全球GPU云提供商(包括AWS、Azure等)与AI开发者。该平台旨在整合英伟达的软件栈,提供一致的开发体验,从而打造一个全球规模的AI工厂,实现“以退为进”的策略。

🤝 **“朋友圈”生态构建,互利共赢**:英伟达通过投资CoreWeave、Lambda等GPU云服务商,并从其租回算力,形成了独特的“卖芯片-投资客户-租回服务”的生态闭环。这种模式既能确保英伟达获得即时收入,又能稳定合作伙伴的现金流,并锁定关键算力。这种“英伟达系”云生态的构建,有助于强化其在AI芯片领域的领导地位,并间接推动其GPU和软件栈的广泛应用。

💡 **掌控价值链,而非拥有云**:英伟达的最终目标是成为AI算力世界的“控制面板”,而非直接拥有IaaS层。通过Lepton平台,英伟达可以掌控算力市场的入口和分配权,无论客户选择哪家云服务商,只要其AI训练和推理依赖英伟达的GPU和软件栈,英伟达就能从中获益。这种策略使其能够规避与合作伙伴的直接冲突,同时保持对整个AI生态的深远影响力和数据洞察力。

即便市值已经突破 4 万亿美元,我们还是低估了英伟达,大大的低估了。

在不少人的印象中,英伟达依然是那个“核弹厂”。其实,在 AI 急需的芯片之外,英伟达始终有一个云平台的野心。

2023 年,英伟达的 DGX Cloud 高调登场,一台实例配备八块 H100,月租 36999 美元,定价直达天花板,也被外界视作英伟达挑战 AWS、Azure 这些老牌云厂商的信号。

然而,2025 年中,这个“亲儿子”却悄然退出 C 位。英伟达不再将其数十亿美元的云支出承诺对齐 DGX Cloud,其角色转向内部基础设施与研发用途,而非面向企业市场的主打产品。

取而代之的,是 2025 年新上线的 Lepton——一个 GPU 租赁与调度的市场型产品。从定义来看,新的 Lepton 是一个算力管理和分发平台,更像是一个算力需求的“入口”。

DGX Cloud 为什么退场?Lepton,能不能接承接住英伟达在 AI 时代成为云计算霸主的野心?

01、以退为进

很多人或许都还记得 2023 年的“GPU 荒”,企业即便有钱,也往往买不到 H100。于是英伟达顺势推出了 DGX Cloud,把自有的高端算力集群“按月出租”,企业开通即用。

在推出的第一年,DGX Cloud 的确收获了热度。到 2024 年底,英伟达的财报显示其软件与服务收入(包括 DGX Cloud)达到了 20 亿美元的年化水平。

然而,转折点出现在 2024 年下半年后,随着 GPU 供应逐渐缓解,亚马逊、微软、谷歌等云厂商纷纷“砍价”,DGX Cloud 的优势随之消散。

以亚马逊的 AWS 为例,其对 H100 和 A100 实例降价幅度高达 45%,远低于 DGX Cloud 的租赁价格。

对客户而言,DGX Cloud 的紧缺溢价很快失去立足点。


英伟达在 2023 年 3 月推出 DGX Cloud|图片来源:GTC 2023

更现实的问题还在于“渠道冲突”。

亚马逊、微软和谷歌是英伟达最大的芯片买家,对英伟达的营收构成了极大支撑。DGX Cloud 的直接客户模式意味着英伟达和这些合作伙伴抢生意。每一份 DGX Cloud 合同,都有可能挤压 AWS、Azure 或 GCP 的收入。

买家的担心是可预期的,更长远的后果,是推着这些伙伴加码自研芯片,如 AWS 的 Trainium、谷歌的 TPU,以降低对英伟达的结构性依赖。

而且短时间内,建立起稳定的客户黏性也是挑战,有些企业会把 DGX Cloud 当作临时方案,在产能紧绷、项目启动急的窗口期租上几个月,随后再迁回长期合作的 AWS、Azure 或谷歌云。


英伟达黄仁勋与谷歌云高管同台|图片来源:英伟达

考虑到这些,到最新的财年,英伟达的财务披露中不再将巨额的云支出承诺归于 DGX Cloud,这项服务仍然列在收入类别中,但其角色已明显转向内22部基础设施。

换句话说,DGX Cloud 仍然存在,但它逐渐退回英伟达内部,不再打算与微软、亚马逊、谷歌等公司正面竞争。

除了选择把 DGX Cloud“转为内用”,英伟达还把外部注意力引向一个新的平台化入口:

Lepton。

英伟达在 2025 年 5 月推出这个新平台,也在 DGX Cloud 体系名下,但不同于 DGX Cloud 那种把“英伟达自己的 AI 芯片直接租给客户”的模式,Lepton 完全不碰 GPU 库存,它只是负责“把需求导向合适的云服务商”,包括 AWS、Azure,也包括英伟达自己一手扶持的云服务商。

“Lepton 会将我们的全球 GPU 云提供商网络与 AI 开发者连接起来。”英伟达创始人兼 CEO 黄仁勋在发布 Lepton 时称,目标是:

“打造一个全球规模的 AI 工厂。”

简而言之,为了不缓解和渠道的竞争,英伟达的策略重点已经不再是一个“英伟达云”。

02、英伟达“朋友圈”

但 DGX Cloud 角色的淡出并不意味着英伟达放弃了云。在过去两年里,英伟达一直在扶持自己的云服务商“小弟”。而且还出现过让人觉得匪夷所思的一幕——英伟达一边把 GPU 卖给云伙伴,一边又从这些伙伴那租回算力。

以 CoreWeave 为例,英伟达不仅在 2023 年投资了 CoreWeave 1 亿美元,还向其优先供货 H100 GPU。

在供需紧张时期,这让 CoreWeave 成为少数能大规模提供英伟达 GPU 的云服务商。而英伟达自己又回过头来,从 CoreWeave 租用这些 GPU。


CoreWeave 承接 AI 东风顺利上市|图片来源:网络

Lambda 也类似,这是一家规模小得多的 GPU 云服务提供商。

2025 年 9 月,英伟达与 Lambda 签订了一份价值 15 亿美元的租赁协议,租期为四年,其中包括租回 1 万台搭载自家顶级 GPU 服务器,总价值约 13 亿美元。这个交易让英伟达成为 Lambda 最大的客户,而英伟达自己的研发团队将使用这些 GPU 训练模型。


Lambda 也是英伟达生态圈的一员|图片来源:网络

具体来说,英伟达先通过销售芯片获得即时收入,让财报好看、股东满意;合作伙伴则依靠出租 GPU 获得稳定现金流,从而扩大规模;随后英伟达再以租赁的方式把算力锁定在自己手中,确保关键时刻不会断供。此外,这和普通公司选择租用云服务而不是自建机房的逻辑是一样的,可以更灵活地应对研发波峰和波谷。

这个操作的精妙之处在于,芯片卖出的那一刻,收入立刻计入英伟达账面,支出则后置,租金在未来几年慢慢摊销,转化为运营成本。与此同时,英伟达无需自建数据中心,资产压力最小化。

对合作伙伴来说,英伟达成了最大甲方,算力与现金流被绑定,强化了其生态黏性。更微妙的是,这种操作还能稳定市场心理。当连英伟达都愿意以这个价格回租,便相当于为AI 算力行情做了一次背书,锚定了价格预期,最终变成一石三鸟。

这套玩法复制到了各种英伟达系云计算初创公司中:卖芯片-投资客户-租回服务-再次卖芯片,最终变成一个自循环的 AI 芯片生态资金链。

与此同时,英伟达还通过旗下专门的风险投资部门 Nventures,在更广阔的 AI 生态下注。它投资了很多初创公司,从模型开发,到应用层的初创企业。虽然这些公司并非都做云服务,但逻辑是一致的:通过投资绑定潜在客户和未来生态,只要这些初创公司成长壮大,它们的算力需求最终都会转化为对英伟达芯片的采购。

可以说,英伟达不仅仅是在卖芯片,它就像是在经营一个庞大的 AI 创业孵化器,来打造一套“英伟达系”云生态。

03、AI 算力的“App Store”

说回 Lepton,它与英伟达“卖一手、租一手”的本质有一点相似,就是给算力“做市”。

与 DGX Cloud 直接对客户不同,Lepton 并不亲自经营云服务,而是作为“流量调度者”,把客户的任务分发给生态合作伙伴的数据中心。

它本质上是一个算力市场,用户只需在 Lepton 平台提交需求,Lepton 会自动匹配到可用的 H100 或 Blackwell GPU,无论这些硬件位于 CoreWeave、Lambda,还是 AWS、Azure 的机房。


英伟达 Lepton 平台界面|图片来源:英伟达

而且,Lepton 将所有 GPU 云资源整合到英伟达的软件栈之下,比如 NIM 微服务和 NeMo 框架。开发者无需关心背后的提供商,只需通过 Lepton 平台即可获得一致的开发体验和环境。

更关键的是,Lepton 化解了英伟达与云巨头的冲突。在这种模式下,英伟达不再是 AWS、Azure 的直接竞争对手,而是中立的调度平台。AWS 和微软也加入了 Lepton,原因很简单,通过这个市场,它们能够接触到额外的算力需求。

对于英伟达来说,与合作伙伴对抗的风险太大,远不如退到幕后,转而做算力市场的调度者和掌控者。这是典型的“退一步,海阔天空”,不再冒犯合作伙伴,反而继续掌控生态入口,不论客户选择哪家云,最终都离不开英伟达的 GPU 和软件栈。

于是,放弃构建自己的云服务就不是软弱的表现,Lepton 对英伟达来说是一个鱼与熊掌兼得的策略。


英伟达 Lepton 平台界面|图片来源:英伟达

当然,Lepton 的推广也非一帆风顺。一些中小型云厂商担心英伟达借此插足客户关系,或影响定价,它并非一夜之间就能改变游戏规则。但当 AWS 和 Azure 都进入市场后,Lepton 的存在无法忽视。未来 AI 算力的跨云调度,有可能会通过某个平台来完成。

对开发者来说,“在哪里算”变得次要;能不能算、多久能算、成本如何才是核心,而这些正是 Lepton 试图统一的体验层。

英伟达不再需要自建一个“英伟达云”,也不必在 IaaS 层与伙伴正面相撞,它想做的是把所有玩家拉入自己的体系,让所有云使用英伟达的 GPU、调用英伟达的框架、通过英伟达的入口完成采购与调度。

如果顺利,它看似只是一个 GPU 聚合市场,实则可以成为算力世界的控制面板。谁接到单子,谁活得下去,分配权掌握在英伟达手中。更长线的收益是数据与感知,Lepton 在跨云调度过程中天然能观察到哪类任务最活跃、哪些地域更紧张、哪一代 GPU 使用更频繁、价格弹性如何,反过来辅助商业决策。

就像苹果通过 App Store 掌控了移动互联网,英伟达想用 Lepton 做到同样的事,只是对象从 App 换成了算力。


英伟达 Lepton 平台连接各种云服务|图片来源:英伟达

这也解释了英伟达当下的市场逻辑。简言之,它并不需要拥有云,它只需要拥有算力栈和需求入口。只要全球 AI 训练与推理仍以其 GPU 为核心,无论算力最终落在亚马逊 AWS、微软 Azure、谷歌 GCP,还是 CoreWeave、Lambda,无论客户选择谁,只要掌控价值链,英伟达都能获得价值。

从 AI 芯片,到 DGX Cloud,再到现在的 Lepton,英伟达的计划早已经从硬件过渡到“算力”和“平台”的阶段——任何一家公司市值突破 4 万亿美元、其产品已经成为 AI 时代重要生产资料的公司,都不可能没有更大的野心,不是吗?

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

英伟达 Nvidia AI 云计算 云平台 DGX Cloud Lepton GPU 算力 生态系统
相关文章