cnBeta全文版 20小时前
AI算力受限,微软面临“电力荒”挑战
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

微软CEO萨蒂亚·纳德拉和OpenAI CEO萨姆·奥特曼罕见地公开承认,当前AI发展的最大瓶颈已从算力转向电力。微软仓库中堆积着大量英伟达顶级GPU,但因电力不足而无法使用。纳德拉表示,公司订购的芯片数量已超出合同所能保障的电量,建设数据中心面临电力供应的根本性难题。微软CFO也证实,获取硬件并非瓶颈,而是空间和电力不足。AI对电力的巨大需求正以前所未有的速度增长,远超电力供应的规划速度,导致能源费用飙升,并促使科技公司探索“电网外”的电力解决方案,同时本地化计算的崛起也可能改变未来AI基础设施的格局。

💡 **电力成为AI算力瓶颈**:尽管科技公司如微软和OpenAI曾面临算力短缺的困境,但目前最大的挑战已转变为电力供应不足。微软CEO纳德拉透露,其仓库中堆积了大量英伟达GPU,但因缺乏电力而无法投入使用,这表明AI产业正从“算力荒”进入“电力荒”阶段。

🔌 **数据中心建设受限,电力需求激增**:AI的飞速发展对电力需求造成巨大压力,其增长速度远超电力公司规划新发电能力的速度。微软CFO指出,获取计算硬件并非瓶颈,而是数据中心的空间和电力供应不足。微软正在全球范围内大规模租赁和建设数据中心,但电力基础设施的建设速度难以跟上AI需求的指数级增长。

⚡ **能源成本上升与解决方案探索**:AI对电力的巨大需求已导致民用能源费用飙升。为应对此挑战,OpenAI呼吁联邦政府增加发电能力,同时数据中心开发商正积极寻求“电网外”的解决方案,例如直接从能源供应商处获取电力。此外,对未来能源形式的投资,如核裂变、核聚变和太阳能,也成为行业关注的焦点。

🚀 **AI成本下降与潜在风险**:OpenAI CEO奥特曼认为,随着AI效率的提升和成本的下降,其使用量将呈指数级增长,进一步加剧对电力的渴求。然而,他也警告称,如果未来出现更便宜的能源形式(如核聚变)并大规模应用,现有依赖昂贵电力合同的企业将面临巨大风险。同时,本地化计算的崛起也可能重塑集中式AI数据中心的价值。

📈 **AI泡沫风险与未来趋势**:AI的快速发展和对能源的巨大需求,以及技术迭代可能带来的风险(如能源革命或本地化计算),都可能引发AI泡沫。如果泡沫破裂,可能对近20万亿美元的市值产生巨大影响。微软仓库中无法点亮的昂贵芯片,预示着AI产业正经历一场深刻的转型。

AI圈最昂贵的“闲置物品”诞生了:价值数十亿美元的英伟达顶级GPU,正躺在微软的仓库里吃灰。原因简单到令人难以置信:没电。就在最近,微软CEO萨蒂亚·纳德拉(Satya Nadella)和OpenAI首席执行官萨姆·奥特曼(Sam Altman)一同做客Brad Gerstner的《BG2》播客访谈节目,罕见地“自曝家丑”,亲口证实了这个令人震惊的窘境:“我们现在最大的问题,不是算力,而是电力……事实上,我有一堆芯片堆在库存里,却没电可用。”

此言一出,市场皆惊。当所有公司还在为抢不到芯片而焦虑时,手握海量GPU的微软却遇到了一个更根本的难题:找不到足够的“插座”

从“算力荒”到“电力荒”,AI的狂飙突进,似乎撞上了物理世界最坚硬的一堵墙。


芯片堆满库房,却找不到“插座”

长期以来,科技界普遍认为“算力”是阻碍AI发展的最大壁垒。因此,微软、OpenAI等公司一直在疯狂采购GPU。

但现在看来,他们似乎跑得太快了。

纳德拉在播客中坦言,微软订购的芯片数量,显然已经超过了他们合同所能确保的电量。

“在这种特殊情况下,你根本无法预测需求和供应的周期,”纳德拉说,“我们最大的问题是电力,是能否在靠近电源的地方快速建成数据中心。”

所谓“暖壳”是商业地产术语,指的是那些基础设施齐全、能让租户“拎包入住”的建筑。换句话说,微软现在是芯片管够,但缺“带电的房子”。

这不仅是纳德拉的个人观点。微软首席财务官艾米·胡德(Amy Hood)在上周的财报电话会议上也向分析师证实:获取计算硬件一直都不是微软的瓶颈,“我们缺的是空间和电力”。

她甚至补充表示:“这种局面已经持续好几个季度了。我原以为我们能赶上,但没有。需求还在增长。”

财报数据显示,微软在2026财年第一季度投入111亿美元用于租赁数据中心。仅2025年一年,微软在全球就新增了约2吉瓦的算力容量,使其数据设施总数突破400座。

TD Cowen上月发布的报告表明,2025年第三季度,美国超大规模企业租赁的数据中心容量已超过2024年全年总量。虽然大部分增幅来自甲骨文和OpenAI,但Google、Meta、微软、亚马逊及Anthropic的算力也显著增加。

同样于上月发布的标普全球报告则指出,到2025年底,全美数据中心对电网电力的需求将较2024年增长22%,而至2030年,这一数字将增长两倍。

AI“吃电”太猛,软件巨头遭遇“硬”挑战

为什么会出现这个局面?

答案很简单:相比于大型发电厂等重资产,芯片和代码都是易于快速扩展和部署的技术。已经习惯这两种技术的科技公司,却一头撞上了能源世界的“南墙”。

在过去十几年里,美国的电力需求与供给基本持平。但过去五年,数据中心的电力需求开始飙升,增速远远超过了公共事业公司规划新发电能力的速度。

这种趋势已导致民用能源费用飙升,显示出AI基础设施建设正在对普通民众产生负面影响。为此,OpenAI甚至已呼吁联邦政府每年新建100吉瓦的发电能力,并称这是美国在与中国的AI竞赛中保持优势的战略资产。

这也迫使数据中心开发商开始寻求“电网外”的解决方案,即跳过公共电网,将电力直接输送到数据中心。

一同参与播客对话的奥特曼认为隐患正在酝酿:如果AI继续以“每年将单位智能的成本降低40倍”的惊人速度发展,那么“从基础设施建设的角度来看,这种指数级变化确实令人心惊。”

这位OpenAI掌门人,早已将目光投向未来能源领域。他个人投资了核裂变初创公司Oklo、核聚变初创公司Helion,还有一家名为Exowatt的太阳能初创公司。

越便宜,越饥渴:AI的“无限”胃口

尽管太阳能光伏技术因为成本低、部署快、零排放,正被科技公司争相采纳,但它和数据中心一样都需要建设时间。事实上,现在下的新燃气轮机订单,很可能要到这个十年末才能交付。

而AI的需求变化,比任何一个项目的完工速度都要快得多。

奥特曼承认,如果AI能效提升或需求增长不及预期,部分企业可能会面临发电设施闲置的困境。

但他本人似乎是“杰文斯悖论”(Jevons Paradox)的坚定信徒。该理论认为,资源使用效率的提升反而会导致用量增加,从而推高总体需求。

“假设明天,每单位智能的计算价格下降了100倍,”奥特曼说,“你会发现使用量的增长远不止100倍。许多在当前成本下不具经济可行性的算力应用,届时都将迎来爆发。”

换句话说,AI越便宜、越高效,世界对它的需求就越庞大,对电力的渴求也就越趋近于无限。

真正的风险:能源革命与本地化计算

然而,能源供给的发展变化也让所有AI从业者面临着巨大风险。未来的能源革命或许会让当下的大规模电力投资付诸东流。

正如奥特曼在谈话中所警告的:“如果某种非常便宜的能源形式很快实现大规模应用(比如核聚变),那么很多签了现有昂贵电力合同的企业将会遭受重创。”

这场对话还揭示了押注超大规模AI数据中心必须面对的另一颗“定时炸弹”:本地化计算的崛起。


奥特曼畅想:“总有一天,我们会打造出一款革命性的消费设备,可以在本地以低功耗运行GPT-5或GPT-6级别的模型。”

如果AI模型真的可以在个人电脑或手机上实现本地化高效运行,那么科技巨头们斥资数十亿、数百亿建造的庞大AI数据中心,其推理需求可能根本不会兑现。

播客主持人也随即评论:“这确实很了不起,但显然也会让那些投入巨资建设集中式算力集群的企业感到担忧。”

到那时,这种情况可能加速人工智能泡沫的破裂。而当泡沫破灭时,暴露在风险之下的将是高达近20万亿美元的恐怖市值。

从“算力荒”到“电力荒”,AI发展显然已经步入了深水区。微软仓库里那些无法点亮的昂贵芯片,或许只是这场巨大转型阵痛的开始。

查看评论

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AI 算力 电力 数据中心 微软 OpenAI 能源 GPU Satya Nadella Sam Altman AI发展 本地化计算 Power shortage Compute bottleneck Data centers NVIDIA GPUs Energy demand
相关文章