中关村在线新闻中心 09月18日
华为专家谈液冷数据中心,加速AI产业发展
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

在2025AIDC产业发展大会上,华为ICT BG CEO杨超斌强调,随着AI算力需求的激增和芯片功率的快速提升,液冷数据中心已成为必然选择。他指出,当前AI芯片热流密度远超传统设备,风冷已难满足散热需求。液冷数据中心在能源利用率和空间利用率上具有显著优势。然而,液冷产业链和标准化建设仍需完善,以缩短部署周期,避免算力资源浪费。杨超斌呼吁将机房建设视为有机整体,统一规划供电、散热、承重等要素,并优化与液冷设备相关的系统,共同推动AI产业的健康发展。

💡 **AI算力需求驱动液冷技术发展**:随着人工智能技术的飞速发展,AI芯片的处理能力不断增强,导致其热流密度急剧升高,远超传统服务器。例如,当前主流AI芯片的热流密度已是电热水壶的15倍以上,未来将超过20倍。这种高密度发热对散热提出了严峻挑战,使得传统的风冷技术难以有效应对,液冷数据中心因此成为支撑AI算力基础设施的必然选择。

🚀 **液冷数据中心的显著优势**:相较于风冷数据中心,液冷技术在能源利用率和机房空间利用率方面展现出巨大优势。液冷数据中心的能源利用率可提升25%以上,空间利用率则可提升4至8倍。这对于需要大规模部署AI服务器的智算中心而言,意味着更低的运营成本和更高的部署密度,能够更高效地满足爆炸式增长的AI算力需求。

🚧 **完善液冷产业链与标准化是关键**:当前液冷数据中心的产业链和标准化建设仍处于发展初期,与成熟的风冷场景相比存在较大差距。这导致厂商在采购液冷设备后,通常需要等待半年以上才能投入使用,严重影响了AI业务的快速上线和算力资源的有效利用。因此,协同产业链各方,加快液冷产品的研发、生产和标准化进程,是加速AI数据中心部署和使用的当务之急。

🏗️ **构建有机整体的液冷数据中心**:未来的AI数据中心应被视为一个有机整体进行规划和建设。标准化工作需要充分考虑AIDC未来的整体功率分布、单柜诉求(如供电、散热、承重等),以及与液冷设备紧密相关的子系统,包括CDU(冷冻水单元)的功率、二次管路的管径和联结方案等。这种系统性的思考和规范化建设,将有助于缩短部署周期,提升整体效率,从而有力推动中国AI产业的蓬勃发展。

2025-09-18 09:51:34  作者:狼叫兽[中国,上海,2025年9月17日] 在2025AIDC产业发展大会期间,华为董事、ICT BG CEO 杨超斌出席并致辞。杨超斌表示:“AIDC是智算时代关键基础设施,随着AI算力规模与芯片功率的快速提升,液冷数据中心正成为AIDC的必然选择。面对当前液冷机房建设的挑战,我们需要协同产业链,加快液冷机房的产品化与标准化,加速AIDC的部署与使用,共同推动AI产业发展。”


华为董事、ICT BG CEO 杨超斌致辞现场

以下是完整发言稿的内容:

尊敬的金理事长,各位领导、专家,大家上午好!非常荣幸受邀参加AIDC产业发展大会。

当前AI技术与产业正加速迭代、以前所未有的速度与广度进入各个行业,今天我就支撑AI运行的AIDC算力基础设施,谈一谈看法。

算力的核心是底层处理器,现在主流处理器的热流密度已达到150瓦每平方厘米,预计未来几年,每个处理器表面的热流密度将会超过200瓦每平方厘米。这是什么概念呢?以大家熟悉的酒店电热水壶来对比,电热水壶功率约2千瓦,底部加热面积约200平方厘米,其热流密度为10瓦每平方厘米,当前主流AI芯片的热流密度已超电热水壶的15倍、未来会超出20倍。对于这么高的热流密度,我们必须找到有效方式把热散出去,才能让芯片更加高效地运行,这实际上是智算时代AIDC行业所面临的共同难题和挑战。关于此,我分享以下三点思考:

首先,随着单个算力集群规模和服务器功率的大幅增长,液冷机房正成为AI数据中心的必然选择。

在企业级数据中心里,通常是几台服务器、几百个处理器的规模,且较难部署液冷机房,因此企业运用风冷技术就能解决部分的散热问题。但AI数据中心通常运行几千、几万个处理器,未来可能是几十万个的处理器,我们必须要通过液冷解决散热问题。和风冷相比,液冷在能源利用率和机房利用率上,都具备显著优势:相对同等功率的风冷机房,液冷机房能源利用率至少提升25%以上、空间利用率至少提升4~8倍。

第二,液冷数据中心的产业链、标准化建设亟待完善。

在风冷场景下,服务器和数据中心的产品化与标准化已较为成熟,因此产业链的各个环节能够高效配合,厂商能很快地将风冷服务器组成集群投入工作。但在液冷场景中,产业链的建设和标准化的工作还不够完善,这就导致厂商购买液冷设备后,通常需要等待半年以上才能让设备投入工作,这不仅影响业务上线,也造成大量算力资源的浪费。

第三,液冷数据中心的标准化需要将机房建设作为有机整体进行考虑。

液冷数据中心的标准涉及到很多环节,对于算力设备提供商存在许多挑战。两年前,华为公司开发过最大算力可达200P的单柜超节点,功耗为60万瓦,但这很难部署在普通机房,必须建设定制化的机房,这就导致机房整体部署周期拉长。

因此,在标准化的过程中,我们需要提前考虑AIDC未来的整体功率分布和单柜诉求,包括供电、散热、承重等诉求;以及与液冷设备紧密相关的小机电系统,如CDU含功率、二次管路的管径和联结方案,以及周边接口等等。因此,未来的AI数据中心是一个有机整体,需要在各方面都具备相应的规范,以加快AIDC的建设与使用。

今天全球计算联盟召集的这一大会,非常及时,将产业链的各个环节都聚集在一起,共同探讨和制定面向未来AI数据中心的规范,让产业链更高效地协同,共同推动中国AI产业的发展。

谢谢大家!

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

液冷数据中心 AI算力 华为 AIDC 智算时代 Liquid Cooling AI Computing Power Huawei Intelligent Computing Era
相关文章