在华为全联接大会2025期间,昇腾AI人工智能产业峰会聚焦大模型算力需求,发布了面向未来的“超节点”解决方案。面对传统服务器集群在处理TB级数据和万级处理器故障时的瓶颈,昇腾超节点通过创新的384卡对等直连架构,实现了TB级通信带宽和200ns的超低时延,大幅提升训练与推理效率。该技术已在互联网、运营商、金融、能源及超算中心等多个行业成功落地,支持LLM推理、预训练、多模态等多种AI应用,加速行业智能化转型,确立了其在AI时代核心计算单元的地位。
💡 昇腾超节点应对大模型算力挑战:面对AI大模型对算力日益增长的需求,传统服务器集群在TB级数据同步和大规模处理器故障处理方面暴露出瓶颈。昇腾超节点作为一种新型架构,旨在突破这些限制,为AI计算提供更高效的解决方案。
🚀 创新架构实现极致性能:昇腾384超节点采用创新的384卡对等全互联架构,打破主从模式,实现统一内存编址和TB级通信带宽,较传统方案提升15倍,并达到200ns的物理极限级超低时延,显著提升大规模模型训练和推理的效率。
🌐 广泛行业落地应用:昇腾超节点已在互联网、运营商、金融、能源及超算中心等多个关键行业实现成功实践,支持LLM推理、预训练、多模态、生成式推荐等多种AI应用场景,并为科学研究和行业大模型提供了坚实算力支撑,加速了全行业的智能化转型。
2025-09-23 14:51:36 作者:狼叫兽近日,在华为全联接大会2025期间,以“与时代,共昇腾”为主题的昇腾AI人工智能产业峰会在上海成功举行。峰会现场,昇腾联合多家行业领军企业发布超节点在互联网、运营商、金融、能源等领域的实践成果,展示超节点实际应用经验与价值,加速行业大模型创新落地。

昇腾超节点实践正式发布当前人工智能大模型正沿着 “规模定律” 不断演进,从预训练扩展到覆盖预训练、后训练、逻辑推理的全流程,进入对AI算力需求空前增长的时代,传统的服务器集群架构在这场变革中瓶颈愈发明显。千亿级模型一次梯度同步产生的TB级数据让传统以太网带宽难以承受;同时,伴随算力规模扩大,万级处理器带来的故障常态化,对自动化运维与RAS能力提出了更高要求。在这样的背景下,超节点的出现成为了面向大模型未来发展的必然趋势。为满足千亿至万亿级 MOE 大模型的训练与推理需求,昇腾推出384超节点,打破主从架构,实现对等全互联,统一互联协议,内存统一编址,实现384卡对等直连;提供TB级通信带宽,较传统方案提升15倍,并实现200ns物理极限级超低时延,具备大规模、高性能、高可用的特性。超节点架构成功突破计算瓶颈,支持工程级创新训练算法和大规模专家并行推理集群解决方案,实现训练和推理效率大幅提升。目前,昇腾节点已在多个行业落地应用并取得成效。互联网行业基于昇腾超节点在LLM推理、预训练、强化学习、多模态、生成式推荐等多个方向进行技术创新,同时通过大规模专家并行推理方案,可以很好地满足互联网推理的极致时延和吞吐需求;运营商基于超节点部署企业训练及推理智算服务业务,支持企业前沿大模型预训练、行业/场景大模型快速迭代,同时还可提供推理API服务产品;超算中心通过超节点提升人工智能计算场景能力,加速AI赋能大气、海洋、生物医药、工业设计等领域的科学研究;同时,超节点落地AI4S场景,能提升科学场景研发效率,并与行业大型业务场景需求融合,为全行业应用场景智能化需求提供坚实底座。此次实践发布,标志着昇腾超节点已具备成熟的行业落地经验,彰显昇腾的技术领导力。目前,围绕超节点的产业格局已经形成,超节点作为AI时代核心计算单元的地位已然确立。未来,昇腾将在超节点的形态和技术路线上持续演进,携手行业客户和伙伴,使能全场景、全行业AI创新落地,加速行业智能化转型。