英伟达发布了其最新一代AI服务器,包括“Vera Rubin NVL144”和“Vera Rubin NVL144 CPX”。新服务器在规模和性能上实现了巨大飞跃,配备了Rubin GPU和Vera CPU,并拥有超高带宽的HBM4内存和海量高速存储。其中,“Vera Rubin NVL144 CPX”的算力在NVFP4精度下可达8 EFlops,是上一代产品的7.5倍。这些服务器专为大规模AI训练与推理设计,旨在通过强大的计算能力提升AI研发效率和投资回报。新一代Rubin GPU及其系统预计将于2026年底开始交付,后续还将推出升级版和下一代Feynman GPU。
🚀 **性能飞跃与规模升级**:英伟达发布的新一代AI服务器“Vera Rubin NVL144”和“Vera Rubin NVL144 CPX”在性能和规模上实现了质的飞跃。NVL144配备36颗Vera CPU和144颗Rubin GPU,算力达3.5 EFlops(NVFP4精度),是上一代GB300 NVL72的3.3倍。而NVL144 CPX更是集成了72颗Rubin CPX,总计144颗GPU和36颗CPU,算力高达8 EFlops,是GB300 NVL72的7.5倍,并支持1.7PB/s带宽的HBM4内存和100TB高速存储,以及Quantum-X800 InfiniBand或Spectrum-X以太网。
💡 **大规模AI训练与推理的旗舰**:这两款服务器专门为大规模的AI训练和推理任务而设计,旨在提供前所未有的计算能力。通过将更多的GPU和CPU集成到单个机架中,并辅以极高的内存带宽和存储容量,它们能够处理更复杂的AI模型和更大的数据集,从而加速AI研究和应用的开发进程。
📈 **面向未来的技术路线图**:英伟达公布的技术路线图显示,Rubin GPU及其相关系统将于2026年底开始推出,2027年将迎来升级版的Rubin Ultra,2028年则规划了全新的Feynman GPU,继续与Vera CPU协同工作。这一持续的创新步伐表明英伟达致力于不断推动AI硬件的极限,为未来的AI发展奠定坚实基础。
💰 **高投资回报的承诺**:英伟达声称,通过部署这些新一代AI服务器,每投入1亿美元的成本,有望带来50亿美元的丰厚回报。这凸显了其强大的计算能力在提升AI研发效率和商业价值方面的巨大潜力,为企业投资AI提供了强有力的经济驱动。
快科技9月10日消息,除了宣布专门用于大规模上下文处理的Rubin CPX,NVIDIA还同时披露了新一代AI服务器,规模和性能实现了大幅度的跃升。
“Vera Rubin NVL144”定位于AI训练与推理用途的旗舰产品,应该每个机架配备36颗Vera CPU、144颗Rubin GPU,同时搭配1.4PB/s超高带宽的HBM4(容量没说),以及多达75TB存储。
算力性能在NVFP4数据精度下可高达3.5 EFlops,也就是每秒350亿亿次,对比GB300 NVL72提升3.3倍!

“Vera Rubin NVL144 CPX”又加入了72颗Rubin CPX,组成了单个机架144颗GPU、36颗CPU的庞大规模。
同时,它还有1.7PB/s带宽的HBM4内存、100TB高速存储,以及Quantum-X800 InfiniBand或者Spectrum-X以太网,搭配ConnectX-9 NIC网卡。
整机算力在NVFP4下达到了惊人的8 EFlops,即每秒800亿亿次,对比GB300 NVL72提升了7.5倍。

如果有需要,可以将两台服务器组合在一起,配置和算力直接翻倍。
NVIDIA号称,有了这样的AI服务器,每投入1亿美元,就可以换来50亿美元的收获。

NVIDIA最新公布的路线图显示,Rubin GPU和相关系统将在2026年底开始登场,2027年推出升级版Rubin Ultra,2028年则是全新的再下一代Feyman GPU,继续搭配Vera CPU。
