英伟达基于Blackwell Ultra架构的GB300 NVL72平台在MLPerf AI训练基准测试中表现卓越,包揽全部7个项目的冠军。该平台在训练大型模型方面展现出惊人速度,仅用10分钟便完成4050亿参数的Llama 3.1大模型训练。此外,在Llama 2 70B模型的LoRA微调任务中仅需0.4分钟,训练Llama 3.1 8B模型也仅需5.2分钟。与上一代产品相比,Blackwell Ultra性能实现巨大飞跃,8块GB300 GPU在Llama 2 70B微调任务中性能是同等H100 GPU的5倍,在Llama 3.1 405B预训练任务中性能是H100的4倍以上。性能突破得益于800 GB/s的Quantum-X800 InfiniBand高速网络、279GB HBM3e内存以及全面采用FP4精度。
🚀 **MLPerf训练基准全能冠军**:英伟达基于Blackwell Ultra架构的GB300 NVL72平台在MLPerf AI训练基准测试中展现出压倒性优势,包揽了全部7个项目的冠军,标志着其在AI训练领域的领先地位。
⚡ **超凡的大模型训练速度**:该平台在处理大型语言模型方面表现惊人,仅需10分钟即可完成拥有4050亿参数的Llama 3.1大模型的训练。此外,在Llama 2 70B模型的LoRA微调任务中仅用0.4分钟,训练Llama 3.1 8B模型也仅需5.2分钟,展现了其在不同规模模型训练上的高效性。
📈 **性能的代际飞跃**:与上一代产品相比,Blackwell Ultra架构带来了巨大的性能提升。在Llama 2 70B微调任务中,8块GB300 GPU的性能是同等数量H100 GPU的5倍;而在Llama 3.1 405B预训练任务中,GB300的性能更是H100的4倍以上,比同架构的GB200快近2倍。
💡 **软硬件协同创新的成果**:GB300 NVL72平台的卓越性能归功于软硬件的深度协同。硬件方面,集成了速率高达800 GB/s的Quantum-X800 InfiniBand高速网络,为每块GPU配备了279GB HBM3e高带宽内存,总内存容量高达40TB。软件层面,全面采用FP4精度,将计算速度提升至FP8的两倍,Blackwell Ultra架构进一步放大至3倍。
IT之家 11 月 13 日消息,科技媒体 Wccftech 昨日(11 月 12 日)发布博文,报道称在 MLPerf AI 训练基准测试中,英伟达基于 Blackwell Ultra 架构的 GB300 NVL72 平台包揽了全部 7 个项目的冠军,取得了压倒性胜利。

IT之家援引博文介绍,本次测试中最亮眼的成绩是,GB300 NVL72 平台仅用时 10 分钟,便完成训练拥有 4050 亿参数的 Llama 3.1 大模型。
此外,在其他关键测试中也表现出色,例如仅需 0.4 分钟即可完成 Llama 2 70B 模型的 LoRA 微调,训练 Llama 3.1 8B 模型也只需 5.2 分钟。

与上一代产品相比,Blackwell Ultra 的性能实现了巨大飞跃。测试结果显示,在 Llama 2 70B 微调任务中,8 块 GB300 GPU 提供的性能是同等数量 H100 GPU 的 5 倍。

而在 Llama 3.1 405B 预训练任务中,GB300 的性能也达到了 H100 的 4 倍以上,并且比同为 Blackwell 架构的 GB200 快了近 2 倍。

该媒体指出这一性能突破的背后,是软硬件协同创新的结果。硬件方面,GB300 NVL72 系统集成了速率高达 800 GB/s 的 Quantum-X800 InfiniBand 高速网络,并为每块 GPU 配备了 279GB 的 HBM3e 高带宽内存,整个系统的总内存容量(GPU+CPU)更是达到了惊人的 40TB。
在软件层面,FP4 精度的全面采用是关键。英伟达通过在模型训练的每一层都应用 FP4 精度,将计算速度提升至 FP8 的两倍,而 Blackwell Ultra 架构则将这一优势进一步放大至 3 倍。