IT之家 08月27日
AMD Instinct MI350系列AI加速卡发布,性能大幅提升
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

AMD 在 Hot Chips 2025 上公布了 Instinct MI350 系列 AI 加速卡的详细信息。该系列基于 3nm CDNA 4 架构,采用 3D 多芯粒设计,集成 1850 亿晶体管,并支持 288GB HBM3e 显存,总带宽高达 8TB/s。MI350 系列旨在提升训练和推理大语言模型的能力,相较上一代产品,在 Llama 3.1 405B 推理吞吐性能上提升高达 35 倍。该系列包括风冷 MI350X 和液冷 MI355X,分别提供 1000W 和 1400W 功耗上限,并支持 GPU 和显存按需分区,可优化数据中心部署。AMD 计划于 2025 年第三季度上市该系列产品,并已开始研发下一代 MI400 系列。

🚀 **全新 CDNA 4 架构与 3nm 工艺**:AMD Instinct MI350 系列采用了先进的 3nm 工艺和全新的 CDNA 4 架构,实现了 1850 亿晶体管的集成。这种设计带来了显著的性能提升,特别是在 AI 训练和推理方面,为处理大规模语言模型提供了强大的算力支持。

💡 **海量显存与超高带宽**:该系列配备了高达 288GB 的 HBM3e 高带宽显存,单卡总带宽高达 8TB/s。这为处理庞大的数据集和复杂的 AI 模型提供了充足的内存容量和极快的访问速度,是应对现代 AI 挑战的关键。

📈 **性能飞跃与能效提升**:与上一代 MI300 系列相比,MI350 系列在 Llama 3.1 405B 推理吞吐量方面提升了高达 35 倍,在 Deepseek R1 推理能力上提升了 3 倍。同时,MI355X 在 FP6 和 FP64 指标上相较英伟达 GB200/B200 具有 2 倍以上优势,显示出其在性能和能效上的强大竞争力。

🎛️ **灵活的系统设计与扩展性**:MI350 系列支持 GPU 和显存按需分区,允许在单插槽内运行多个模型实例,并可通过高速互联实现多卡协同。标准 OAM 封装设计使其能方便地集成到数据中心的基础设施中,与最新的服务器处理器和网络设备配合,构建高效的 AI 计算平台。

IT之家 8 月 27 日消息,科技媒体 WccfTech 昨日(8 月 26 日)发布博文,报道称在 Hot Chips 2025 上,AMD 公布了 Instinct MI350 系列 AI 加速卡的完整架构细节。

该系列基于 3nm CDNA 4 架构,采用 3D 多芯粒设计,集成 1850 亿晶体管,支持 288GB HBM3e 高带宽显存,总带宽达 8TB/s。

IT之家援引博文介绍,MI350 系列是 AMD 针对 AI 领域的最新旗舰方案,主要提升训练和推理大语言模型(LLM)的能力,基于全新 CDNA 4 架构与 3nm 工艺,采用 3D 多芯粒(3D Multi-Chiplet)设计,单卡集成 1850 亿晶体管,并引入 288GB HBM3e 显存,单卡带宽高达 8TB/s。

MI350 系列中包括风冷的 MI350X 与液冷的 MI355X,两者分别具备 1000W 与 1400W 功耗上限,最高频率分别为 2.2GHz 和 2.4GHz。

核心采用 8 个 XCD(加速计算芯粒)与 2 个 IOD(IO 芯粒),通过第四代 Infinity Fabric 互联,双向带宽可达 1075GB/s,并内置 256MB Infinity Cache,HBM3e 控制器支持 8 颗 36GB 堆叠显存,形成 288GB 总容量。

在计算单元方面,单卡配备 256 个计算单元(CU),共 16384 个流处理器及 1024 个矩阵核心,支持 FP8、MXFP6 / MXFP4、INT8 / INT4 等多种低精度数据类型,FP4 / FP6 算力最高 20PFLOPs,FP8 算力最高 80.5PFLOPs。

与上代 MI300 系列相比,运行 Llama 3.1 405B 推理吞吐性能提升可达 35 倍,Deepseek R1 推理能力提升 3 倍。

系统扩展上,MI350 系列支持 GPU 和显存按需分区,可在单插槽内运行多达 8 个 700 亿参数模型实例,并可在多卡配置下通过 154GB/s 双向链路互联。

标准 OAM 封装可安装至 UBB2.0 底板,8 卡系统可搭配最新第五代 EPYC 处理器与 400GbE 网络接口,部署于数据中心机架。

相比较英伟达的 GB200 / B200 ,MI355X 在 FP6、FP64 等指标上具备 2 倍以上优势,HBM 容量领先 1.6 倍。AMD 表示,该系列将于 2025 年第三季度由合作伙伴供货,并透露已着手研发下一代 MI400 系列,计划 2026 年推出。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

AMD Instinct MI350 AI加速卡 CDNA 4 HBM3e 大语言模型 AI AMD GPU Hot Chips 2025 AI accelerators large language models artificial intelligence
相关文章