IT之家 10月23日 13:52
美光推出192GB LPDDR5x内存模组,支持数据中心AI
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

美光宣布推出基于1-gamma LPDDR5x DRAM的192GB SOCAMM2内存模组,传输速率高达9600MT/s,支持数据中心AI系统,旨在提升数据中心服务器能效。

IT之家 10 月 23 日消息,美光 Micron 美国爱达荷州当地时间 22 日宣布已向客户出样基于最新 1-gamma LPDDR5x DRAM 的 192GB SOCAMM2 内存模组。

美光新出样的 SOCAMM2 可达到 9600MT/s 的传输速率,相较初代 SOCAMM 容量提升 50%,DRAM Die 级别能效提升超过 20%

而对于数据中心 AI 系统而言,192GB SOCAMM2 能在测试中将 TTFT(首 Token 延迟)缩短 80% 以上,并可在 Vera Rubin NVL144 机架系统中提供超过 40TB 的 CPU 内存(IT之家注:每系统 36 颗 CPU,每颗 CPU 配备 6 根 SOCAMM2)。

美光高级副总裁兼云存储业务部门总经理 Raj Narasimhan 表示:

随着人工智能工作负载日益复杂且要求更高,数据中心服务器必须提升能效,以每瓦功率处理更多数据。

美光在低功耗 DRAM 领域的领先地位已得到充分验证,确保我们的 SOCAMM2 内存模块能够提供数据吞吐量、能效、容量及数据中心级品质,这些特性对于驱动新一代人工智能数据中心服务器至关重要。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

美光 内存模组 数据中心 AI系统 能效
相关文章