美东时间10月15日, Arm官网发布公告,宣布与Meta达成战略合作,全面提升 AI 计算效率。以下是新闻稿全文。
新闻要点:战略合作将Arm在高能效计算领域的领导力与Meta在基础设施、AI产品和开放技术方面的创新能力相结合,旨在为全球数十亿用户带来更丰富、更易获取的AI体验。Meta的基础AI软件技术(包括PyTorch)现已针对Arm架构进行优化。其中,PyTorch的Executorch运行时利用Arm KleidiAI技术,旨在为Meta及全球开源社区实现极致的能效表现(每瓦性能最大化)。
Arm Holdings (ARM.US) 与 Meta Platforms (META.US) 宣布达成战略合作,旨在提升计算栈各层的AI效率,涵盖AI软件和数据中心基础设施,以期为全球数十亿用户带来更丰富的体验。合作范围从驱动设备端智能的毫瓦级设备,到训练世界最先进AI模型的兆瓦级系统,将赋能多种计算类型、工作负载和体验,以支持Meta的全球平台运营。
这项多年期合作基于双方持续的软硬件协同设计努力,结合了Arm在高能效AI计算方面的领先优势与Meta在AI驱动产品、基础设施及开放技术领域的创新能力,旨在实现显著的性能和效率提升。
Meta基础设施负责人Santosh Janardhan表示:"从平台体验到我们打造的设备,AI正在改变人们的连接和创造方式。与Arm合作使我们能够高效地将这些创新扩展至超30亿使用Meta应用和技术的用户。"
Arm首席执行官Rene Haas指出:"AI的下一阶段将由规模化效率来定义。与Meta合作,我们将Arm的每瓦性能领导力与Meta的AI创新相结合,旨在将更智能、更高效的人工智能从毫瓦级设备扩展到兆瓦级系统,无处不在。"
云端AI规模化
Meta的AI排序和推荐系统(驱动包括Facebook和Instagram在内的Meta系列应用的发现和个性化功能)将采用基于Arm Neoverse的数据中心平台,以期相比x86系统实现更高性能和更低功耗。在其整体基础设施中,Arm Neoverse还将助力Meta实现每瓦性能对标,这凸显了Arm计算在超大规模场景下的效率和可扩展性。
双方密切合作,针对Arm架构优化了Meta的AI基础设施软件栈(从编译器和库到主要AI框架)。这包括对开源组件(如Facebook通用矩阵乘法FBGEMM和PyTorch)进行联合调优,利用Arm的向量扩展和性能库,从而在推理效率和吞吐量上带来可衡量的提升。这些优化正回馈给开源社区,以扩大其在全球AI生态系统中的影响力。
加速从云到边缘的AI软件
合作还深化了双方在AI软件优化方面的协作,涵盖PyTorch机器学习框架、Executorch边缘推理运行时引擎和vLLM数据中心推理引擎,并计划在现已通过Arm KleidiAI优化的Executorch基础上进一步改进,提升数十亿设备的效率。这一合作将共同加速AI模型的部署便捷性,并提升从边缘到云的AI应用性能。
这些开源技术项目是Meta AI战略的核心,支持从推荐系统到对话式智能等各种AI功能的开发和部署。双方打算继续将这些优化扩展到未来的开源项目中,使全球数百万开发者能够在Arm架构上随处构建和部署高效的AI。
共同推动AI未来的发展
从兆瓦级数据中心到基础AI软件,Arm与Meta的合作是一次全栈协作,旨在将AI效率扩展至计算栈的每一个层面,为全球数十亿用户带来下一个智能、高效和互联体验的新时代。
编辑/joryn

