原创 飙叔科技洞察 2025-10-16 18:11 美国
北大团队的成果不仅解决了一个世纪难题;同时为国产算力产业,甚至是全球算力产业开创了一条全新的路径,有望打破美国在数字计算领域的长期垄断。
据《科技日报》10月15日消息,北京大学团队在芯片领域取得了一项引人瞩目的突破,他们研制出了一款基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。相关论文于10月13日刊发于《自然·电子学》期刊。
我们熟悉的通信基站信号处理、AI大模型训练参数优化等,本质都是在解复杂的矩阵方程。采用数字方法实现高精度矩阵求逆的计算开销极大,耗时长、能耗高。于是,模拟计算重新进入研究视野,它直接利用物理定律实现并行运算,延时低、功耗低,在算力瓶颈背景下,具有先天优势。但如何让模拟计算兼具高精度与可扩展性,从而在现代计算任务中发挥其先天优势,一直是困扰全球科学界的世纪难题。
这项技术的核心突破,就是成功将模拟计算的高效率与数字计算的高精度融为一体,从而解决了全球的世纪难题。研究团队通过新型信息器件、原创电路和经典算法的协同设计,构建了一个基于阻变存储器阵列的高精度、可拓展的全模拟矩阵方程求解器,将传统模拟计算的精度提升了惊人的五个数量级,首次达到了24位定点精度首次实现了在精度上可与数字计算媲美的模拟计算系统。
这么说有点太学术风了,为了让你更直观地理解这项突破的意义,可以与传统的数字处理器(如GPU)进行对比。具体如下表:
对比维度
传统数字处理器 (如GPU)
北大新型模拟计算芯片
数字计算,受限于冯·诺依曼架构的"内存墙"
利用物理定律直接模拟计算,高并行、低延时
高精度(例如FP32)
,媲美数字计算
-
求解128x128矩阵时,吞吐量达顶级GPU的1000倍以上
-
相同精度下,能效提升超100倍
简单说,就是这项技术让芯片在处理通信基站信号、AI大模型训练等涉及大量矩阵计算的特定任务时,实现了速度的极大飞跃和能耗的显著降低。以往GPU需要花费一天才能完成的计算,这款新型芯片理论上仅需一分钟。
那这项突破性技术将主要应用在哪些领域呢?如上所述,在通信和人工智能领域将发挥着巨大的作用,甚至有可能重塑多个关键领域的算力格局。
从通信领域来说,目前5.5G已经小规模商用,而未来的6G通信还在产业化过程之中,这项技术将让基站以实时且极低能耗的方式处理海量天线信号,显著提升网络容量和通信能效。
而在人工智能领域,这是未来全球争夺的焦点,通过北大此项技术将大大加速大模型训练中计算密集的二阶优化算法,从而显著提升训练效率。同时,在边缘计算上,由于其低功耗特性强力支持复杂的信号处理和AI的"训练-推理一体化"在智能手机、物联网设备等终端上直接运行,降低对云端的依赖,推动边缘计算发展。
因此,一旦北大研发的新型芯片产业化,对于全球通信以及人工智能产业的等高算力行业将是颠覆性的。当然,当前此项成果还没有真正走向市场,量产还需要跨越几个关键步骤。
其一,目前实验成功实现了16×16矩阵方程的求解。要应对更复杂的实际应用,需要将芯片的计算规模进一步扩大。这涉及到制造工艺的升级和多芯片协同计算技术的完善。
其二,模拟计算芯片需要与特定的算法和软件紧密适配。未来需要开发专用的编程模型、编译器以及软件工具链,构建起围绕新芯片的生态系统。
最后,芯片量产需要与现有的半导体产线(如28/22nm甚至更先进制程)进行适配和优化。同时,必须将制造成本控制在市场可接受的范围内,这本身是一个巨大的挑战。
这意味着,虽然研究团队已正积极推进该技术的产业化进程,但具体量产时间或许没那么快,根据北大团队成员的预计:如进展顺利,在未来3-5年将可以看到基于该技术的早期应用芯片或专用计算系统。
因此,从技术角度而言,北大团队的成果不仅解决了一个世纪难题;同时为国产算力产业,甚至是全球算力产业开创了一条全新的路径,有望打破美国在数字计算领域的长期垄断。但真正实现产业化,还需要更多的攻关以及时间和耐心!
