飙叔科技洞察 前天 21:09
北大团队研发新型模拟计算芯片,有望打破算力垄断
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

北京大学团队在芯片领域取得重大突破,成功研制出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。该技术将模拟计算的高效率与数字计算的高精度相结合,解决了困扰全球科学界的“世纪难题”,将模拟计算精度提升了五个数量级,达到24位定点精度。与传统数字处理器相比,新型芯片在特定任务上速度提升千倍、能效提升百倍。这项技术有望应用于通信、人工智能和边缘计算领域,加速大模型训练,提升通信效率,并推动终端设备智能化。尽管距离大规模量产尚需时日,但该成果为国产算力产业开辟了新路径,对打破美国在数字计算领域的长期垄断具有重要意义。

💡 **突破性模拟计算技术:** 北京大学团队成功研发出基于阻变存储器的高精度、可扩展模拟矩阵计算芯片,解决了模拟计算在精度和可扩展性方面的世界性难题。通过结合物理定律的并行运算和数字计算的高精度,将传统模拟计算的精度提升了惊人的五个数量级,达到了24位定点精度,首次实现了在精度上可与数字计算媲美的模拟计算系统。

🚀 **性能飞跃与能效提升:** 相较于传统的数字处理器(如GPU),该新型模拟计算芯片在处理通信基站信号、AI大模型训练等涉及大量矩阵计算的特定任务时,展现出压倒性优势。在求解128x128矩阵时,其吞吐量可达顶级GPU的1000倍以上,且在相同精度下能效提升超100倍。理论上,以往GPU需一天完成的计算,该芯片仅需一分钟。

🌐 **广阔的应用前景与产业重塑:** 该技术在通信领域有望显著提升5G/6G网络的容量和能效,支持基站实时处理海量天线信号;在人工智能领域,将大大加速大模型训练效率;在边缘计算方面,其低功耗特性将推动智能手机、物联网设备等终端实现更复杂的信号处理和AI功能,降低对云端的依赖,有望重塑全球算力格局,并为国产算力产业开辟新路径,挑战美国在数字计算领域的长期垄断。

⏳ **产业化挑战与未来展望:** 尽管技术突破显著,但实现大规模量产仍面临挑战,包括扩大芯片计算规模(目前为16x16矩阵)、开发适配的算法和软件生态系统,以及与现有半导体产线适配和优化制造成本。团队预计,若进展顺利,未来3-5年内有望看到早期应用芯片或专用计算系统的出现,真正实现产业化尚需时间和耐心。

原创 飙叔科技洞察 2025-10-16 18:11 美国

北大团队的成果不仅解决了一个世纪难题;同时为国产算力产业,甚至是全球算力产业开创了一条全新的路径,有望打破美国在数字计算领域的长期垄断。

据《科技日报》10月15日消息,北京大学团队在芯片领域取得了一项引人瞩目的突破,他们研制出了一款基于阻变存储器的高精度、可扩展模拟矩阵计算芯片。相关论文于10月13日刊发于《自然·电子学》期刊。

我们熟悉的通信基站信号处理、AI大模型训练参数优化等,本质都是在解复杂的矩阵方程。采用数字方法实现高精度矩阵求逆的计算开销极大,耗时长、能耗高。于是,模拟计算重新进入研究视野,它直接利用物理定律实现并行运算,延时低、功耗低,在算力瓶颈背景下,具有先天优势。但如何让模拟计算兼具高精度与可扩展性,从而在现代计算任务中发挥其先天优势,一直是困扰全球科学界的世纪难题。

这项技术的核心突破,就是成功将模拟计算的高效率与数字计算的高精度融为一体,从而解决了全球的世纪难题研究团队通过新型信息器件、原创电路和经典算法的协同设计,构建了一个基于阻变存储器阵列的高精度、可拓展的全模拟矩阵方程求解器,将传统模拟计算的精度提升了惊人的五个数量级,首次达到了24位定点精度首次实现了在精度上可与数字计算媲美的模拟计算系统。

这么说有点太学术风了,为了让你更直观地理解这项突破的意义,可以与传统的数字处理器(如GPU)进行对比。具体如下表:

对比维度

传统数字处理器 (如GPU)

北大新型模拟计算芯片

计算方式

数字计算,受限于冯·诺依曼架构的"内存墙"

利用物理定律直接模拟计算,高并行、低延时

计算精度

高精度(例如FP32)

24位定点精度

,媲美数字计算

计算速度

-

求解128x128矩阵时,吞吐量达顶级GPU的1000倍以上

能效

-

相同精度下,能效提升超100倍

简单说,就是这项技术让芯片在处理通信基站信号、AI大模型训练等涉及大量矩阵计算的特定任务时,实现了速度的极大飞跃和能耗的显著降低。以往GPU需要花费一天才能完成的计算,这款新型芯片理论上仅需一分钟

那这项突破性技术将主要应用在哪些领域呢?如上所述,在通信和人工智能领域将发挥着巨大的作用,甚至有可能重塑多个关键领域的算力格局。

从通信领域来说,目前5.5G已经小规模商用,而未来的6G通信还在产业化过程之中,这项技术将让基站以实时且极低能耗的方式处理海量天线信号,显著提升网络容量和通信能效。

而在人工智能领域,这是未来全球争夺的焦点,通过北大此项技术将大大加速大模型训练中计算密集的二阶优化算法,从而显著提升训练效率。同时,在边缘计算上,由于其低功耗特性强力支持复杂的信号处理和AI的"训练-推理一体化"在智能手机、物联网设备等终端上直接运行,降低对云端的依赖,推动边缘计算发展。

因此,一旦北大研发的新型芯片产业化,对于全球通信以及人工智能产业的等高算力行业将是颠覆性的。当然,当前此项成果还没有真正走向市场,量产还需要跨越几个关键步骤。

其一,目前实验成功实现了16×16矩阵方程的求解。要应对更复杂的实际应用,需要将芯片的计算规模进一步扩大。这涉及到制造工艺的升级多芯片协同计算技术的完善。

其二,模拟计算芯片需要与特定的算法和软件紧密适配。未来需要开发专用的编程模型、编译器以及软件工具链构建起围绕新芯片的生态系统。

最后,芯片量产需要与现有的半导体产线(如28/22nm甚至更先进制程)进行适配和优化。同时,必须将制造成本控制在市场可接受的范围内,这本身是一个巨大的挑战。

这意味着,虽然研究团队已正积极推进该技术的产业化进程,但具体量产时间或许没那么快,根据北大团队成员的预计:如进展顺利,在未来3-5年将可以看到基于该技术的早期应用芯片或专用计算系统。

因此,从技术角度而言,北大团队的成果不仅解决了一个世纪难题;同时为国产算力产业,甚至是全球算力产业开创了一条全新的路径,有望打破美国在数字计算领域的长期垄断。但真正实现产业化,还需要更多的攻关以及时间和耐心!

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

北大团队 模拟计算芯片 算力 人工智能 通信技术 Peking University Analog Computing Computing Power Artificial Intelligence Communication Technology
相关文章