index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html
谷歌量子团队最新研究在《Nature》封面发布,标志着首个“可验证的量子优势”实现。该团队利用新一代量子芯片Willow,通过名为“Quantum Echoes”的技术,成功执行了一项处理时间排序关系的重复定向程序,速度是当前最强超级计算机的13,000倍。与2019年首次提出的“量子优越性”不同,此次成果的关键在于其“可复现、可验证、没法作弊”的特性,解决了之前的争议。新测试题LRCM-R(Local Random Circuit with Measurement and Reuse)通过局部测量和量子比特复用,增加了电路拓扑和经典逻辑控制的复杂度,使得经典计算机难以模拟。验证机制利用OTOC和OTOC²(Out-of-time-order correlator)来确保系统可逆性,防止作弊。实验数据表明,量子系统能够自我验证任务完成,并且在规模扩展上远超经典模拟器的能力极限,预示着量子计算正迎来一个重要拐点。
🌟 **里程碑式的“可验证量子优势”:** 谷歌量子团队通过名为“Quantum Echoes”的技术,在《Nature》上展示了首个可被验证的量子优势。这标志着量子计算不再是理论上的优越性,而是可以通过实验数据重复验证的实际能力,且速度远超现有最强超级计算机。
🔍 **“Quantum Echoes”验证机制:** 核心在于LRCM-R(Local Random Circuit with Measurement and Reuse)测试。该测试通过局部测量、量子比特复用以及引入经典逻辑控制路径,创建了一个经典计算机难以模拟的复杂系统。利用OTOC和OTOC²指标,量子系统能够自我验证其计算过程的完整性和可逆性,解决了过去“无法验证”的争议。
🚀 **超越经典计算的性能飞跃:** 实验数据显示,当任务规模扩展到一定程度,即使是谷歌自家的经典模拟器和最强的超级计算机Frontier也无法有效模拟。Willow量子芯片完成的任务,经典计算机模拟可能需要数年时间,而量子芯片仅需数小时,展现了超过万倍的效率差距。
🧠 **理解与执行的融合:** Willow芯片不仅能够高效执行复杂的量子计算任务,还能通过OTOC²干涉图谱反推电路的哈密顿量结构,理解并预测其物理逻辑。这种“能跑通并理解”的能力,是经典机器无法企及的,预示着量子系统正朝着更智能化的方向发展。
原创 R.Zen 2025-10-23 12:50 上海
Google 量子团队原先硬件负责人 John Martinis 在月初刚刚获得了 诺贝尔物理学奖,而就在今天上午,Google 量子团队的最新成果又登上了《Nature》封面。 而这带来了一个重要信号:第一个 「可验证的量子优势」已经实现。 什么意思? 简单说:之前都是说量子计算的优势有望实现,这次是第一次,实验数据能被全系统体系的量子计算机重复。 这不是把最快超级计算机打败了吗? 没错,这次进程被称为 Quantum Echoes (量子回声),运行在新一代量子芯片 Willow 上,成功执行了一套处理时间排序关系的重复定向程序。而这套程序的执行速度,是目前最强超级计算机的 13,000 倍。 2019 年,Google 第一次提出「量子优越性」时,全世界的注意力都被量子两个字拉满。 他们用的是 Sycamore 芯片,54 个量子比特,搞了一个叫 Random Circuit Sampling 的任务。 简单理解,是让量子处理器生成一串复杂到经典计算机几乎无法预测的比特串。最后他们说:我们 200 秒干完的活,超算得跑 1 万年。 这一结果虽然轰动,但争议也随之而来。 最大的质疑点有两个: 第一,这个任务本身没人用,就像你设计了一道解不开的谜语,不代表你比别人聪明。 第二,结果没人能验,因为没有第二台量子芯片能完全复刻 Sycamore 的路径。 你说你做到了,我怎么知道是不是你“调试”了测量过程? Google 显然知道这些争议。于是,他们这次用了六年时间,端出一份「能复现、可验证、没法作弊」的量子测试题。 这道题的名字叫:LRCM-R,全称 Local Random Circuit with Measurement and Reuse。 好长。。但意思很简单,就是: 把整个芯片切成多个 tile(每个 tile 包含 5 个量子比特); 每个 tile 跑一个小电路,随机初始化、执行若干门操作、再测量; 重点是测量之后的量子比特,还会复用,作为后续电路的输入; 整个过程循环多轮,测量-复用-重置-再次测量…… 这不光让电路拓扑更复杂,还引入了经典逻辑控制路径(feed-forward),进一步增加了熵流复杂度。而对于经典计算机来说,模拟这样的“测量-复用-反馈-并行”系统,几乎是指数级爆炸的。 但如果你想问:Google 是怎么做到用“量子系统能验证量子系统”的? 答案就在这张图里: 图中分上下两部分。 上半部分是“局部测量叠层图”:每一层是一个 tile 的状态,分别标记了 X、Y、Z、I 操作;右侧是相应的 Pauli 空间变换图。注意这个箭头的结构,是从一个初始算符 B 开始,不断被演化成多个路径(Pauli string),每一个路径代表着一次“信息的流动与纠缠扩散”。 这就是我们所说的量子信息在电路中的“回声”。 下半部分,是真正关键的验证机制:OTOC 和 OTOC²。 它们是两个干涉仪结构图(interferometers)。按我的理解是,我先给量子系统输入一个状态(ψ₀),让它执行 U 演化(也就是电路演化)。中间插入一个干扰项 B,然后再执行 U†(反演)。如果最后测量得到的状态和起点 ψ₀ 一致,那么说明整个系统是“可逆的”,也就是说:你没有作弊,没有泄露信息,系统确实跑完了这个任务。(有错误的话欢迎大家在评论区指正) 而这套流程,就叫做 Quantum Echo(量子回声)。 OTOC(Out-of-time-order correlator)这个指标,在很多高能物理和量子引力研究中,都是检验系统“混沌性”的黄金标准。现在,它被搬进了实用量子任务中,作为“反作弊雷达”。 那这个 「回声验证」机制到底有没有效果? 谷歌这次一口气完成了三组实验,每一组都瞄准一个核心问题,给出了明确答案。我们直接看实验数据。 他们跑了几十轮 LRCM-R 电路,在不同 tile 数、不同深度下测试 OTOC 与 OTOC² 的回声强度,发现只要芯片架构不崩,回声干涉就不会崩。 量子系统可以自证自己完成了任务,而不是像以前那样,必须依赖经典手段事后复查。 来看下面这个对比测试。 谷歌动用了自家的三个经典模拟器(Schrödinger、Feynman、Path-integral),在计算资源不设限的前提下,最多也只能勉强跑出小规模版本(例如 tile 数 ≤8,电路层数 ≤5)。 一旦规模扩展到 Willow 实际跑的任务量级,比如 70 个比特、深度 9 层,经典模拟器直接崩溃,内存爆炸、路径发散、回声失真,全线失败。 甚至为了验证这一点,研究团队还在当下最强的超级计算机 Frontier 上尝试复现同样的 65 比特 OTOC² 信号。 结果显示,即使在极限优化下,经典模拟预计也需要 三年多的运算时间。 而 Willow 量子芯片完成一次实测,只用了 约两个小时 。 两者在执行效率上,已经拉开了 超过一万倍的量级差距 。 再看最后一组。他们用 OTOC² 的干涉图谱,去 反推电路演化的哈密顿量结构 (Hamiltonian Learning),结果不仅成功拟合出系统的主导耦合项,还能预测新任务下的干涉行为。 这是什么概念? Willow 芯片现在不仅能跑通一个复杂电路,还能理解这个电路背后的物理逻辑。 在过去,这是量子研究者最理想的状态:一个既能完成任务、又能解释任务的量子系统。 这一点,是经典机器永远做不到的。 量子计算,或许已经迎来了它的 ChatGPT-3 时刻。 它还不完美,还远未抵达“通用量子计算”的彼岸。但如果你问我,这是不是那个关键的拐点? 我想,是的。 因为它,已经开始自己“回响”了。 阅读原文
跳转微信打开