智源社区 10月30日 09:09
英伟达GTC大会:AI新纪元,算力与生态齐头并进
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

英伟达GTC大会上,黄仁勋将AI定义为“会用工具的工人”,并展示了颠覆性的下一代超级芯片Vera Rubin,性能较九年前的DGX-1提升百倍。大会还揭示了英伟达在AI原生6G、超算基建、自动驾驶、量子计算及物理AI领域的广泛布局。通过“极致协同设计”,英伟达的Blackwell和Rubin芯片有望在2026年底前冲击5000亿美元营收。同时,英伟达积极拥抱开源,并在物理AI、Robotaxi和AI原生6G网络等前沿领域持续创新,巩固其在AI生态中的核心地位。

🚀 **AI新定义与颠覆性硬件:** 黄仁勋将AI从“工具”升格为“会用工具的工人”,并首次公开了下一代超级芯片Vera Rubin,其计算能力达到100 Petaflops,是九年前DGX-1性能的100倍,预计明年量产,预示着AI算力的新飞跃。

🌐 **全栈式AI帝国构建:** 英伟达通过“极致协同设计”理念,整合了从芯片、系统到软件、模型的全栈能力,推出了Grace Blackwell等高性能计算平台。其AI工厂愿景,结合NVLink、BlueField-4等技术,旨在实现AI的Scale up、Scale out和Scale across,并预测Blackwell+Rubin架构将在2026年底前带来5000亿美元营收。

💡 **前沿技术与跨界融合:** 大会展示了英伟达在AI原生6G、自动驾驶(DRIVE Hyperion平台)、量子计算(NVQLink连接AI超算与量子处理器)以及物理AI(Omniverse数字孪生训练)等多个领域的深度布局,显示出其通过技术融合驱动各行业变革的雄心。

📚 **拥抱开源与生态赋能:** 英伟达积极贡献开源AI社区,在模型下载量和影响力方面位居前列,展现了其作为“开源扛把子”的实力。通过支持通用计算向加速计算、工具计算向智能计算的双平台迁移,英伟达GPU成为兼容所有架构的关键,赋能开发者构建更强大的AI应用。

🚗 **推动自动驾驶与智能交通:** 英伟达发布的DRIVE Hyperion 10平台,为Robotaxi和无人配送车提供了“开箱即用”的解决方案,集成了强大的AI芯片、安全操作系统和多模态传感器。结合VLA推理模型,能够实现类人级的复杂路况判断,加速自动驾驶技术的落地应用。

编辑:桃子 好困

英伟达GTC大会,首次在华盛顿召开。

在近两小时演讲中,老黄不仅再次上演了一波AI美队,而且还给出了AI时代独一份的洞察——

AI不是工具,而是会用工具的「工人」。

当老黄首次掏出下一代「杀手锏」Vera Rubin超级芯片时,全场都震撼了。

相较于九年前,他亲手交付给OpenAI的首个超算DGX-1,性能足足提升了100倍。并且明年就能量产。

当然,老黄的野心远不止于硬件。接下来的一系列震撼合作,将英伟达的AI帝国展示在了所有人面前:

    AI原生6G:推出「AI on RAN」技术,将AI与6G网络深度融合,让基站成为边缘的AI计算中心。

    超算基建:与美国能源部合作,建造7座全新的AI超算。

    自动驾驶:发布「开箱即用」的DRIVE Hyperion平台,让汽车「生而为Robotaxi」。

    量子计算:发布NVQLink技术,首次将AI超算与量子处理器无缝连接,加速量子计算的实用化进程。

    物理AI:通过Omniverse中的数字孪生技术,训练「物理AI」,加速机器人在现实世界中的部署,目标直指美国「再工业化」。

在三大Scaling Law驱使下,英伟达内部早已形成了良性正循环。

老黄预测,在2026年底前,仅凭「Blackwell+Rubin」就足以冲击5000亿美元的营收。

而且,这一数字还未将中国市场计算在内。


下一代Vera Rubin首秀
性能狂飙百倍


现场,老黄再次搬出了,未来三年英伟达GPU路线图,从Blackwell,到Rubin,再到Feynman。

他激动官宣,短短9个月后,Blackwell芯片已在亚利桑那州全面量产。

而真正站在全场C位的,还是下一代Vera Rubin的首次亮相。

这是英伟达第三代NVLink 72机架级超级计算机,彻底实现了无线缆连接。

目前,Vera Rubin超级芯片已在实验室完成测试,预计明年10月可以投产。

这块超级芯片计算能力达到100 Petaflops,是DGX-1性能的100倍。

换句话说,以前需要25个机架,现在一个Vera Rubin就能完成。

如下,便是Rubin计算托盘,推理性能可达440PF。

其底部配备了8个Rubin CPX GPU、BlueField-4数据处理器,还有两颗Vera CPU,以及4个Rubin封装——总共8个GPU,全部实现了无缆、全液冷。

同时,英伟达还引入了一种全新「上下文处理器」(Context Processor),支持超100万token上下文。

如今,AI模型要处理、记忆的上下文越来越多,它可以在回答问题前,学习和阅读成千上万份PDF、论文、视频。

此外,BlueField-4革命性处理器,可以加速AI模型加载时间。

还有NVLink交换机,可以让所有GPU同步传输数据;以太网交换机Spectrum-X可以确保处理器同时通信而不拥堵。

再加上Quantum交换机,三者结合,系统全部兼容InfiniBand、Quantum 和 Spectrum Ethernet。

所有这些组合起来,一个完整的机架塞满150万个零件,重量足足有两吨。

它的主干网络,一秒内就能传输相当于整个互联网的流量,刷新全球最快的token生成速度。

老黄表示,「一个1GW规模的数据中心,大概需要8000-9000台这样的机架。这就是未来的AI工厂」!


老黄抛出5000亿预言
AI美队再上线


GPU是AI革命的核心引擎,而AI的世界,远不止ChatGPT。

主题演讲上,老黄亲自科普了AI的定义。

一上来,他就给大众认知来了一个降维打击,AI并不等于聊天机器人。

他将其比作一个数据密集型的「编程」,在CPU时代的旧世界,人们手工编码,软件在CPU上运行,Windows主导了一切。

而在当下,机器学习训练,模型直接跑在GPU之上。

能源-GPU-超算-模型-应用,全栈的能力构成了完整的AI。

接下来,老黄还提出了一个对于AI的深刻洞察——

过去的软件产业,本质上是在「造工具」,Excel、Word、浏览器皆是工具。  

在IT领域,这些工具可能就是「数据库」之类的,其市场规模大约在一万亿美元左右。  

但AI不是工具,是「工人」。事实上,AI是「会用工具的工人」。  

这就是根本性差异。

到目前为止,人类发明的一切东西,本质上都是工具,都是给自己用的。

但这回是历史上头一次,技术自己会「干活」了。

老黄举例道,英伟达每一位工程师都在用Cursor,生产力得以大幅提升。而Cursor使用的工具是VS Code。

AI本身也正在成为一个「全新的产业」,当人们把各种形式的信息编程token之后,就需要一个「AI工厂」。

10x的性能,1/10的成本


「AI工厂」不同于过去的数据中心,是因为它基本上只做一件事——运行AI。

一来,生产尽可能有价值、更智能的token;其次,要用极高的速度将其生产出来。

过去两年,业界让AI学会了变得更加聪明的方法,预训练是第一阶段。

下一步就是后训练,再之后就是测试时,让AI不断思考(Long Thinking)。

这也是老黄一直以来,反复强调的三大Scaling Law。

模型越聪明,使用的人越多;用的人越多,需要的算力越多。

与此同时,摩尔定律边际趋缓,仅靠狂堆晶体管,无法解决两条指数曲线带来的「饥饿感」。

那么,摩尔定律已死,又该如何将成本大幅压下来?

老黄给出的答案是:极致协同设计(Extreme Co-design)。

英伟达是当今世界上,唯一一家真正从一张白纸开始,同时思考芯片、系统、软件、模型、应用的公司。

他们的协同设计,将AI算力实现了从Scale up到Scale out,再到Scale across的扩展。

Grace Blackwell NVL72,一台思考机器,就是英伟达「协同设计」的典型代表。

为了更直观说明,老黄再次上演「芯片版美队」,手里拿着巨型芯片,由72块GPU无缝互联。

他还调侃道,「下次要演雷神,一伸手,芯片就到手里了」

为了驾驭万亿级参数模型,它采用了MoE架构。传统系统受限于GPU间互联带宽,一块GPU要扛32位专家的计算。

在NVLink 72架构下,每块GPU可以放4位专家。

SemiAnalysis最新基准测试显示,Grace Blackwell每块GPU的性能,是H200的十倍。

只多了一倍晶体管,速度却快了十倍,秘诀就在于——极致协同设计。

GB200,这台世界上最昂贵的计算机,却能生成成本最低的token。

它的极致性能,均摊了每一次计算的总拥有成本(TCO),也就是说——

10倍性能,十分之一成本。

而此刻,这一突破正逢其时。

老黄展示了,全球六大云巨头的资本支出曲线(CapEx),正以史无前例的速度飙升。

它还联手能源部,官宣未来要建七大全新AI超算。

与此同时,老黄还指出,这场变革不是单线的,而是「双平台迁移」。

即通用计算转向加速计算,工具计算转向智能计算。

而英伟达GPU是唯一兼容以上所有的架构,包括加速计算和AI。

最令人震惊是,他预测,截至2026年,Blackwell+Rubin的可预见性收入累计5000亿美元。

算上目前已经出货的600万块Blackwell,未来两年将达2000万GPU出货量,相较于Hopper增长5倍(400万块)。

老黄正在释放一种信号——AI工厂已成新基建。

开源扛把子,没有弱项


不仅如此,老黄这场演讲,还在向世界宣告:英伟达不仅是算力之王,更是AI生态的绝对核心。

老黄一针见血,「过去几年,开源AI在推理、多模态、蒸馏效率三大维度上,实现巨大飞跃」。

正是这些进步,让开源模型第一次真正成为开发者手中非常实用的工具。

全世界,都离不开开源。

为此,英伟达也在全力投入这一方向。目前,他们在全球开源贡献榜上,23个模型上榜,覆盖了语言、物理AI、语音、推理等全领域。

我们拥有全球第一的语音模型、第一的推理模型、第一的物理AI模型。下载量也非常惊人。


物理AI时代
三台计算机铸真神


当AI走向应用最后一层堆栈,那便是物理AI(Physical AI)。

一直以来,老黄认为,要实现物理AI,需要三台计算机——

一个是GPU超算用于训练,一个通过Omniverse Computer用于模拟,另一个是机器人计算机。

以上这三种计算机上都运行着CUDA,由此才能推动「物理AI」发展,也就是理解物理世界、物理定律、因果关系的AI。

目前,英伟达正联手伙伴,打造一个工厂级的物理AI。一旦建成,就会有大量机器人在数字孪生的世界中工作。

Robotaxi,也是一种机器人


在自动驾驶领域,英伟达推出了一套「开箱即用的L4级自动驾驶底座」——DRIVE AGX Hyperion 10。

它搭载了NVIDIA DRIVE AGX Thor系统级芯片、经过安全认证的NVIDIA DriveOS操作系统、一套经过完整认证的多模态传感器套件(包含14个高清摄像头、9个雷达、1个激光雷达和12个超声波传感器)以及认证的板卡设计。

    算力与模型:共有两颗基于Blackwell架构的DRIVE AGX Thor,每颗算力超2,000 FP4 TFLOPS(1,000 INT8 TOPS),专为Transformer、VLA与GenAI优化,360°融合多模态传感器,面向L4自动驾驶。

    迭代与验证:平台可OTA升级、兼容现有AV软件,并引入Foretellix Foretify Physical AI工具链做测试与验证;同时开放全球最大多模态AV数据集(1700小时、25国),用于基础模型的开发/后训练/验证。

在数万亿英里真实及合成驾驶数据的加持下,新一代VLA(视觉-语言-动作)推理模型,让车辆不只能识别红绿灯,还能在无结构路口或人车行为突变时做出类人判断(比如理解交警临时指挥、突发改道),而且是在车上实时完成。

对于行业来说,公司可以直接拿到可量产的参考架构与数据/验证闭环,更快把Robotaxi或无人配送车跑起来。


NVIDIA ARC:用AI重新定义6G网络


在通信行业,英伟达则宣布与诺基亚达成合作,并推出了支持AI原生6G的加速计算平台——Aerial RAN Computer Pro(ARC-Pro)。

    ARC-Pro = AI基站主机:融合了「连接+计算+感知」能力的6G-ready加速计算平台;运营商未来可以通过软件升级的方式从5G-Advanced升到6G。

    AI-RAN = 无线+AI共生:把AI推理(如频谱调度、节能控制、用户体验优化)和传统RAN处理跑在同一套、由GPU加速的软定义基础设施上;同一站点还能顺带承载生成式/智能体AI的边缘服务,有效利用「基站闲时算力」。

与此同时,英伟达还将以每股6.01美元的认购价向诺基亚投资10亿美元。

交易宣布后,诺基亚股价收盘上涨20.86%,创下自2016年1月下旬以来的新高。


NVQLink:打通AI与量子的融合之路


在量子计算领域,众所周知,量子计算机的核心「量子比特」(Qubits),虽具备碾压传统计算机的并行计算潜力,但在计算过程会不断产生错误。

为了让它们正常工作,就必须依赖一台传统的超级计算机,通过一条要求严苛的超低延迟、超高吞吐量的连接,实时进行复杂的校准和纠错。

这条连接线,就是量子计算通往现实世界的最大瓶颈。

为此,英伟达推出了一款全新的互连技术——NVQLink,首次将量子处理器与AI超级计算机无缝地、紧密地连接在一起,形成一个单一、连贯的超级系统。

    硬件层:通过NVQLink,研究人员可以把不同量子路线(超导、离子阱、光子等)的处理器和控制硬件直接接到GPU超算上,避免了「绕以太网一大圈」的抖动与时延;同时,连在一起的GPU集群还可以继续向外扩展。

    软件层:通过CUDA-Q,研究人员可以在同一套编程接口里,把CPU、GPU、QPU编排成一台「混合超算」,让仿真、编排、实时控制能够在一个平台里闭环。

    生态层:集合9家美国实验室、17家量子硬件公司、5家控制系统公司之力,目标是把校准、纠错、混合应用做成可复用的「套路」。

正如老黄所说:「NVQLink是连接量子和经典超级计算机的罗塞塔石碑。它的出现,标志着量子-GPU计算时代的正式开启。」

参考资料:
https://www.youtube.com/watch?v=lQHK61IDFH4

内容中包含的图片若涉及版权问题,请及时与我们联系删除

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

英伟达 NVIDIA GTC AI 黄仁勋 Jensen Huang 超级芯片 Vera Rubin Blackwell AI工厂 自动驾驶 Robotaxi 6G 量子计算 开源
相关文章