英伟达罕见不发显卡,刚刚黄仁勋带着2.5吨新「核弹」炸场,DeepSeek又被点名
![]()
这是英伟达 5 年来,第一次在 CES 上没发消费级显卡。
CEO 黄仁勋阔步走向 NVIDIA Live 的舞台中央,还是去年那件亮面鳄鱼皮衣。
![]()
与去年单独主旨演讲不同,2026 年的黄仁勋密集赶场。从 NVIDIA Live 到西门子工业 AI 对话,再到联想 TechWorld 大会,48 小时内横跨三场活动。
上一次,他在 CES 发布了 RTX 50 系列显卡,而这一次,物理 AI 和机器人技术成为了全新的主角。
Vera Rubin 计算平台登场,依旧是买越多省越多
发布会期间,爱整活的老黄直接把一台 2.5 吨重的 AI 服务器机架搬上了舞台,也因此引出了本次发布会的重点:Vera Rubin 计算平台,以发现暗物质的天文学家命名,目标只有一个:
加速 AI 训练的速度,让下一代模型提前到来。
![]()
通常来说,英伟达内部有个规矩:每代产品最多只改 1-2 颗芯片。但这次 Vera Rubin 打破了常规,一口气重新设计了 6 款芯片,并全面进入生产阶段。
究其原因,伴随着摩尔定律的放缓,传统性能提升方式已经跟不上 AI 模型每年 10 倍的增长速度,所以英伟达选择了「极致协同设计」——在所有芯片、整个平台各个层级上同时创新。
![]()
这 6 款芯片分别是:
1. Vera CPU:
– 88 个 NVIDIA 定制 Olympus 核心
– 采用 NVIDIA 空间多线程技术,支持 176 个线程
– NVLink C2C 带宽 1.8 TB/s
– 系统内存 1.5 TB(为 Grace 的 3 倍)
– LPDDR5X 带宽 1.2 TB/s
– 2270 亿个晶体管
![]()
2. Rubin GPU:
– NVFP4推理算力50PFLOPS,是前代 Blackwell的5倍
– 拥有 3360 亿晶体管,比 Blackwell 晶体管数量增加了 1.6 倍
– 搭载第三代Transformer引擎,能根据 Transformer 模型需求动态调整精度
![]()
3. ConnectX-9 网卡:
– 基于 200G PAM4 SerDes 的 800 Gb/s 以太网
– 可编程 RDMA 与数据通路加速器
– 通过 CNSA 与 FIPS 认证
– 230 亿个晶体管
![]()
4. BlueField-4 DPU:
– 专为新一代 AI 存储平台而构建的端到端的引擎
– 面向 SmartNIC 与存储处理器的 800G Gb/s DPU
– 搭配 ConnectX-9 的 64 核 Grace CPU
– 1260 亿个晶体管
![]()
5. NVLink-6 交换芯片:
-连接 18 个计算节点,支持最多 72 个 Rubin GPU 像一个整体协同运行
– 在 NVLink 6 架构下,每个 GPU 可获得 3.6 TB 每秒的 all-to-all 通信带宽
– 采用 400G SerDes,支持 In-Network SHARP Collectives,可在交换网络内部完成集合通信操作
![]()
6. Spectrum-6 光以太网交换芯片
– 512 通道,每通道 200Gbps,实现更高速数据传输
– 集成台积电 COOP 工艺的硅光子技术
– 配备共封装光学接口(copackaged optics)
– 3520 亿个晶体管
![]()
通过 6 款芯片的深度整合,Vera Rubin NVL72 系统性能比上一代 Blackwell 实现了全方位的提升。
在 NVFP4 推理任务中,该芯片达到了 3.6 EFLOPS 的惊人算力,相比上一代 Blackwell 架构提升了 5 倍。在 NVFP4 训练方面,性能达到 2.5 EFLOPS,实现 3.5 倍的性能提升。
存储容量方面,NVL72 配备了 54TB 的 LPDDR5X 内存,是前代产品的 3 倍。HBM(高带宽内存)容量达到 20.7TB,提升 1.5 倍。在带宽性能上,HBM4 带宽达到 1.6 PB/s,提升 2.8 倍;Scale-Up 带宽更是高达 260 TB/s,实现了 2 倍增长。
尽管性能提升如此巨大,晶体管数量只增加了 1.7 倍,达到 220 万亿个,展现了半导体制造技术上的创新能力。
![]()
工程设计上,Vera Rubin 同样带来了技术突破。
以前的超算节点要接 43 根线缆,组装要 2 小时,还容易装错。现在 Vera Rubin 节点采用 0 根线缆,只有 6 根液冷管线,5 分钟搞定。
更夸张的是,机架后面布满了总长近 3.2 公里的铜缆,5000 根铜缆构成 NVLink 主干网络,实现 400Gbps 传输速度,用老黄的话来说,:「可能有几百磅重,你得是体格很好的 CEO 才能胜任这份工作」。
在 AI 圈里时间就是金钱,一个关键数据是,训练一个 10 万亿参数模型,Rubin 只需 Blackwell 系统数量的 1/4,生成一个 Token 的成本约为 Blackwell 的 1/10。
![]()
此外,虽然 Rubin 的功耗是 Grace Blackwell 的 2 倍,但性能提升远超功耗增长,整体推理性能提升 5 倍,训练性能提升 3.5 倍。
更重要的是,Rubin 相比 Blackwell 吞吐量(每瓦-每美元可完成的 AI Token 数)提升10倍,对于造价 500 亿美元的千兆瓦数据中心来说,这意味着营收能力将迎来直接翻倍。
过去 AI 行业的最大痛点是,上下文内存不够用。具体来说,AI 在工作时会生成「KV Cache」(键值缓存),这是 AI 的「工作记忆」。问题是,随着对话变长、模型变大,HBM 内存显得有些捉襟见肘。
![]()
去年英伟达推出 Grace-Blackwell 架构扩展内存,但还是不够。而Vera Rubin 的方案是在机架内部署 BlueField-4 处理器,专门管理 KV Cache。
每个节点配 4 个 BlueField-4,每个背后有 150TB 上下文内存,分配到 GPU 上,每块 GPU 额外获得 16TB 内存——而 GPU 自带内存只有约 1TB,关键是带宽保持 200Gbps,速度不打折。
但仅有容量还不够,要让分布在几十个机架、上万块 GPU 上的「便签」像同一块内存那样协同,网络必须同时做到「够大、够快、够稳」。这就轮到 Spectrum-X 登场了。
Spectrum-X 是英伟达推出的全球首款「专为生成式 AI 设计」的端到端以太网网络平台,最新一代的 Spectrum-X 采用台积电 COOP 工艺,集成硅光子技术,512 通道×200Gbps 速率。
老黄算了笔账:一个千兆瓦数据中心造价 500 亿美元,Spectrum-X 能带来 25% 吞吐提升,相当于节省 50 亿美元。「你可以说这个网络系统几乎是『白送』的。」
安全方面,Vera Rubin 还支持保密计算(Confidential Computing)。所有数据在传输、存储、计算过程中全程加密,包括 PCIe 通道、NVLink、CPU-GPU 通信等所有总线。
企业可以放心把自己的模型部署到外部系统,不用担心数据泄露。
DeepSeek 震惊了世界,开源和智能体是 AI 主流
重头戏看完,回到演讲开始。黄仁勋一上台就抛出了一个惊人的数字,过去十年投入的约 10 万亿美元计算资源,正在被彻底现代化。
但这不仅仅是硬件的升级,更多的是软件范式的转移。他特别提到了具备自主行为能力(Agentic)的智能体模型,并点名了 Cursor,彻底改变了英伟达内部的编程方式。
![]()
最让现场沸腾的,是他对开源社区的高度评价。黄仁勋直言,去年 DeepSeek V1 的突破让全世界感到意外,它作为第一个开源推理系统,直接激发了整个行业的发展浪潮。PPT 上,我们熟悉的国产玩家 Kimi k2 和 DeepSeek V3.2 分别是开源第一和第二。
黄仁勋认为,虽然开源模型目前可能落后最顶尖模型约六个月,但每隔六个月就会出现一个新模型。
这种迭代速度让初创公司、巨头、研究人员都不愿错过,包括英伟达在内。
所以,他们这次也没有只卖铲子,推销显卡;英伟达构建了价值数十亿美元的 DGX Cloud 超级计算机,开发了像 La Proteina(蛋白质合成)和 OpenFold 3 这样的前沿模型。
![]()
▲ 英伟达开源模型生态系统,涵盖了生物医药、物理 AI、智能体模型、机器人以及自动驾驶等
而英伟达 Nemotron 模型家族的多款开源模型,也成为这次演讲的亮点。其中包含语音、多模态、检索生成增强以及安全等多个方面的开源模型,黄仁勋也提到,Nemotron 开源模型在多个测试榜单上表现优秀,并且正在被大量的企业采用。
物理 AI 是什么,一口气连发几十款模型
如果说大语言模型解决了「数字世界」的问题,那么英伟达的下一个野心,很明显是要征服「物理世界」。黄仁勋提到,要让 AI 理解物理法则,并在现实中生存,数据是极其稀缺的。
在智能体开源模型 Nemotron 之外,他提出了构建物理 AI(Physical AI)的「三台计算机」核心架构。
![]()
- 训练计算机,也就是我们熟知的,由各种训练级显卡构建的计算机,像图片中提到的 GB300 架构。
- 推理计算机,运行在机器人或汽车边缘端的「小脑」,负责实时执行。
- 模拟计算机,包括 Omniverse 和 Cosmos,它能为 AI 提供一个虚拟的训练环境,让它在模拟中学习物理反馈。
![]()
▲ Cosmos 系统能生成大量的物理世界 AI 训练环境
基于这套架构,黄仁勋正式发布了震惊全场的 Alpamayo,全球首个具备思考和推理能力的自动驾驶模型。
![]()
与传统自动驾驶不同,Alpamayo 是端到端训练的系统。它的突破性在于解决了自动驾驶的「长尾问题」。面对从未见过的复杂路况,Alpamayo 不再是死板地执行代码,而是能像人类司机一样进行推理。
「它会告诉你接下来会做什么,以及它为什么会做出这样的决策」。在演示中,车辆的驾驶方式惊人地自然,能够将极端复杂的场景,拆解为基础常识来处理。
演示之外,这一切也不是纸上谈兵。黄仁勋宣布,搭载 Alpamayo 技术栈的奔驰 CLA,将在今年第一季度于美国正式上线,随后陆续登陆欧洲和亚洲市场。
![]()
这辆车被 NCAP 评为全球最安全的汽车,底气就是来自于英伟达独特的「双重安全栈」设计。当端到端的 AI 模型对路况信心不足时,系统会立即切换回传统的、更稳妥的安全防护模式,确保绝对安全。
发布会上,老黄还特地展示了英伟达的机器人战略。
![]()
▲九大顶级 AI 及相关硬件制造商之间的竞争,他们都在扩大产品线,尤其是要抢夺机器人赛道,高亮的单元格为自去年以来的新产品
所有机器人都将搭载 Jetson 小型计算机,在Omniverse 平台的 Isaac 模拟器中接受训练。并且英伟达正在把这套技术整合进Synopsys、Cadence、西门子等工业体系。
![]()
▲ 黄仁勋邀请了包括波士顿动力、Agility 等人形机器人、四足机器人「登台」,他强调,最大的机器人其实是工厂本身
自下而上,英伟达的愿景是,未来芯片设计、系统设计、工厂仿真,都将由英伟达物理 AI 加速。发布上,又是迪士尼机器人闪亮登场,老黄还因此对着这群超萌机器人调侃道:
「你们会在计算机中被设计、在计算机中被制造,甚至在真正面对重力之前,就会在计算机中被测试和验证。」
![]()
如果不说是黄仁勋,整场主题演讲看下来甚至会以为是某个模型厂商的发布会。
在 AI 泡沫论甚嚣尘上的今天,除了摩尔定律的放缓,黄仁勋似乎也需要用 AI 到底能做什么,来提升我们每个人对 AI 的信心。
除了发布全新 AI 超算平台 Vera Rubin 的强悍性能,来安抚算力饥渴,他在应用和软件上也比以往花了更多的功夫,拼尽全力让我们看到,AI 将会带来哪些直观改变。
此外,就像黄仁勋说的一样,过去他们为虚拟世界造芯,现在他们也下场亲自演示,将注意力放在以自动驾驶、人形机器人为代表的物理 AI,走进行业竞争更激烈的真实物理世界。
毕竟,只有仗打起来,军火才能持续卖下去。
文|莫崇宇、张子豪、姚桐
#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。