普通视图

发现新文章,点击刷新页面。
昨天以前首页

英伟达罕见不发显卡,刚刚黄仁勋带着2.5吨新「核弹」炸场,DeepSeek又被点名

作者 张子豪
2026年1月6日 09:56

这是英伟达 5 年来,第一次在 CES 上没发消费级显卡。

CEO 黄仁勋阔步走向 NVIDIA Live 的舞台中央,还是去年那件亮面鳄鱼皮衣。

与去年单独主旨演讲不同,2026 年的黄仁勋密集赶场。从 NVIDIA Live 到西门子工业 AI 对话,再到联想 TechWorld 大会,48 小时内横跨三场活动。

上一次,他在 CES 发布了 RTX 50 系列显卡,而这一次,物理 AI 和机器人技术成为了全新的主角。

Vera Rubin 计算平台登场,依旧是买越多省越多

发布会期间,爱整活的老黄直接把一台 2.5 吨重的 AI 服务器机架搬上了舞台,也因此引出了本次发布会的重点:Vera Rubin 计算平台,以发现暗物质的天文学家命名,目标只有一个:

加速 AI 训练的速度,让下一代模型提前到来。

通常来说,英伟达内部有个规矩:每代产品最多只改 1-2 颗芯片。但这次 Vera Rubin 打破了常规,一口气重新设计了 6 款芯片,并全面进入生产阶段。

究其原因,伴随着摩尔定律的放缓,传统性能提升方式已经跟不上 AI 模型每年 10 倍的增长速度,所以英伟达选择了「极致协同设计」——在所有芯片、整个平台各个层级上同时创新。

这 6 款芯片分别是:

1. Vera CPU:
– 88 个 NVIDIA 定制 Olympus 核心
– 采用 NVIDIA 空间多线程技术,支持 176 个线程
– NVLink C2C 带宽 1.8 TB/s
– 系统内存 1.5 TB(为 Grace 的 3 倍)
– LPDDR5X 带宽 1.2 TB/s
– 2270 亿个晶体管


2. Rubin GPU:
– NVFP4推理算力50PFLOPS,是前代 Blackwell的5倍
– 拥有 3360 亿晶体管,比 Blackwell 晶体管数量增加了 1.6 倍
– 搭载第三代Transformer引擎,能根据 Transformer 模型需求动态调整精度

3. ConnectX-9 网卡:
– 基于 200G PAM4 SerDes 的 800 Gb/s 以太网
– 可编程 RDMA 与数据通路加速器
– 通过 CNSA 与 FIPS 认证
– 230 亿个晶体管

4. BlueField-4 DPU:
– 专为新一代 AI 存储平台而构建的端到端的引擎
– 面向 SmartNIC 与存储处理器的 800G Gb/s DPU
– 搭配 ConnectX-9 的 64 核 Grace CPU
– 1260 亿个晶体管

5. NVLink-6 交换芯片:
-连接 18 个计算节点,支持最多 72 个 Rubin GPU 像一个整体协同运行
– 在 NVLink 6 架构下,每个 GPU 可获得 3.6 TB 每秒的 all-to-all 通信带宽
– 采用 400G SerDes,支持 In-Network SHARP Collectives,可在交换网络内部完成集合通信操作


6. Spectrum-6 光以太网交换芯片
– 512 通道,每通道 200Gbps,实现更高速数据传输
– 集成台积电 COOP 工艺的硅光子技术
– 配备共封装光学接口(copackaged optics)
– 3520 亿个晶体管

通过 6 款芯片的深度整合,Vera Rubin NVL72 系统性能比上一代 Blackwell 实现了全方位的提升。

在 NVFP4 推理任务中,该芯片达到了 3.6 EFLOPS 的惊人算力,相比上一代 Blackwell 架构提升了 5 倍。在 NVFP4 训练方面,性能达到 2.5 EFLOPS,实现 3.5 倍的性能提升。

存储容量方面,NVL72 配备了 54TB 的 LPDDR5X 内存,是前代产品的 3 倍。HBM(高带宽内存)容量达到 20.7TB,提升 1.5 倍。在带宽性能上,HBM4 带宽达到 1.6 PB/s,提升 2.8 倍;Scale-Up 带宽更是高达 260 TB/s,实现了 2 倍增长。

尽管性能提升如此巨大,晶体管数量只增加了 1.7 倍,达到 220 万亿个,展现了半导体制造技术上的创新能力。

工程设计上,Vera Rubin 同样带来了技术突破。

以前的超算节点要接 43 根线缆,组装要 2 小时,还容易装错。现在 Vera Rubin 节点采用 0 根线缆,只有 6 根液冷管线,5 分钟搞定。

更夸张的是,机架后面布满了总长近 3.2 公里的铜缆,5000 根铜缆构成 NVLink 主干网络,实现 400Gbps 传输速度,用老黄的话来说,:「可能有几百磅重,你得是体格很好的 CEO 才能胜任这份工作」。

在 AI 圈里时间就是金钱,一个关键数据是,训练一个 10 万亿参数模型,Rubin 只需 Blackwell 系统数量的 1/4,生成一个 Token 的成本约为 Blackwell 的 1/10。

此外,虽然 Rubin 的功耗是 Grace Blackwell 的 2 倍,但性能提升远超功耗增长,整体推理性能提升 5 倍,训练性能提升 3.5 倍。

更重要的是,Rubin 相比 Blackwell 吞吐量(每瓦-每美元可完成的 AI Token 数)提升10倍,对于造价 500 亿美元的千兆瓦数据中心来说,这意味着营收能力将迎来直接翻倍。

过去 AI 行业的最大痛点是,上下文内存不够用。具体来说,AI 在工作时会生成「KV Cache」(键值缓存),这是 AI 的「工作记忆」。问题是,随着对话变长、模型变大,HBM 内存显得有些捉襟见肘。

去年英伟达推出 Grace-Blackwell 架构扩展内存,但还是不够。而Vera Rubin 的方案是在机架内部署 BlueField-4 处理器,专门管理 KV Cache。

每个节点配 4 个 BlueField-4,每个背后有 150TB 上下文内存,分配到 GPU 上,每块 GPU 额外获得 16TB 内存——而 GPU 自带内存只有约 1TB,关键是带宽保持 200Gbps,速度不打折。

但仅有容量还不够,要让分布在几十个机架、上万块 GPU 上的「便签」像同一块内存那样协同,网络必须同时做到「够大、够快、够稳」。这就轮到 Spectrum-X 登场了。

Spectrum-X 是英伟达推出的全球首款「专为生成式 AI 设计」的端到端以太网网络平台,最新一代的 Spectrum-X 采用台积电 COOP 工艺,集成硅光子技术,512 通道×200Gbps 速率。

老黄算了笔账:一个千兆瓦数据中心造价 500 亿美元,Spectrum-X 能带来 25% 吞吐提升,相当于节省 50 亿美元。「你可以说这个网络系统几乎是『白送』的。」

安全方面,Vera Rubin 还支持保密计算(Confidential Computing)。所有数据在传输、存储、计算过程中全程加密,包括 PCIe 通道、NVLink、CPU-GPU 通信等所有总线。

企业可以放心把自己的模型部署到外部系统,不用担心数据泄露。

DeepSeek 震惊了世界,开源和智能体是 AI 主流

重头戏看完,回到演讲开始。黄仁勋一上台就抛出了一个惊人的数字,过去十年投入的约 10 万亿美元计算资源,正在被彻底现代化。

但这不仅仅是硬件的升级,更多的是软件范式的转移。他特别提到了具备自主行为能力(Agentic)的智能体模型,并点名了 Cursor,彻底改变了英伟达内部的编程方式。

最让现场沸腾的,是他对开源社区的高度评价。黄仁勋直言,去年 DeepSeek V1 的突破让全世界感到意外,它作为第一个开源推理系统,直接激发了整个行业的发展浪潮。PPT 上,我们熟悉的国产玩家 Kimi k2 和 DeepSeek V3.2 分别是开源第一和第二。

黄仁勋认为,虽然开源模型目前可能落后最顶尖模型约六个月,但每隔六个月就会出现一个新模型。

这种迭代速度让初创公司、巨头、研究人员都不愿错过,包括英伟达在内。

所以,他们这次也没有只卖铲子,推销显卡;英伟达构建了价值数十亿美元的 DGX Cloud 超级计算机,开发了像 La Proteina(蛋白质合成)和 OpenFold 3 这样的前沿模型。

▲ 英伟达开源模型生态系统,涵盖了生物医药、物理 AI、智能体模型、机器人以及自动驾驶等

而英伟达 Nemotron 模型家族的多款开源模型,也成为这次演讲的亮点。其中包含语音、多模态、检索生成增强以及安全等多个方面的开源模型,黄仁勋也提到,Nemotron 开源模型在多个测试榜单上表现优秀,并且正在被大量的企业采用。

物理 AI 是什么,一口气连发几十款模型

如果说大语言模型解决了「数字世界」的问题,那么英伟达的下一个野心,很明显是要征服「物理世界」。黄仁勋提到,要让 AI 理解物理法则,并在现实中生存,数据是极其稀缺的。

在智能体开源模型 Nemotron 之外,他提出了构建物理 AI(Physical AI)的「三台计算机」核心架构。

  • 训练计算机,也就是我们熟知的,由各种训练级显卡构建的计算机,像图片中提到的 GB300 架构。
  • 推理计算机,运行在机器人或汽车边缘端的「小脑」,负责实时执行。
  • 模拟计算机,包括 Omniverse 和 Cosmos,它能为 AI 提供一个虚拟的训练环境,让它在模拟中学习物理反馈。

▲ Cosmos 系统能生成大量的物理世界 AI 训练环境

基于这套架构,黄仁勋正式发布了震惊全场的 Alpamayo,全球首个具备思考和推理能力的自动驾驶模型。

与传统自动驾驶不同,Alpamayo 是端到端训练的系统。它的突破性在于解决了自动驾驶的「长尾问题」。面对从未见过的复杂路况,Alpamayo 不再是死板地执行代码,而是能像人类司机一样进行推理。

「它会告诉你接下来会做什么,以及它为什么会做出这样的决策」。在演示中,车辆的驾驶方式惊人地自然,能够将极端复杂的场景,拆解为基础常识来处理。

演示之外,这一切也不是纸上谈兵。黄仁勋宣布,搭载 Alpamayo 技术栈的奔驰 CLA,将在今年第一季度于美国正式上线,随后陆续登陆欧洲和亚洲市场。

这辆车被 NCAP 评为全球最安全的汽车,底气就是来自于英伟达独特的「双重安全栈」设计。当端到端的 AI 模型对路况信心不足时,系统会立即切换回传统的、更稳妥的安全防护模式,确保绝对安全。

发布会上,老黄还特地展示了英伟达的机器人战略。

▲九大顶级 AI 及相关硬件制造商之间的竞争,他们都在扩大产品线,尤其是要抢夺机器人赛道,高亮的单元格为自去年以来的新产品

所有机器人都将搭载 Jetson 小型计算机,在Omniverse 平台的 Isaac 模拟器中接受训练。并且英伟达正在把这套技术整合进Synopsys、Cadence、西门子等工业体系。

▲ 黄仁勋邀请了包括波士顿动力、Agility 等人形机器人、四足机器人「登台」,他强调,最大的机器人其实是工厂本身

自下而上,英伟达的愿景是,未来芯片设计、系统设计、工厂仿真,都将由英伟达物理 AI 加速。发布上,又是迪士尼机器人闪亮登场,老黄还因此对着这群超萌机器人调侃道:

「你们会在计算机中被设计、在计算机中被制造,甚至在真正面对重力之前,就会在计算机中被测试和验证。」

如果不说是黄仁勋,整场主题演讲看下来甚至会以为是某个模型厂商的发布会。

在 AI 泡沫论甚嚣尘上的今天,除了摩尔定律的放缓,黄仁勋似乎也需要用 AI 到底能做什么,来提升我们每个人对 AI 的信心。

除了发布全新 AI 超算平台 Vera Rubin 的强悍性能,来安抚算力饥渴,他在应用和软件上也比以往花了更多的功夫,拼尽全力让我们看到,AI 将会带来哪些直观改变。

此外,就像黄仁勋说的一样,过去他们为虚拟世界造芯,现在他们也下场亲自演示,将注意力放在以自动驾驶、人形机器人为代表的物理 AI,走进行业竞争更激烈的真实物理世界。

毕竟,只有仗打起来,军火才能持续卖下去。

文|莫崇宇、张子豪、姚桐

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


卓驭 CEO 来了一场演讲,聊了聊公司的 2 个危机时刻,与智驾的 1 个可能

作者 刘学文
2026年1月5日 17:10

和国产手机行业的「华米 OV(华为,小米,OPPO 和 vivo)」类似,国产智驾方案提供商也有「地大华魔」的四大天王简称,分别是地平线,大疆车载,华为和 Momenta。但是在一个飞速发展的行业里,这样的并列关系并非一成不变,中间随时有公司会掉队,比如在「华米 OV」之前,国产手机行业的头部是「中华酷联(中兴,华为,酷派,联想)」。

「地大华魔」所处的智能驾驶行业也是如此,在千变万化的外部环境变化下,没有哪家敢说有松懈的时间,因为一不留神就可能被追赶被超越。

大疆车载变成了卓驭,这只是它困难的开始

2024 年 6 月,大疆车载改名为「卓驭」,三个月之后,卓驭正式从大疆体系内独立,从大疆体系内的一个部门,变成了独立经营自负盈亏的公司。

但当时单飞的卓驭情况并不好。在卓驭品牌盛典 2025 活动的演讲上,卓驭 CEO 沈劭劼解释了当时的心态:

有点像《三体》里人类成为太空人类的过程,末日之战后五艘飞船逃了出去,突然发现没有家了,回不去了。还到了一个资源不足的地方,五艘船,但资源只够两艘生存,必须得灭掉三艘。我们从 0 到 1 在温室里成长,分拆后最现实的压力——是钱。

这段话沈劭劼也在接受晚点 LatePost 的采访中也说过,上千人公司被拆出来那一天,账上只有不到 5 个亿,这只够卓驭运行几个月的时间。

在此之前,沈劭劼的身份更多是大学教授,以及研发负责人,他仍是香港科技大学电子与计算机工程系副教授,以及香港科技大学-大疆联合创新实验室主任。作为大疆飞控团队的负责人,他帮助大疆在无人机领域的领先地位从对手难以望其项背,到大疆无人机在飞控,避障,图传和成像上都一骑绝尘。

无人机的飞控和避障技术理论基础,和汽车智能驾驶有很大的相同之处。沈劭劼称之为「无人机和自动驾驶在底层逻辑上很接近,本质都是移动智能机器人」。

按照如今智驾乃至整个具身智能行业流行的说法,汽车是比较低维度的,低运动自由度的具身智能机器人。

把「造一台真正厉害的机器人」作为目标的大疆,卓驭和沈劭劼都希望造出「优雅、强大、能真正解决问题的智能体」。

不过,2024 年独立出来之后的卓驭,在很长的一段时间里,有掉队的风险。

2024 年年初的时候,特斯拉开始向部分特斯拉汽车推送 FSD V12 版本,在这一版本的 FSD 上,特斯拉重写了整个软件架构,也就是端到端大模型成为 FSD V12 的核心技术。

FSD V12 的发布成为了整个智驾行业的分水岭,也是这个行业的 ChatGPT 时刻,在此之后,无论是理想,小鹏这类自研智驾的品牌,还是地平线,或者 Momenta 这样的智驾方案提供商,都开始进行技术转型,把智驾方案从「感知–规划–控制」的路线,切换到了仿佛炼丹般的「端到端大模型」。

事实也证明,技术路线切换给了行业弯道超车的机会,曾经重度依靠工程师资源的「感知–规划–控制」路线是华为这类资源充裕,崇尚军团作战的品牌的优势区域,理想这类企业很难在工程师等资源上去竞争。

「端到端大模型」在智驾行业的魔法效果,让不少品牌能够以中等资源投入,换得行业第一梯队的智驾水平。一时间,智驾水平第一梯队人满为患。

但卓驭反而是切换技术路线较晚的那一家。

2024 年 10 月 14 日,卓驭才开始把智驾技术路线切换到「端到端」,在此之前卓驭做了接近一年的预研。

在这个时间点,理想的「端到端+ VLM」双系统已经发布了两三个月,卓驭的直接竞争对手 Momenta 切换到端到端已经半年有余。

简言之,卓驭动作慢了。

沈劭劼解释了为什么卓驭会慢:

我们是传统机器人学派,基本假设是「物理世界的模型是我建立的」,对规则有执念。而数据驱动完全反过来:不建模,你用数据来学模型。这个认知转变需要时间。说白了,打不过就加入,也得先承认打不过。2024 年 10 月 14 号往前一年我们做的事情都是,科学地说服自己真的打不过。

但是,在相当长的一段时间里,端到端大模型并非一种立竿见影的速效药,而是像不少行业专家形容的那样,做端到端大模型就像炼丹一样,需要不断调整训练数据和训练策略,找到最优的那个「比例」和「配方」。

沈劭劼说,最开始卓驭训练出来的模型不成熟,前端交付团队直接对后端说「你给我这是什么垃圾?」,这种状况持续了几个月,卓驭甚至不知道到底能在什么时候有一个像样的模型。

而在进行技术路线切换之前,卓驭做了一件破釜沉舟的事情:把基于规则路线的代码全部删除,断掉了后路,前方只有端到端这一条技术路线可走。

和特斯拉思路 90% 相似之后,卓驭开始自信起来

之所以说训练端到端大模型像「炼丹」,是因为其中是一个黑盒机制,充满了不可解释性。

特斯拉作为第一家把端到端大模型带到智驾行业的企业,也在追求其中的可解释性。也就是沈劭劼所说的,在特斯拉身上看到了一个「真正漂亮的架构」,一群由懂物理世界、懂驾驶、懂计算机科学、也懂神经网络的人共同设计出来的体系。

在他看来,特斯拉「巧力出奇迹」,让 VLA(视觉–语言–动作大模型,一般认为是端到端+VLM 技术路线的进阶架构)由若干个可解释、有分工的模块组成。它把行业最难的两个问题——因果推理、低频数据生成,用极低代价解决了。

基于类似的思路,卓驭有了自己的研发的 AWM(Action World Model ,动作世界模型),它是基于自回归的决策规划模型——不是看到输入立刻给动作,而是内部推演多种可能路径,理解因果,再生成决策。

在比同行晚转型数个月之后,卓驭最终熬过了转型期的阵痛。

与此同时,卓驭此前的一些优势开始显现出来,比如在压榨算力上的能力,能够让性能并不出色的产品,达到很好的实际表现。也就是卓驭自己所说的「实现同等能力,我们的算力需求比行业低很多,探寻极低成本但能让用户安全使用、普遍好用的临界点」。

比如卓驭就表示,他们在骁龙 8650(核心算力 100TOPS)上实现的性能可与双 Orin X (核心算力共 512TO­PS)比肩;通过网络压缩部署,端到端网络得以在 TDA4 (主流型号核心算力为 32TOPS)上成功落地,使其具备了同级唯一的中算力城市领航能力,且通过让五菱、捷途等车型用户实现功能与性能升级体验。极致性价比与极致算力效率,构成了卓驭开拓市场的核心竞争力。

目前,卓驭辅助驾驶已拥有九大乘用车量产客户、50+量产车型、30+即将量产车型。卓驭已实现多项工程化难题的突破:率先以中算力视觉方案实现 L2+ 辅助驾驶;落地全球首个高通 8775 舱驾一体方案量产,以单颗芯片驱动智能座舱与智能辅助驾驶,推动整车电子电气架构升级及行业降本增效;打破油车无法实现高阶辅助驾驶的箴言,成为燃油车智能化的先锋;以全栈自研的软硬一体能力,跻身相关细分领域唯二量产的 Tier 1 供应商之列。

在高算力方案上,卓驭已推出两大高算力方案:一是 L3/L4 方案,搭载两块英伟达 Thor 芯片,配合自研激目前向感知系统和知周补盲雷达;二是舱驾一体方案,采用高通 SA8797,将 VLA 融入统一架构。

基于这些准备,沈劭劼对于未来的预判也开始自信起来,比如他在演讲里说,之前一旦有人问「高阶辅助驾驶何时实现」,答案永远是「N+5」,意思就是永远都是快了,就这几年了,但好几年过去,答案还是快了。

但现在他的答案是:Anytime(随时)。

这是智驾领域的新的可能,意思就是 L4 随时可能落地。

技术基座趋于稳固后,卓驭将目光投向更广阔的未来。沈劭劼在这场演讲上宣布,卓驭将构建空间智能移动基座,引领自主移动机器人时代。他强调,卓驭的核心是做 Mobility(移动能力),将「移动」这个物理领域彻底闭环,做到极致。

这意味着卓驭的技术能力将不再局限于乘用车辅助驾驶,而是依托数据驱动的开发范式、成熟的基座模型及软硬一体的工程能力,公司正在将移动智能的边界拓展至更广泛的业务场景。

目前,卓驭已启动重卡高速 NOA 项目,旨在解决重卡司机长时间驾驶疲劳的痛点,提升干线物流的安全与效率水平,且已与徐工、陕汽、重汽三大业界头部客户确立合作,首批重卡车型将于 2026 年上半年正式量产。

同时,卓驭正联合商用车头部企业,共同设计和定义无人物流车,应用于矿山、港口等场景的智能化转型,这意味着在该项目中卓驭将不只是 Tier 1 供应商,而会参与到产品设计等更多环节。

沈劭劼不再参与无人机的研发,卓驭也从大疆独立出来,但他们会走入到更多类似「大疆」的企业中去。

稳中向好。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌