普通视图

发现新文章,点击刷新页面。
昨天 — 2026年4月24日首页

扒完 DeepSeek V4 报告,我翻出了这个隐藏彩蛋

作者 李超凡
2026年4月24日 19:18

今天上午,DeepSeek V4 发布,直接把这个大模型疯狂更新月推向了最高潮。

百万上下文标配,性能比肩顶级闭源模型,首发适配华为昇腾芯片,随便一个点单拎出来能写一篇爆款头条。

不过在我翻看 V4 的技术报告的时候,在训练层面看到了一个被大部分人滑过去的名词:Muon 优化器

这个技术名词,怎么看着这么眼熟呢?

原来是前两天发布的 Kimi 2.6 里,就是通过 Muon优化器,在相同的训练量下实现了2倍的效率提升,并在 1 万亿参数规模上解决了训练不稳定的难题。

早在上个月杨植麟站在英伟达 GTC 2026 的舞台上,花了演讲中最长的一个板块讲它。Kimi 是全世界第一个发论文证明 Muon 可以用在万亿参数大模型训练上的团队。
(附APPSO解读文章链接)

杨植麟是这样说的:「用 MuonClip 而非 Adam 训练 Transformer 大模型,效果会好得多。」正确实现后,token 效率提升 2 倍。在数据墙面前,这相当于把 50 万亿 token 用出了 100 万亿的效果。

现在,这项技术出现在了 DeepSeek V4 的训练方案里。

我又回来翻了一下 Kimi K2 的架构底层,又发现了一个更有意思的细节:它用的是 DeepSeek-V3 提出的 MLA(Multi-head Latent Attention)。

DeepSeek 的技术报告写着 Kimi 的名字,Kimi 的架构底座写着 DeepSeek 的名字。 你中有我,我中有你。

这大概是中国 AI 圈最魔幻的一幕:两家被外界反复对比的开源双子星,技术底层早就长到了一起。

而且,Kimi 类似这样的巧合,已经不是第一次了。

五次「撞车」,五个拐点

算上 V4 和 K2.6 前后脚上线,这已经是 Kimi 和 DeepSeek 过去一年里的第五次「撞车」了。

▲ 图片由 image-2 制作.

五次「撞车」,如果只是时间重合,那叫巧合。但把每次发布的内容拉出来看,你会发现一条清晰的暗线:每次撞车恰好对应一个 AI 行业拐点的到来

第一次是最戏剧性的。2025 年 1 月 20 日晚 8 点 10 分,DeepSeek R1 发布并以 MIT 协议完全开源。不到两小时后,Kimi k1.5 亮相。

两者都瞄准同一件事:让模型从「张嘴就来」变成「先想后说」,用强化学习跑通 Long-CoT 长思维链推理。

在这之后,中国的开源力量就彻底改变了整个全球 AI 的格局。

后来 OpenAI 在一篇论文中点名指出:Kimi 和 DeepSeek 是「最早复现 OpenAI-o1 Long-CoT」的两家公司。全世界只有这两家中国公司看懂了 OpenAI 在做什么,并且用自己的方式做了出来

那是中国 AI 从「追随者」开始变成「引领者」的分水岭。

最近这次就是今天。四天之内,K2.6 带来了 SWE-Bench Pro 58.6% 的 Agent 集群并行编程能力,V4 把百万上下文做成了所有服务的标配,输出长度拉到 384K tokens。

两家同时推进国产芯片适配:V4 下半年支持华为昇腾 950,寒武纪已完成 Day 0 适配;K2.6 支持国产芯片混合推理。

Agent 能力、编程天花板、百万上下文、国产芯片适配、开源生态,全齐了。

从「学会思考」到「学会干活」,从「改 Transformer」到「改算力底座」,五次撞车其实展现出来的,是中国 AI 不再一味对标 OpenAI ,逐渐不再依赖英伟达,在开源上走出属于自己的路。

撞车背后的必然

发布撞车的巧合固然有意思,但更值得关注的,其实是巧合背后的一些必然。

让我们先回到 DeepSeek 架构里的 Muon 。

杨植麟在 GTC 演讲中讲了一个技术困难:当 Kimi 把 Muon 扩展到 1 万亿参数时,训练不稳定性成了拦路虎。最大 logits 爆炸超过 1000,正常值只有 50 到 100。

损失先降后炸,根本无法收敛。他们的解法是 QK-Clip,对每个注意力头计算最大 logit 的裁剪值,把查询和键限制在合理范围内。训练损失不受影响,但稳定性问题消失了。

K2 模型用这套技术完成了训练,创下机器学习史上最大规模 Muon 训练的纪录。

而 DeepSeek V4 的技术报告里,Muon 被直接写进了训练方案。大多数模块用 Muon 加速收敛,嵌入层和预测头仍用 AdamW,混合使用。这是对 Kimi 底层创新的一次直接引用。

反过来,Kimi K2 的底层架构采用了 DeepSeek-V3 提出的 MLA。Multi-head Latent Attention,通过压缩 KV 缓存大幅降低推理成本,是 V3 最核心的架构创新之一。

你的论文成了我的基础设施,我的创新成了你的底座。 写在引用列表里的互相成就。

在硅谷,你很难看到这种事。OpenAI 和 Anthropic 之间的技术是「护城河」,能藏则藏。但 Kimi 和 DeepSeek 之间长出了一种更原始也更健康的关系:开源社区里的正向循环

Kimi 和 DeepSeek 是中国首批开源万亿参数模型的玩家,都相信 Scaling Law。技术路线上,DeepSeek 以推理模型见长,Kimi 以 Agent 能力著称。

底层架构上,两家都在挑战同一批「古老」的基础设施。Kimi 发了「注意力残差」论文,DeepSeek 做了 mHC 残差连接,都在改 ResNet 时代留下来的残差连接方式。

在长文本这条线,Kimi 探索线性注意力(Kimi Linear),DeepSeek 探索稀疏注意力(DSA),殊途同归。

所以当它们撞车时,与其说是巧合,不如说是对同一个方向的必然趋同。

用中国的芯片,跑中国的模型,对全世界开源

在 OpenRouter 上,Kimi 和 DeepSeek 稳居中国模型调用量前两名。

Cursor 接入了 Kimi,日本乐天 Rakuten AI 3.0 基于 DeepSeek 开发。被海外产品「套壳」这件事,放在两年前是耻辱,现在是勋章。

Meta 新模型 Muse Spark 发布时,官方 Blog 做的对比基准线里,Kimi 和 DeepSeek 跟 GPT-4、Claude 并排站着。英伟达 GTC 上,黄仁勋用来展示芯片性能的中国模型就是这两家。

海外认可之外,更值得注意的是国产芯片这条线。H20 芯片已断供一年,高端推理芯片短期内只有国产一个选项。两家公司同时在做同一件事:让中国模型跑在中国芯片上。

上周黄仁勋在播客访谈里说了一句话:「如果当初 DeepSeek 先在华为平台上发布,那对我们来说非常可怕。

今天,V4真的首发适配华为昇腾,工程团队把整个技术栈从 CUDA 迁移到了华为 CANN 框架,从算子库到通信原语到内存管理,V4 的混合注意力、MoE 专家并行、FP4 量化训练,几乎每层从头实现。寒武纪也在 Day 0 完成了 V4 全系列的 vLLM 推理适配,代码已开源。

黄仁勋一语成谶。

而 Kimi 在国产芯片上走的路更早,也更深。为了给国产芯片「铺路」,Kimi 在架构创新上掏出了两个杀手锏。

Kimi Linear 混合注意力架构把线性注意力层与全注意力层以 7:1 配比混合,将 KV 缓存体积压缩到极低水平。实测数据很直观:32K 上下文下,混合架构模型 KV 吞吐量仅 4.66 Gbps,同规模稠密模型高达 59.93 Gbps。

KV 缓存传输需求被压到了普通以太网可承载的范围,RDMA 高速网络从「必选项」变成了「可选项」。

在此基础上,Kimi 联合清华大学发布了 PrFaaS(预填充即服务)论文,把推理的 Prefill 阶段和 Decode 阶段彻底解耦,调度到不同异构硬件集群上。实测吞吐量提升 54%,首词延迟降低 64%。

这套方案打破了「大模型推理必须绑定同一种高端 GPU」的前提:算力强的国产卡做 Prefill,带宽强的国产卡做 Decode,各司其职。

DeepSeek 用 V4 证明了国产芯片能跑万亿参数的旗舰模型,Kimi 用架构创新证明了国产芯片可以跑得好、跑得省。

一个从工程适配切入,一个从架构设计切入,终点都是同一个:让英伟达不再是唯一选项

以前的国产 AI 叙事是「用英伟达的卡,追 OpenAI 的模型」。现在这对双子星同时在写另一个剧本:用中国的芯片,跑中国的模型,服务全世界的开发者

你的 MLA 是我的基础,我的 Muon 是你的加速器

回看这一周AI 行业的疯狂更新,我们已经处在了一个新的转折点。

同一周内,两个中国团队各自发布了万亿参数级开源模型,性能逼近甚至持平美国顶级闭源模型。这在一年前是不可想象的。

当闭源模型的价格是开源模型的 50 倍,开源阵营每隔几个月就推出一个新的万亿参数选手,竞争天平正在发生微妙的倾斜。

这不是「赢了」或「超越」这么简单的胜负之分。闭源模型在复杂推理和系统可靠性上仍然有明显优势,Opus 4.6 的思考模式依然是 V4-Pro 追赶的目标。但开源阵营的速度、成本优势和生态覆盖面,正在改变这场竞赛的规则本身。

除了这五次撞车发布,这两家公司还有一个巧合。梁文锋来自广东湛江,杨植麟来自广东汕头。两个广东人,撑起全球开源 AI 半边天

梁文锋像工程师哲学家,相信开源和底层创新,V4 发布公告结尾引的是荀子,「不诱于誉,不恐于诽,率道而行,端然正己。」

至于杨植麟在我看来像产品科学家,他认为用户体验和技术突破可以兼得,在 K2.6 发布时他提到了 Linux 之父 Linus Torvalds 那句「Talk is cheap. Show me the code.」

一个古典,一个极客。就是这两个风格迥异的创始人,一起定位了中国开源模型在世界坐标系的位置。

你的 MLA 是我的基础,我的 Muon 是你的加速器。这大概也是中国在能在短时间内引领全球开源 AI 的重要原因之一

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

❌
❌