阅读视图

发现新文章,点击刷新页面。

刚刚,阿里ATH事业群甩出王炸「悟空」!企业级正规军下场,龙虾们这次真要炸了

昨晚,阿里巴巴突然宣布成立 Alibaba Token Hub(ATH)事业群,CEO 吴泳铭直接负责,这可能是阿里在 AI 时代最重要的一次组织架构调整。

Token ,AI 时代的通用货币。

吴泳铭的逻辑是:未来大量数字化工作将由「数以百亿计的 AI Agent」支撑运行,而这些 Agent 的运行,由模型产生的 Token 驱动。

创造 Token、输送 Token、应用 Token,这将是阿里新的的主线。

其中内部信中还有一个首次出现在公众视野里的名字:悟空事业部。官方对悟空事业部的定位是:「打造 B 端 AI 原生工作平台,将模型能力深度融入企业工作流。」

也就是说原来的钉钉,被提到了一个更核心的战略位置,和千问一起分别在 B 端和 C 端承载阿里 AI 的目标。

这次发布会,悟空事业部交出了成立以来的第一份作业—— AI toB 旗舰应用「悟空 WuKong」,这也是首个以企业智能体为核心的 AI 原生工作平台。

这是ATH 事业群成立第二天,阿里巴巴集团 CEO 吴泳铭也出现在今天的「悟空」发布会现场。

最近在「养龙虾」席卷社交媒体后,每个人或多或少都感受到发现 AI 真的能操控电脑、帮你干活。

然而也便随这混乱,龙虾删邮件停不下来,敏感数据被 AI 随意读取,公司 IT 部门一句「这东西不合规」,大多数企业用户就此止步。

AI Agent 走到了哪一步,能不能广泛使用,还只是个技术问题。企业组织敢不敢用,才是真正的问题

APPSO 在现场给大家快速梳理了这场发布会的要点:

  • 悟空 WuKong:全球首个以企业智能体为核心、更安全、商业可交付的 AI 原生工作平台
  • 首创 AI 原生文件系统 Real Doc:每一步操作可追溯可回退
  • 钉钉全面 CLI 化:重写底层代码,给 AI 造了一套原生操作语言,可以 CLI 原生安全地访问钉钉应用和数据
  • 十大 OPT 行业方案:一人电商、一人门店、一人知识博主……Skill 即生产力
  • AI 能力市场:企业级 Skill 生态完整体系上线,全部纳入统一的安全扫描和分级管控体系
  • AI 硬件:A1 Pro 录音卡 + Cleer H1 AI 耳机首亮相
  • 原生级企业安全架构:底层沙箱隔离与全链路审计,让企业真正敢用 AI

钉钉为 AI 打造钉钉

在理解悟空之前,先要消除一个刻板印象,它绝对不是「钉钉加了一个 AI 对话框」。这句话值得重复一遍——悟空不是钉钉加了一个 AI 功能

过去两年,我们见过太多「产品加 AI」的案例:Word 加了 Copilot,微信加了元宝,网页端加了摘要按钮。这类产品的逻辑是:原有功能不动,AI 作为辅助层叠加在上面,帮你写写文字、润色润色、总结一下。

悟空的逻辑完全不同。

悟空是一个以企业智能体为核心的 AI 原生工作平台。 它能操作我们的电脑、编辑本地文件、调用桌面应用程序、连接钉钉文档 / 审批 / 日程 / 听记等全系产品。

当你对悟空说:「帮我把上周所有客户拜访的记录整理成周报,发给张总确认一下」。

悟空不会给你写一份模板然后让你自己填,它会直接打开你电脑上的拜访记录文件夹,读取每一份记录,生成周报,保存到指定位置,然后在钉钉里发给张总发起审批。

全程,你只说了一句话。

更关键的是:手机可以远程指挥悟空唤起本地环境完成工作。不需要坐在电脑前。出门见客户的路上,发一条消息,悟空在家帮你把活干完。

这是「本地执行 + 远程可控」的 Agent 工作架构,也是悟空正在定义的新工作方式——说一句话,就能干活。

▲体验网址:https://www.dingtalk.com/wukong

悟空与 OpenClaw:解同一道题,用的是不同答卷

很多人的第一反应:这不就是「中国版 OpenClaw」吗?

表面看都在让 AI 操作电脑,但两者的关系,更接近「Linux 的开源社区」和「Red Hat 企业版」,底层技术同源兼容,但面向的战场完全不同。

OpenClaw 证明了 AI Agent 可以操控电脑这个概念,它依赖「视觉模拟」和操作系统原生命令行,让 AI 像人一样看屏幕、点鼠标。这套方案很酷,但也很脆弱,毕竟界面一更新,命令一修改,整个流程就可能崩掉。

更要命的是,OpenClaw 在本地运行时,几乎拥有与用户完全相同的系统权限。理论上,一台实习生电脑上的 OpenClaw,可以读取他不该看到的任何数据。安全机构已发现其技能市场存在数百个恶意程序,Gartner 将其企业部署评级为「不可接受的网络安全风险」。

OpenClaw 是 Agent 的「Linux 时刻」——开源、自由、极客驱动、生态繁荣,但没有企业敢直接用。

悟空要解的题不一样:兼容开源生态的全部 Skill 能力,同时从架构层面把安全内建进去,而非事后打补丁。

统一企业身份认证、专属沙箱隔离、网络代理管控、全链路审计日志——每一层安全都在回答同一个问题:让 IT 部门敢拍板,让 CEO 敢买单

这是 Enterprise Agent 和「开源 Agent 框架」的本质差距。

钉钉 CEO 无招在发布会现场表示,「今天,我们把钉钉打碎,用 AI 重建,炼出悟空。过去是人用钉钉来工作,未来是 AI 用钉钉来工作。和市面上所有的龙虾 Agent 不一样,悟空天然就长在企业组织中,可以在真实的企业环境中安全使用。

CLI 化:给 AI 造一套原生操作语言

要理解悟空为什么「真的能干活」,关键是它有一套让 AI 能「听懂」软件的语言。

过去,几乎所有的 AI Agent 都在试图模拟人类的键鼠操作。这就像是蒙着眼睛,靠别人在旁边喊「往左一点,点击」来用电脑,不仅极度低效,而且极其容易出错。

为了让悟空真正能「干活」,钉钉做了一个相当疯狂的决定:所有底层代码重写了一遍

他们将整个钉钉的既有能力体系全面 CLI 化(Command-line Interface,命令行界面),所谓 CLI 化,就是把钉钉从一个「给人用的图形界面」,变成一个「给 AI 用的命令行接口」。

AI 不再需要「看懂」按钮在哪里,而是直接通过标准化指令调用能力,这相当于给 AI 装上了神经末梢

其中,包括文档、日程、审批、会议甚至 AI 表格,所有的钉钉产品,全部重写为标准的 CLI 指令。

这意味着,悟空不再需要像人类一样去「点击」按钮,而是通过原生指令,直接调用钉钉的一切能力和数据。

不仅是钉钉应用,阿里集团旗下的淘宝、天猫、支付宝、阿里云等核心业务能力,也将逐步作为 Skill 接入悟空。悟空,正在成为整个阿里巴巴 AI 能力在企业工作场景的统一出口。

当用户说「帮我整理下周的客户拜访记录并生成周报」,悟空不是「看懂」这句话,而是直接触发一系列 CLI 指令:调取日程 API → 抓取 CRM 数据 → 运行听记解析 → 写入文档 → 发起审批流。全程没有模拟点击,没有视觉识别,只有机器对机器的精准调用。

这个逻辑,在行业报告「未来属于智能体:万亿 AI 正在重新定义软件」里有一段话说得非常准确:

你构建的一切都必须是 API 优先的。如果一个功能没有 API,它就相当于不存在。如果不能通过 CLI 或 MCP 服务器暴露,你就是处于劣势。

换言之:在 AI 智能体成为软件「主要用户」的时代,不能被 AI 原生调用的软件,等于不存在

▲图片来源:X@karpathy

钉钉理解了这个逻辑,所以选择了极其昂贵的方式——重写服务全球 8 亿用户、2700 万家企业的产品底层。钉钉全面 CLI 化之后,Agent 才能从「能聊天」变成「能干活」。

Realdoc,AI 终于有了原生的文件操作语言

但 CLI 化只解决了「AI 能不能调用钉钉」的问题。还有一个更底层、常被忽视的问题——AI 怎么操作文件

目前市面上几乎没有 AI Agent 产品专门为 AI 设计过文件系统。所有人都在用传统文件系统凑合,结果是什么?

AI 要改一份文档里的一个词,必须先把整篇文档读进内存,改完再整篇写回去。就像改一本书里的一个错别字,却要把整本书重新抄一遍——荒诞,但这就是现实。

这带来三个连锁问题。

第一是 Token 爆炸,每次操作都吞进整篇文档,成本直线飙升,有用户实测用 AI 制作一个 PPT,消耗了 2.7 亿 Token,约合 500 美元。

第二是无法回退,AI 覆盖写入即生效,改坏了没有存档可以回溯,只能从头再来;

最后是文件失控,Agent 随机创建文件,企业根本不知道 AI 在哪里生成了什么,散落的结果是既找不到,也管不住。

悟空为此专门从零搭建了一套 AI 原生文件系统 Realdoc,这是行业首次,有人专门为 AI 重新设计一套文件操作语言

在 Real Doc 里,悟空可以像外科医生一样,按行号、按关键词定位,只动需要动的地方,其他内容一字不碰。Token 消耗大幅压缩,不再因为改一个词而把整篇文档走一遍。

更关键的是版本管理。AI 每执行一步操作,Realdoc 自动保存完整快照——就像游戏里的自动存档点,每一步操作都有记录,可随时退回任意版本,还能自动对比两个快照之间的 Diff,精确到每一行的变动。

还有文件归宿的问题。Realdoc 为每个 AI Agent 分配独立的云端工作空间,AI 产出的每一份文件都有「户口」——存在哪里、谁创建的、哪个 Agent 在什么时候改过,企业管理者一目了然。

到这里,悟空做出了大多数企业级产品还没意识到的改变:不再让 AI 套用到现有工具中,要为 AI 重新造一套工具

悟空首发 十个 OPT Skills 套件,钉钉原生协同

如果说 CLI 化解决了「AI 如何干活」,那么接下来的问题是:AI 该干哪些活,谁来告诉它怎么干

答案是:Skill。

Skill 是悟空的最小生产力单元——一个封装了行业专家 SOP、可直接调用的能力模块。我们不需要懂 AI,不需要写 Prompt,一键启用,AI 团队立刻就位。

这不是一个新概念,但悟空把它推向了一个全新的量级。

悟空首批推出十大行业 OPT(One Person Team,一人团队)技能套件,覆盖一人电商、跨境电商、知识类博主、开发、门店、设计、制造、法律、财税、猎头十大场景。每个行业包预置了若干串联 Skill,把过去需要团队协作才能完成的工作流,压缩成一个人可以独立驾驭的操作序列。

以跨境电商为例。过去,一个店主每天要在亚马逊上找爆款,去 1688 上比价,跟供应商确认库存,再想破头优化商品描述,一个人能管三个品就是极限。

现在接入悟空 OPT 方案后,「选品雷达」每天定时抓取亚马逊热榜数据写入 AI 表格;发现爆款后,「AI 找同款」瞬间完成国内供应链匹配;直接确认样品、生成产品描述、输出视频脚本,都有行业级的 Skills 辅助。从发现需求到供应链跟进,一个人用一个下午,干完了一个小团队一周的活。

「一人门店」的场景更让人感慨。街边的汽修店、美甲店老板,白天忙服务,晚上还要强打精神刷小红书学竞品写文案。现在,同样是多个 Skill 串联,AI 自动监控同行爆款,提炼出可复用的创作模板,自动生成原生网感文案并发布,甚至能 7×24 小时智能回复客户私信。

「当一个店主用 AI 运营账号的质量,比竞争对手请的代运营公司还好时——这件事就不只是效率提升了。这是小微门店生存逻辑的重写。」

这正是 Skill 即生产力的核心逻辑:把行业专家的隐性经验,变成人人可调用的标准化能力。Skill 不只是提高效率,它在重新分配能力——让不具备专业背景的人,也能获得专业级的产出。

这个逻辑的更大野心,体现在钉钉同步上线的 AI 能力市场

Anthropic 推出 Claude Skills 开放标准后,微软、OpenAI、Cursor 等巨头迅速跟进。行业共识正在形成:下一阶段的竞争,不是「谁的模型更强」,而是「谁的 Skill 生态更完整」

钉钉 AI 能力市场覆盖 Skill、Agent、Service 完整体系,从开发、审核、上架、分发到管理,全链路打通。

企业可以把资深员工的方法论固化成私有 Skill,彻底摆脱人才流失的阵痛;开源社区里数千个现成的能力,也能在企业级安全架构下被随时调用。

这是悟空最有想象力的部分,它在搭建 AI 时代的生产力基础设施——Skill 是这套基础设施里流通的「货币」,谁掌握更多高质量的 Skill,谁就掌握了 AI 时代更大的生产力。

AI 新硬件

除了软件,在这场发布会上,钉钉还发布了多款 AI 硬件。

DingTalk A1 Pro:录音卡形态,专为会议和工作场景设计,支持多麦克风阵列拾音,AI 实时转录、翻译、摘要,把「开完会还要整理纪要」的低效循环彻底斩断。

Cleer H1 AI 耳机:钉钉与 Cleer 联名推出,首款与悟空深度联动的 AI 耳机。戴上耳机,语音即可直接与悟空对话下达指令,无需打开屏幕,从而实现真正的「所想即所达」。

更值得关注的是 Real AI 硬件(Realbox):搭载 1 台 PC 环境 + 5 台手机环境,支持多人共用、多并发任务处理。企业部署一台 Realbox,可以同时为多个员工运行多个悟空实例;部署多台 Realbox,可构建 AI 计算机集群,任务并行处理,弹性扩展。

不难看出,钉钉这些 AI 硬件并不是独立存在市面上的同类产品抢夺市场,核心都是为了更好地打通 AI 工作流,成为软硬一体的 AI 原生工作平台。

OpenClaw 跑在一台电脑上,做一台电脑能做的事;悟空搭载 Realbox 集群,正式宣告:AI 算力,可以像水电一样,以基础设施的形式在企业内部流通了

AI 时代的组织生产力

在观看这场发布会时, 我想起前段时间 Sam Altman 在采访中提到的观点:「历史上第一家由一个人独立运营的十亿美元公司,即将出现。」

彼时龙虾还没火爆,一人团队(OPT)的概念也只是在 AI 圈子里。他没有解释这个人会用什么工具,会在哪里,会干哪个行业。但看完这场发布会,这句话变得具体了一些。

这个人,大概率会有一套像悟空这样的东西在身边。过去十一年,钉钉一直在让人学会用工具。悟空想做的,是逐渐让工具真正学会理解人。

当工具开始理解人,一件以前不可能的事情正在变得可能:组织生产力,第一次可以真正被数字化封装、分发和扩展。当 Skill 把行业专家的经验变成人人可调用的能力货币,当 AI 原生平台成为个体接入组织能力的操作系统,一个人或组织能做的事情的边界,将被彻底重新定义。

Sam Altman 看到的是「一人公司」这个终点,悟空要做的,是让更多普通人有机会走到那条路上。它不是专门为天才准备的工具,而是为所有「想做更多但苦于一个人精力有限」的人,提供一套 AI 时代的组织生产力基础设施。

AI 原生工作平台,正在成为这个时代最关键的组织变量。 谁先跑通它,谁就先拿到了超级个体时代的入场券。

之前有一个观点,燃烧 Token 的速度,决定了人的进化速度。而悟空的 1.0 版本,指向的就是人和组织进化的下一个版本。

文|李超凡

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

林俊旸离开的48小时:一条朋友圈、一个小模型、和一个万亿美金的假设

「按照原来安排继续干」

离职的消息最沸沸扬扬的时候,在 Qwen 团队的核心负责人林俊旸在朋友圈发了两句话:

「Qwen 的兄弟们,按照原来安排继续干,没问题的。」

「安排好的」?这是什么?

林俊旸离开前夕,Qwen 团队刚刚发布了一件被全球开发者社区刷屏的东西。Qwen 3.5 Small 系列,参数量从 0.8B 到 9B,专为端侧设备设计,可以在普通笔记本电脑上运行。

不是一个更大的模型——而是一组更小的模型。要知道,过去三年里,AI 行业最强大的共识是「越大越好」。OpenAI 的 Sam Altman 四处筹措万亿美金建设算力基础设施,各家实验室军备竞赛般地烧钱烧卡,底层假设只有一个:模型越大,就越聪明。

这套逻辑被称为 Scaling Law,它不仅仅是一条技术规律,更像一种信仰——整个行业的融资叙事、人才分配、硬件投资都建立在这个前提之上。

但 Qwen 3.5 Small 的发布,和林俊旸的离开,同时发生。一个技术信号和一个人事信号,交织出一个更复杂的故事:小模型到底在发生什么?它为什么重要?

当 9B 打赢 120B

即便不是开发者,也可以跑分上一窥 Qwen 3.5 的战绩:

Qwen 3.5 Small 系列中,9B 参数的模型在多项基准测试中全面超越了 OpenAI 的 gpt-oss-120B——一个参数量是它 13 倍的模型。

这些不是边缘指标上的微弱优势,而是在核心推理任务上的系统性领先。一个可以装进笔记本的模型,在数学、科学、视觉推理上全面击败了一个需要数据中心级硬件才能运行的对手。

当然了,摸着良心说,gpt-oss-120B 不是 OpenAI 的旗舰产品,而是其开放权重的中端线。而且它采用 MoE 架构,标称 120B 参数,但每个 token 实际只激活约 5.1B 参数——所以参数量的对比,在工程层面并不像字面数字那么悬殊。

但这不影响趋势本身的成立。因为 Qwen 3.5 Small 并不是孤例。

同一时期,Nature 报道了一个微型递归模型(TRM),在 ARC-AGI 逻辑测试中击败了多个顶级大语言模型。Google Research 在 2026 年初发表论文,证明小模型在意图提取任务上的表现优于显著更大的模型。PNAS 上的一项研究更直接——模型规模与说服力之间呈急剧递减收益,大到一定程度之后,更大几乎不带来更好。

《华尔街日报》早在 2025 年 10 月就已经敢说,「大模型拿走了所有的关注,但小模型才真正干活的那个。」

这些信号共同指向一个判断:以小博大不是偶发事件,而是大势所趋。

那么问题来了——小模型凭什么?

才不是大模型的替身文学

直觉上,人们容易把小模型理解为「大模型的平替」,同样的方法,只是规模小一些,性能差一点,胜在便宜。

但事实恰恰相反:今天的小模型之所以能以小博大,是因为它们在技术方法论上,走了一条和大模型完全不同的路。

第一,数据质量压倒数据规模。 大模型的路线是「尽可能多地吞入互联网数据」,而小模型路线的代表——比如微软的 Phi-4 系列——走的是精筛路线:用高质量的合成数据加上严格筛选的公开数据集,让模型在更少的数据上学到更精确的能力。这背后的逻辑转变是根本性的:不是「喂得越多越聪明」,而是「吃得精才学得好」。

第二,原生多模态设计取代了适配器拼接。 传统做法是先训练一个纯文本大模型,再通过适配器模块接入图像、视频、音频等能力。Qwen 3.5 采用了完全不同的架构:将视觉 token 和文本 token 在同一个潜空间中联合训练,从底层就是多模态的。这意味着它是一个天生就同时理解文字和图像的模型。这种架构在小参数量下反而更有优势,因为不需要额外的适配器开销。

第三,量化技术带来的不只是压缩。 4-bit 量化常常被理解为「把模型压小 4 倍以节省存储」,但它真正的意义在于减少 4 倍的内存吞吐量。在端侧设备上,瓶颈往往不是存储空间,而是内存带宽,也就是数据从内存搬运到处理器的速度。量化技术让小模型在带宽受限的手机和笔记本上,获得了决定性的速度优势。

这些方法论上的突破已经开始转化为产品。3 月第一周,苹果发布了 M5 全线芯片,每颗 GPU 核心内置 Neural Accelerator,AI 性能较 M1 提升最高 8 倍。与此同时,苹果研究院公开了 Ferret-UI Lite——一个仅 3B 参数的端侧 GUI 代理,可以本地操控手机和桌面应用。加上 Apple Intelligence 约 3B 参数的端侧基础模型,苹果正在将「on-device AI」从概念推进到芯片、模型、交互三位一体的产品形态。

微软的 Phi-4 multimodal 也开始尝试商用上线 Azure,3.8B 参数,接受文本、音频和图像输入。开源社区的反馈更加直接——Reddit 上的开发者实测后认为 Qwen 3.5 的 4B 版本是「甜点级」模型:跨任务稳定、无崩溃、远快于 9B 版本。

技术路线已经被验证,产品化拐点已经到来,天边泛起鱼肚白,曙光乍现。

而就在此刻,林俊旸选择离开。

最会做小模型的公司,最没有动力让它成功

Qwen 3.5 Small 在发布后获得了开发者社区的广泛认可,开源社区的评测结果甚至超出了官方发布时的宣传。

但是,他所在的公司是阿里巴巴,阿里巴巴的商业引擎是阿里云。

大模型和云计算之间存在天然的正向循环:模型越大,推理所需的算力越多,客户就越需要购买云计算服务。对阿里云来说,大模型是完美的商业叙事——它同时推高了客户的算力需求和对云平台的依赖。

而小模型的逻辑恰恰相反。小模型的核心价值在于可以在端侧设备上运行——手机、笔记本、边缘服务器。这意味着客户可以绕开云,在本地完成推理。对用户来说,这意味着更低的成本、更好的隐私和更低的延迟。但对阿里云来说,这意味着收入被侵蚀。

Qwen 3.5 Small 做得越好,对阿里云的商业叙事就越尴尬。

这不是阿里一家的问题。放眼中国的科技巨头,几乎所有 AI 领先的公司都面临同样的结构性矛盾。百度和腾讯的处境与阿里类似——商业模式建立在云服务和平台抽成之上,小模型的端侧化趋势直接削弱了它们的价值主张。

字节跳动的豆包手机是一个有趣的例外,但字节做硬件才刚起步,远没有建立起「芯片+操作系统+模型」的垂直整合能力。

华为理论上最有条件,既有芯片,又有终端设备。但在制裁的影响下,它的算力上限本身就逼着它走小模型路线,这更多是被动的求生策略,而非主动的战略选择。至于小米、OPPO、vivo,它们有设备,却不是 AI-first 的公司,缺乏自研模型的基因和持续投入的动力。

全球范围内,真正打通端侧 AI 全栈的公司,可能只有一家:苹果。芯片、设备、操作系统、自研模型,全部自有。苹果的动力来自复合型的商业模式,这驱动它把一切计算尽可能留在设备上,因为每一次端侧 AI 体验的提升,都会转化为硬件的溢价和生态的黏性。

不过,这里需要诚实地处理一个可能的反驳:云厂商难道不能走「端云协同」的路线吗?用小模型做端侧入口,复杂的推理任务回调云端处理,两边都不耽误。

理论上可以。但这恰恰说明了问题——在端云协同的框架下,小模型对云厂商来说是「引流工具」,而不是「独立产品」。云厂商没有动力把小模型做到好到不需要云。

还有一个绕不开的反例:微软也是云厂商,但它在认真做 Phi-4 系列小模型,而且已经商用上线。这是否说明「左右互搏」的论点站不住脚?

非也。微软之所以能两条腿走路,是因为它同时拥有 Windows 和 Surface 的硬件生态、Azure 的云平台以及 Copilot 的端侧产品线。做 Phi-4 对微软来说是防御性布局:如果端侧 AI 的趋势不可逆转,为了大局,宁可壮士断腕,自折一臂,也不能把端侧市场拱手让给开源社区和苹果

但阿里没有这个选项——没有消费级操作系统、没有主流终端硬件、没有面向个人用户的 AI 产品矩阵。Qwen 做得再好,也没有自家的「最后一公里」可以落地。

动力不同,产品的天花板就不同。

这就形成了一个令人不安的画面: 小模型从实验室走向产品的真正瓶颈,不是技术能力,而是供需错位;最擅长做小模型的公司(云厂商),最没有动力让它真正成功;最需要小模型的公司(设备厂商),又缺乏独立研发的能力。

「没问题的」

回到林俊旸的那条朋友圈,「继续按照安排好的干,没问题的」。

也许技术路线确实没有问题,一切都在朝着正确的方向走。但在一家以云为重的公司里,就算做出世界级的小模型,团队的处境注定不会舒适。

这不是对阿里的批评——任何一家以云收入为生命线的公司,面对一项可能侵蚀自身收入的技术路线,都会陷入同样的两难。这是一个结构性矛盾,不是个人或管理层的选择问题。

比人事更值得关注的,是 Scaling Law 本身正在发生的变化。

过去三年,「越大越好」不仅仅是一条技术规律,它是整个 AI 行业的信条。融资叙事围绕它建立——投资人相信更大的模型意味着更强的能力,所以万亿美金涌向算力基础设施。人才分配围绕它运转——最顶尖的研究者被吸引到训练最大模型的团队。硬件投资围绕它定价——英伟达的估值建立在一个前提之上:对算力的需求会永远增长。

现在,这个前提正在松动。MIT 的研究估计,效率提升将使中等硬件上的模型在 5 到 10 年内逐步追平最大最贵的模型。芝加哥大学的研究表示,数据质量正在取代数据规模成为核心竞争维度。

产品化的方向不再只有云端,而是同时向端侧扩散。Scaling Law 正在从一条单调递增的曲线,变成一张需要在多个维度上寻找最优解的地图。

不再是「越大越好」,而是「在对的地方,用对的大小」。

林俊旸大概比大多数人更早地感受到了这个变化。他用 Qwen 3.5 Small 证明了一件事:在对的方法论下,9B 参数可以击败 120B。但他同时也撞上了另一堵墙——技术上的正确,不等于商业上的可行,更不等于组织上的舒适。

他说,没问题的。确实,技术路线已经铺好了,而剩下的问题不在实验室里,而在实验室外面。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


一夜之间,全球 AI 圈都在转发这条告别推文

me stepping down. bye my beloved qwen.(我将卸任。再见了,我深爱的 qwen。)

3 月 4 日凌晨,阿里通义千问(Qwen)技术负责人林俊旸在 X 突然发文,向自己一手带大的开源模型项目告别。

这条推文瞬间引爆了整个在全球 AI 开源社区。就在前一天,他还和团队并肩发布了 Qwen3.5 小尺寸模型系列,马斯克亲自点赞,林俊旸在 X 上礼貌致谢。

没想到,这竟然成了林俊旸在千问的最后一次营业。

多位 Qwen 骨干同时离职,同事留言:我真的心碎了

林俊旸并没透露离职的原因和之后的去向,在他的的推文发出后,同为 Qwen 成员的 Chen Cheng(@cherry_cc12)转发并留下了一段意味深长的评论:

我真的心碎了。我知道离开并非你的选择。就在昨晚,我们还并肩发布 Qwen3.5 小模型。说实话,我无法想象没有你的 Qwen。

这条留言迅速引发外界猜测——「离开并非你的选择」,暗示林俊旸的卸任或许并非出于个人意愿。

与此同时,更多 Qwen 核心团队成员宣布离开:

Kaixin Li(@kxli_2000),新加坡国立大学毕业,Qwen3.5、Qwen-VL(视觉语言模型)、Qwen-Coder 的核心贡献者。

他在 X 上发文告别:「Signing off from @Alibaba_Qwen. Grateful for the chance to work with such brilliant minds. Proud of our impact. Onwards and upwards!」

Binyuan Hui(@huybery),阿里高级研究员,OpenDevin 开源项目发起人,Qwen-Coder 系列模型的主要技术负责人。其 X 个人简介已改为 「former MTS at Qwen」。

他在代码生成、自然语言转 SQL 等领域有深厚积累,曾主导推出 Qwen Chat 网页界面,让 Qwen 模型更易用。

Wenting Zhao。Qwen 团队研究科学家,在 X 上称林俊旸的离开是 「the end of an era」(一个时代的结束),感谢他推动 Qwen 在开源 AI 和工程领域的进步。

一夜之间,阿里最核心的开源大模型团队就经历了一场人事地震,而林俊旸的离开也引发了全球 AI 社区的关注。

Hyperbolic Labs 的 CTO Yuchen Jin 回忆与 Qwen 团队在模型发布时的深夜协作,称林俊旸帮助 Qwen 与全球开发者社区建立了紧密联系。

Hugging Face 亚太生态系统负责人 Tiezhen Wang 则 称林俊旸的离开是对 Qwen 来说是「an immense loss」(巨大损失。)

从北大语言学硕士到阿里最年轻 P10

林俊旸的履历,堪称中国 AI 新生代技术人才的典型样本。

1993 年出生的他,本科就读于北京大学计算机科学专业,硕士却选择了外国语学院的语言学与应用语言学——这段「跨界」经历,为他后来在多模态大模型领域的突破埋下了伏笔。

2019 年硕士毕业后,林俊旸以应届生身份加入阿里巴巴达摩院智能计算实验室,成为 M6 多模态预训练模型团队的一员。

2022 年,他主导研发了通用统一多模态预训练模型 OFA 和中文预训练模型 Chinese CLIP,同年被任命为通义千问技术负责人。

2025 年,32 岁的林俊旸晋升为阿里史上最年轻的 P10 级技术专家。

而在林俊旸的带领下,Qwen 系列模型创造了令业界瞩目的成绩。

  • 2023 年 8 月,Qwen 首次开源
  • 2024 年,开源 Qwen2 系列,72B 模型登顶 LMSYS Chatbot Arena 开源榜首
  • 2025 年,推出万亿参数旗舰模型 Qwen3-Max,跻身全球前三
  • 2026 年 3 月,Qwen3.5 小模型获马斯克点赞

截至目前,Qwen 系列模型全球下载量突破 6 亿次,衍生模型超过 17 万个,超越 Meta 的 Llama 成为全球第一大开源模型家族。这是中国开源 AI 模型在全球影响力版图中的一次关键扩张。

模型即产品

林俊旸不仅是一位技术专家,更是 Qwen 在全球开发者社区的「代言人」。

在 X 上,他定期发布模型更新、分享 benchmark 结果、与全球开发者互动——在 AI 实验室争夺开发者心智的今天,这种活跃的公共形象让 Qwen 在国际舞台上拥有了罕见的「人情味」。

今年 1 月的 AGI-Next 前沿峰会上,他提出了一个颇具前瞻性的观点:

「模型即产品。今天做基础模型本身,其实也就是在做产品,研究人员也需要像产品经理一样,把研究成果做成真实世界可用的系统。」

2025 年 10 月,他还宣布在 Qwen 内部亲手组建机器人和具身智能小组,试图让模型「从虚拟世界走向现实世界」。

千问站到了新的十字路口

林俊旸的离职,只是阿里通义实验室人才流失的冰山一角。

过去两年,通义实验室经历了多轮核心人员离职:

  • 周畅(原通义千问大模型技术负责人):2024 年被字节跳动以千万年薪挖走,阿里随后提起竞业诉讼
  • 鄢志杰(原语音团队负责人):达摩院「扫地僧」之一,2025 年离职
  • 薄列峰(原多模态、视觉负责人):2025 年离职

也难怪有人调侃,阿里在 AI 领域已逐渐成为培养高端人才的’黄埔军校。

而就前两天,阿里刚刚宣布将大模型 B 端品牌和 C 端应用品牌统一为「千问」,「通义千问」的名称将不再使用。

千问在刚刚过去的春节 AI 大战,也刚刚打了一场胜仗。

AI 产品榜发布的全球 AI 应用最新数据显示,MAU(月活用户数) 排名前三的 AI 应用分别为 ChatGPT、豆包和千问,其中,千问以 2.03 亿 MAU 成为全球第三大 AI 应用,并以 552% 的增速居全球第一。

今年春节,千问发起「请客活动」,上线买奶茶、点外卖、订票等「办事」功能,吸引 1.3 亿用户在千问「一句话下单」累计超 2 亿次,相当于全国平均每 10 人就有 1 人在千问下单。

QuestMobile 数据披露,该活动前两日即吸引超 3000 万用户参与,将千问 DAU 从 707 万推高至 7352 万,增速高达 940%。春节结束后,千问与豆包 DAU 差距大幅缩小,稳定至 4000 万上下。

对于阿里来说,如何在人才流失与组织调整的双重压力下,继续保持 Qwen 的技术领先和开源影响力,将是一个严峻的考验。

阿里千问正站在一个关键的十字路口。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


赛前必「摸福」?阿里云这个 AI 装置成了运动员的「冬奥许愿池」

谁能想到,2026 年第一个爆火出圈的 AI 互动装置,居然出现在米兰冬奥村?

事情是这样的,自从前几天米兰-科尔蒂纳冬奥会开幕之后,热搜就被冬奥新闻给包圆了:又是波切利开幕式献唱《今夜无人入睡》,又是单板滑雪大跳台上的神仙打架,但最吸引我注意的其实是一条场外「八卦」——

听闻各国运动员在紧张的比赛和训练之余,又㕛叒开启了每届奥运必备的保留节目:集 Pin 大战。这股风潮有多猛,看我们的短道速滑名将林孝埈证件挂绳上叮叮当当挂了 11 枚徽章就知道了。

▲ 图源:小红书@弯道超车

莫非,这些战利品都是他靠着「社牛」一个个换回来的?

很快,前线 vlog 就拍到了「案发现场」:林孝埈本人,正专注地……在一台机器前参与猜拳互动。不只是他,各国运动员都跟约好了一样往那里凑,一个个探头探脑,充满好奇。

这种神秘仪式,一下子给我整不会了。直到我顺着网线爬到冬奥村一看,好家伙,我悟了。

原来,这台机器是阿里云官方基于千问大模型,结合咱们的过年求好运风俗,专门给冬奥村打造的「智能徽章交换站」。

但在我看来,它真正的名字应该叫——「米兰冬奥村 AI 盲盒机暨好运许愿池」

这就来看看,这台机器,是怎么把中国 AI 、新年风俗和奥运传统结合起来,搞出一场连奥运冠军都上头的「文化输出」的?

当「换 Pin」变成「抽盲盒」 ,这很上头

要想搞懂这活动为什么如此上头,得先了解一下冬奥村的「社交规则」。

在运动员们居住的奥运村,有着百年历史的交换徽章(Pin)传统,约等于我们小时候交换干脆面卡片、二次元去漫展换谷子,是最高级别的社交礼仪。小小一枚徽章,就是参赛选手最好的伴手礼。

▲ 图源:X@Olympic Games

但换 Pin 这事吧,以前完全是社牛的天下,对社恐来说就不太友好了。你想想,揣着一枚徽章,看着一个两米高的外国猛男,语言又不通,想换又不敢开口,脚趾能把米兰大教堂都抠出来。

于是,阿里云 AI「冬奥许愿池」应运而生。

它的玩法突出一个简单公正,又仪式感满满,社牛社恐都能玩。

首先,把自己的徽章放入一个空球,交给机器汇入「公共卡池」,就算是正式加入了这场「奥运版抽盲盒」游戏。接下来,就看你想怎么玩了:

想体验一把「隔空取物」?那就站在屏幕前抬手,玻璃后的机械手会准确 copy 你的每一个手部动作,你指哪,它去哪;看准了,手一握,就伸入徽章球池给你捞一个新徽章球回来。

训练了一天累得不想动手?也行,直接用母语对 AI 下达指令,机器就会乖乖跑到你指定的区域抓取徽章球。

别看面板上为了简洁只标示四种语言,AI 实际上能听懂 119+ 种语言,连多邻国都要甘拜下风。什么小众语言或「塑料英语」,都可以放心大胆说。

当然,最上头的还得是和 AI 玩上一把猜拳,押上徽章决胜负。别以为运动员就能凭反应胜出——机器凭借敏锐感知力与灵巧手,几乎总能和运动员同时出手。好在,赢了可以获得大概率藏着珍稀徽章的红球,输了也有普通徽章当「安慰奖」,妥妥的稳赚不赔!

最后拿到新球,拧开就能得到一枚未知的徽章+一张祝福小福签,实现「人人都能换徽章」的愿望。怎么样,是不是有内味了?这不就是我们熟悉的抽盲盒吗?

怪不得,连见惯了大场面的运动员都玩得不亦乐乎,出现了人传人现象:前几天玩开了的老手,甚至主动当起了「志愿者」,呼朋引伴地带队友来玩,还自信满满地给初来乍到的队友介绍各种玩法和夺宝秘诀,活脱脱一个「场外指导教练」。

在「以老带新」的风潮下,交换站迅速人气爆棚。开放近一周,只住着 1500 人的冬奥村,就来了4000+ 打卡人次;各国国家队更是时常来「团建」,硬生生把智能徽章交换站变成了社区活动中心,「你和 AI 换 Pin 了吗?」也成了运动员们新的问候语。

说到底,谁能拒绝开盲盒的快乐呢?

在冬奥村的人还会发现,每天傍晚前后,徽章交换站所在的 Plaza 区特别热闹。原来是下午 4 点到 8 点的「Pin of the Day」特别活动开张了——

活动期间,官方会把放有特别徽章的透明球放入池子,谁能抓到,就能兑换全套徽章套盒在内的惊喜礼物。意大利代表团此前集体出动,围着机器轮番挑战,颇有下副本打 BOSS 的架势。

▲ 意大利全队赢得「Pin of the Day」

游戏的尽头,是硬核科学

前方工作人员透露,运动员们最爱的玩法是猜拳,这点倒是在意料之中,因为猜拳的体验恐怕是最「颠覆常识」的。据说每个和机器猜过拳的运动员都惊了:

——这 AI 咋回事,反应这么快?

那是因为,它背后藏着阿里云 Qwen3-Omni 多模态大模型。

以前的机器人反应慢,是因为摄像头、麦克风、图像识别模型、机械控制系统各自为政,信息要一步步流经每个系统,光内部「开会」就要等上半天。

而阿里云这套方案,玩的是「端到端一体化」,也就是说机器的眼、耳、手全都归同一个「部门」管。

凭借千问大模型的强大能力,它可以同时处理看到的画面、听到的声音,几乎没有内部沟通成本;另外,内置的「感知 – 思考 – 推理 – 行动」能力让它可以将运动员的命令实时快速转化成动作输出,由此实现了「所见即所得,所听即所动」。

这就是为什么,它能做到极低延迟,就像我们的「第二双手」一样自然,连即时的猜拳游戏都能跟上。

更重要的是,这套系统不是实验室里的 demo,即使在冬奥村这种人声鼎沸、多国语言混杂的地狱级真实环境中,也能实现长期稳定运行。能在这样的大规模真实场景中稳定落地,本身就体现了阿里云的工程实力。

谁也想不到,冬奥村里的 AI 机器,同样能「更高、更快、更强」。

连国际奥委会主席考文垂也高度评价说,“这是奥运史上最受喜爱的传统之一与前沿科技的一次精彩融合”。她和团队亲自体验后认为:“这是一项充满乐趣的活动,能通过 AI 技术实实在在提升冬奥体验,让运动员在比赛期间感到被支持、被关照,也再次证明了阿里云 AI 能力在奥运场景中的价值。”

赛前来「集福」,成了运动员的仪式感

更绝的是,阿里云这次把「中国式浪漫」植入到了这场游戏里。

国内每逢春节,人人都爱贴福字、抢红包、到支付宝集福卡,花式为自己新年攒一点「好运气」。祈福求运的动作,在万里之外的米兰冬奥村产生了共振——在智能徽章交换站,每个徽章球里都塞了一张双语「好运签文」:

● 「当你站在起点,你已经踩在好运区间」
● 「一件你在意的事会朝好处发展」

想想明天就要参加决赛的运动员,抱着开盲盒的心情打开小球,意外地收到一句来自东方的神秘祝福,这心理按摩效果,怕是比队医的马杀鸡都管用。

这种「福气」文化还蔓延到了机器旁边的「好运墙」上。当运动员们手写祝福语挂在墙上祝福其他选手时,总会顺手摸一下墙上那个年味十足的「福」字,祈求自己比赛「马力全开」。来的人多了,福字都成了「指定打卡点」。

「赛前沾沾好福气」,一个充满东方浪漫的互动就这样在运动员间流传。赛前沾福气能不能让比赛叠满 buff 我不知道,但我严重怀疑,阿里云这次在冬奥村实际上是在下一盘大棋:将「集福」这一国民级 IP,成功反向输出到全世界。

AI 新「岗位」,是冬奥村的「快乐搭子」

说实话,以前的奥运科技,大多隐身于幕后:精确到万分之一秒的计时、复杂的动作捕捉量化分析、转播画面背后的云端调度……它们是赛事运转不可或缺的「基础设施」,但对运动员和观众来说,感知并不直接。

而阿里云这次在冬奥村做的智能徽章交换站,给了我们一个新的视角:

AI 不只适合担当精密、中立的后台角色,它也可以站到前台,成为那个陪你玩游戏、听你碎碎念、帮你接好运的「赛场搭子」。

它把千问大模型复杂的分析决策能力,封装进了一个简单的游戏里。让来自全世界不同国家、说着不同语言的运动员,在这一刻,都被同样的向往连接在了一起——想带走一枚徽章,想留住当下一刻,想为自己创造一点好运气。

在这里,技术不再局限于服务高精尖的比赛分析需求,还能成为社交「破冰器」,创造更多小而温暖的时刻,从而让我们的世界更有趣,也更紧密相连。

试想一下,如果这套能够跨越上百种语言、在嘈杂环境中精准理解人类意图的具身智能系统走出冬奥村,继续进化,所能做到的事情恐怕远不止于此。

在科切拉音乐节,它可以帮你读懂热梗、结识异国乐迷,顺便换个限定款荧光棒;到外国旅游,它也许能当上向导,带着你和别国游客组团漫步菜市场;在某个商业街口,它能充当「中转站」让陌生人不开口就彼此换到心仪好物。

总之,无数原本因为语言或胆怯而错过的相遇,都能在 AI 的协助下成为现实。

我相信,这会成为未来 AI 发展的某种「终极形态」。就像这届冬奥会的口号「意韵由你」(IT’s Your Vibe)所传递的感觉一样,冬奥会乃至所有体育赛事,想要带给大家的,从来不只有紧张激烈、精妙绝伦的对决,还有一种气氛——人人都能参与其中,并在同一场活动里找到各自快乐的热烈氛围。

冬奥会终将谢幕,但科技带来的快乐才刚刚开始。阿里云这次在冬奥村的「打样」,让我们看到了 AI 解锁乐趣、传递福气的潜能。也许,我们很快就能在某个街头拉上路人和 AI 玩一场游戏、换一份礼物,让每个「打开徽章球」的瞬间,成为你我「打开心扉」的契机。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌