普通视图
4连板水发燃气:目前生产经营情况正常,市场环境、行业政策没有发生重大变化
米哈游等投资上海同歌二期合伙企业
特斯拉巨鲸廖凯原买入100万股英伟达,称还将继续买入
问界、尊界双双涨价!首发像素级激光雷达,尚界 Z7 内饰一并公布
![]()
交付还不到两年时间,(问界 M9)交付了 28 万多辆…… 它的销量超过了卖得特别好的 BBA 的四款产品的销量水平,就是一打四。
发布会一开始,余承东就非常骄傲地聊起了问界旗舰车型 M9 的市场表现。
另一款旗舰尊界 S800 也有着同样强劲的销量,它在高端市场同样越过了几款传统豪华巨头的同期销量总和。用余承东在台上的原话来形容,S800 同样做到了「一打三」。
![]()
只是,时间对所有汽车产品都是公平的。问界 M9 发布至今已有相当长的一段时间,随着行业整体的快速推进,各项曾经耀眼的参数正在被同行迅速拉平。
当冰箱、彩电、大沙发甚至高阶辅助驾驶逐渐普及,成为同价位竞品的标准配置,早期建立的领先优势难免会被稀释。当表层配置的差异越来越小,真正的差距只能从系统底层重新拉开。
今天下午的鸿蒙智行技术焕新发布会,刚好回应了这种竞争压力。
![]()
伴随 2026 款问界 M9 与尊界 S800 一同登场的,是全新一代 896 线双光路像素级激光雷达,以及全面升级的主动安全技术。
把最新、成本最高的硬件优先搭载于旗舰车型,是颇为常见的商业安排。鸿蒙智行在今天拿出这些底层更新,就是要为这两台核心产品注入新的体验增量,确立它们在 2026 年的技术边界。
从「交互」到「安全」的递进
在今天这场发布会的开头,华为花了不少时间去展示尊界 S800 和问界 M9 的各种功能,包括但不限于:
座舱灯光会跟着你的动作走的智能追光系统、把 S800 的转弯半径压缩到 5.05 米的途灵龙行平台、支持三点式掉头的华为乾崑 ADS 4.1 等。
![]()
对于这些功能,有些读者可能会觉得眼熟,尤其是 S800 和 M9 车主朋友们。实际上,在发布会上所提到的这些功能里,有相当一部分是现款车型已经拥有的能力,这场技术焕新发布会真正的增量信息,其实是下面这些。
先看两个实用的交互更新。一是你现在可以用华为智能手表直接控车了,轻捏双指就可以实现开关后备厢等操作。其二,是车内手势控车的更新:坐在驾驶位置,朝着副驾车门挥一挥手,门就会自动关上,省去了探身够车门的麻烦。后排也是同理。
![]()
在高速行驶的极端状况处理上,系统能力也有了明显的拔高。
爆胎稳定控制的介入速度上限,从 120km/h 提升到了 130km/h。系统在稳住车身姿态后,不再像以前那样直接在当前车道把车刹停,它会自动寻找安全的时机靠边停车,大幅降低了二次事故的风险。
![]()
车内的动态侧翼支撑也做了优化,新增了两档灵敏度调节,可以根据个人的驾驶习惯和路况提供更贴合的支撑力度。语音助手小艺也学会了各地方言,预计在五月份的推送中,上海话、粤语和四川话用户就可以用最熟悉的发音和小艺顺畅交流了。
整场发布会绝对的重头戏,全在那颗全新的激光雷达上。
![]()
鸿蒙智行在感知硬件的堆料上一向激进。
2023 年,问界 M9 行业首发了 192 线激光雷达;去年底,尊界 S800 端出了高精度固态激光雷达与分布式 4D 毫米波雷达矩阵。到了今天,这个数字直接飙升到了 896 线,成为目前全球量产规格最高的车载激光雷达。
在这颗雷达正式登场前,华为先亮出了一份成绩单:
在刚刚过去的春节九天长假里,鸿蒙智行用户的单日最高安全驾驶里程超过了 6000 万公里。在开启辅助驾驶的状态下,车辆发生严重碰撞的平均安全间隔里程,是人类驾驶员的 3.95 倍。而就在一个月前,这个数字还是 3.58 倍。数据在随时间滚动刷新。
![]()
华为智能汽车解决方案 BU CEO 靳玉志在台上说:
到目前为止,整个行业只有我们每个月在公布安全报告的数据。
高频刷新的安全数据,底层逻辑源于聪明的大脑和精准的感知。
系统架构上,华为采用了一套名为 WEWA 的架构。他们在车端引入了世界模型,有了足够聪明的算法,接下来就要解决系统「看得清」的问题。
![]()
车上的传感器各有专长。摄像头是被动感知,像人类的眼睛,看色彩和轮廓很准,但遇到强光或者黑夜容易抓瞎。毫米波雷达和激光雷达属于主动感知,自己发射电磁波去探测。毫米波雷达的波长较长,能够轻易穿透雨、雾和沙尘,测距和测速是一把好手,可惜难以描绘物体的精细边缘。
激光雷达刚好补足了这一块拼图。今天发布的这颗新一代双光路图像级激光雷达,把车载感知从 3D 点云时代拉进了 3D 成像时代。
把车载感知拉进成像时代
在过去,激光雷达线束偏少,扫描出的物体轮廓全靠稀疏的点阵拼凑。遇到复杂的环境,前方的障碍物反馈回来的信息,往往只是一团模糊的像素块。
为了解决精度问题,华为这次带来的是一套一体双焦的双光路架构。简单来讲,他们在一个雷达的壳子里,塞进了广角和长焦两个独立的接收单元。
![]()
靳玉志给我们举了个例子:
当车辆行驶到复杂路口时,广角和长焦会同时工作,前者负责把控周围全局的路况,后者则负责盯住正前方的远端细节。这种类似「画中画」的高清呈现方式,实际上就是复刻了人类司机的本能反应:用余光留意四周,把绝对的视觉重心留给前方。
![]()
和之前的 192 线激光雷达相比,在分辨率拉高四倍后,画面精细度有了极大的跃升。发布会上,靳玉志放出了一段 55 米外的漆黑夜间测试画面。新雷达非常清晰地捕捉到了一个行人和三条小狗的轮廓,甚至连小狗摇尾巴的细微动作,都被系统精准抓取。
具备如此精细的感知能力,主要是为了对付高速公路上的棘手状况,比如夜间货车遗落的橡胶碎片、横倒的交通锥筒,或者是极难辨认的低反射率异形物体。
据靳玉志介绍,这颗新雷达支持在 120 米外,稳定识别高于 14 厘米的障碍物。
![]()
14 厘米这个设定大有考究,他表示,目前大部分乘用车的底盘离地间隙都在 14 厘米以上,低于这个高度,车轮基本可以直接跨过;一旦超过这个高度,底盘和电池包就会面临实打实的物理碰撞风险。
感知能力变强了,外壳也跟着做了强化。雷达表面覆盖了一层特制的钢化膜玻璃视窗。华为做了一项极限测试,经历三十小时、长达三千公里的沙尘暴环境后,雷达表面完好无损。
![]()
对于这款雷达的研发历程,余承东在台上感慨:
几年前我们就开始开发这款激光雷达了,开发周期很长很难,直到今天才开始上市,用了好几年的时间。
他表示,过去的 192 线雷达其实也可以扫到路面掉落的小块障碍物,但系统通常选择不干预:
因为这个激光雷达的点云可信度不够,(系统)不敢采纳,防止有时候误检测来个幽灵刹车。
![]()
换上 896 线雷达后,底气补足了,系统终于敢在极限状态下做决策。在现场的实测视频里,测试车在 120km/h 的高速下,面对路面接连出现的多个异形障碍物和横倒轮胎,干净利落地完成了一连串紧急避让。
最新、最顶级的硬件上车,也伴随着终端价格的变动。
发布会末尾给出了具体的数字:搭载全新激光雷达的尊界 S800 起售价为 72.8 万元,比此前的 192 线版本上调了 2 万元;问界 M9 的起售价也顺势来到 47.98 万元,同样有 1 万元的涨幅。
ONE MORE THING:尚界 Z7 与 Z7T
公布完两台旗舰车型的售价,发布会其实已经接近尾声。但在最后阶段,大屏幕上给出了一个常规流程之外的 One More Thing。
![]()
鸿蒙智行把目光从高端商务和家庭出行,转移到了年轻消费群体身上,放出了不少尚界 Z7 的信息。余承东表示,Z7 中的「Z」代表着 Z 世代的年轻主力。数字 7 则交代了它的物理尺寸。
这是一台中大型轿车,遵循着经典的「532」身段,车身长度达到 5 米,轴距 3 米,车宽接近 2 米。宽大的尺寸基础,为这台车定下了一个相对舒展的骨架。
![]()
作为一台主打年轻市场的科技轿跑,尚界 Z7 拿出了一个跳脱的外观方案——一个名叫「电光紫粉」的专属配色。
除了外观,车内的座舱交互也给出了两个新鲜的硬件配置。
首先是鸿蒙智行内首次搭载的随动四维屏:当车内乘客呼叫语音助手小艺时,中控屏会自动转向正在说话的人。主驾下达指令,屏幕朝向左侧;副驾点歌,屏幕就立刻转到右侧。
![]()
另一个新增配置是副驾前方的「灵感橱窗」。发布会上并没有对它的具体操作进行深度演示,官方将其定义为一个装载爱好和态度的专属空间,允许用户在车内保留一处高度自定义的展示区域。
![]()
为了追求轿跑的溜背造型,车辆往往要在后排头部空间和尾箱容积上做出一定妥协。考虑到部分用户对装载能力的硬性需求,鸿蒙智行在开发 Z7 的同时,同步端出了一款衍生车型——尚界 Z7T。
![]()
后缀的字母 T 亮明了它的猎装车身份。它保留了轿跑版本的车头设计,但将车顶线条平缓地延伸至车尾,换取了更充裕的后备箱装载空间。
余承东透露,这套兼顾了颜值与实用性的双车组合,将在本月底迎来正式的独立发布会。
#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。
华宝油气LOF:暂停申购及定期定额投资业务
欧元区1月失业率为6.1%
这些刷屏的「战地实况」都是 AI 生成的?5 招让你避免上当
![]()
「我怀念那些互联网上图片总是准确的时代……等等,好像从来没有过这样的时期。」
最近伊朗冲突的消息开始在各大信息流里疯狂刷屏,爆炸、防空警报,各种冲击力极强的画面,但这里面让无数人点赞、转发的「战地纪实」,竟然有一大半都是假的。
![]()
▲浏览量都超过百万次,但是最后都被证实是 AI 生成的视频
在 X 上多个认证的自媒体,发布了数条由 AI 生成的假视频;最后却在补充信息都提到,视频内有非常明显的 AI 迹象,例如烟雾的效果,还有变形的水面和屋顶的太阳能电池板。
这些视频有的来自 9 年前毫不相干的旧冲突,有的是被 AI 操纵的合成幻影。最为荒诞的还是,美国德州州长 Greg Abbott 也转发了一段电子游戏视频,随后迅速将其删除。
▲A电子游戏的模拟画面,该视频帖子已经有超过 700 万次浏览|视频来源:X@realJoelFischer
这条在海外社交媒体上被广泛引用的所谓「第一手冲突录像」,竟然是直接截取自军事题材电子游戏。
不仅把 AI 当新闻,把游戏画面当新闻看,十分令人感慨。在这个 AI 生图生视频狂飙突进的 2026 年,「有图有真相」这句古老的互联网格言,已经沦为一句彻头彻尾的笑话。
而这些百万次转发的内容,也都被证实是个超低级 AI 缝合怪。
除了视频的泛滥,引起大家关注的还有一张在 X 上疯传的卫星图。毕竟,谁会花几个亿发颗卫星,就为了在网上 P 张图骗我?
图片显示,位于卡塔尔的一个美军雷达系统,在遭受伊朗无人机打击后化为废墟。连伊朗的主流媒体《德黑兰时报》官方账号都迫不及待地转发了这张「战果图」。
![]()
▲图片来源:X@TehranTimes79
短短 48 小时内,这条帖子的阅读量直接突破了 100 万。但很快,开源情报专家们就把这张图的底裤扒光了。
经过比对,这根本不是什么卡塔尔的雷达基地,而是巴林的一个区域。更荒谬的是,这图是用一张一年前的老照片强行用 AI 「捏」出来的。
怎么看出来的?有网友发现这张图片细看非常拙劣,虽然建筑看起来被炸毁了,但周围停放的车辆位置竟然和一年前一模一样;更离谱的是,所谓「爆炸后」的光照阴影角度,跟一年前那张晴朗日子的图分毫不差。
打败 AI 魔法,还是这朴素的五步
尽管目前大多数的 AI 生成内容,都被强制要求带上显示水印或者数字水印,但这套方案还是容易被绕过。
就拿 Nano Banana 生成的图片来说,官方提示会加入 Gemini 的 Logo 水印,和无法被肉眼察觉的 Synth ID 数字水印,但在社交媒体上,经过多轮的手动截图裁剪压缩等操作,Gemini 就很难再识别到之前嵌入的水印。
![]()
▲在 reddit 上已经有相关绕过 Synth ID 水印的方法
1、抓细节,看不对劲的地方
有人问,既然最后都发现那些 AI 视频和图片破绽这么明显,为什么大家一开始没看出来?
理由其实很简单,当我们看一张 AI 生成的人脸时,我们的大脑会本能地寻找违和感,眼睛、皮肤纹理、耳朵的形状,这是我们几百万年进化出来的生物本能。
但是,当俯视一张从几百公里高空拍下来的建筑、道路和地形时,这种本能失效了。因为没有人天生知道,在特定分辨率的传感器下,一座炸毁的雷达站「应该」长什么样。
![]()
没有太多可以参考的信息,AI 捏造的这些陌生内容,自然而然地就容易变成我们普通人眼里的客观事实。
在算法已经能完美模拟光影和肌肤纹理的今天,寻找破绽的逻辑已经变了。除了要打破这种需要依赖参考系的想法,找各种技术上的 Bug,更多地是去寻找现实的逻辑断层。
例如,背景里不合时宜的建筑风格、人物违背常理的微小动作等。
![]()
▲未经查证的照片
在前段时间马杜罗被捕后,社交媒体上也疯传了几张他的「囚禁照」,外媒的视觉调查团队迅速发现,这些图片存在可疑之处,飞机窗户的设计与现实机型不符、马杜罗衣服在两张照片里不同。
虽然没有直接证据证明它们是假的,但这些疑点,也让媒体决定不刊登这些照片。
2、谁发的信息,比信息本身更重要
一张图片背后,发布者的身份往往比内容本身更能说明问题。
![]()
这张所谓的哈梅内伊遇害的照片,也在社交媒体上获得了 550 万次的浏览,但这个账号的主人,在这里的网页关于部分写着,「SilverTrade.com 致力于提供贵金属行业最准确、最具洞察力和最及时的报道。」
还有马杜罗那张照片,即便是在 Truth Social 上发布,但多个新闻机构依然对图片的真实性心存疑虑。
最后,大多数的媒体是选择了以截图形式引用了整条帖子,而非单独呈现这张照片,很有一种「不信任但有新闻价值」的处理方式。
3、追踪数字足迹,历史记录不会说谎
AI 制造的假新闻,最常见的手法是「挪用」旧素材。通过 Google、TinEye 等搜索引擎的反向图片搜索,甚至查看图片元数据(比如拍摄时间、设备型号),就能快速判断内容是否造假。
![]()
▲https://tineye.com/
![]()
例如这张经典的篡改图片,只是在一张已有照片的前提下,通过传统的复制移动手段,就轻松骗过了一众媒体。
4、从时间和地点,验证关键背景信息
假设我们看到一段声称拍摄于某地的视频,我们可以通过 Google Maps 或卫星图像检查画面是否与该地点一致。
![]()
▲Google Earth 会提供完整的历史图像和街景
还可以用 SunCalc,通过画面里的阴影方向,推算出拍摄的大概时间。如果声称是昨晚拍的,但阴影显示是正午,基本可以判定造假。
![]()
▲ 在摄影圈,SunCalc 也是一个精准计算太阳和月亮方位,找到拍摄黄金时刻的地理网站
5、善用深度研究,让 AI 对抗 AI
现在几乎所有的 AI 工具都有自己的深度研究功能,像是之前我们总结的春节 AI 大战内容,让 ChatGPT 的深度研究,先跑上半个小时,为我们总结了这些信息。
![]()
深度研究的好处在于,AI 生成的每一句话都附有来源链接,你可以直接看到信息出自哪里、属于什么性质。如果我们对数据精确度要求较高,还可以在提示词里加上:「对每一个结论,给出一个可信度判断。」
但要注意一点:深度研究可能靠谱,普通问答不太行。
直接问 AI「这条新闻是真的吗」,它有时候会把社交媒体上某人随口发的推测,和正规报道混为一谈,给我们一个「看起来有理有据」的错误答案。深度研究至少让你能看到原始信息源,自己判断。
![]()
▲这两张图,你能分出哪张是真实的吗
例如,当我们把这两张图片直接丢给 AI,问「这张图片是由 AI 生成的吗?」
![]()
Gemini 说这两张图都极有可能是基于同一张原图,进行了后期图像处理或 AI 换色生成的产物。而 ChatGPT 和豆包告诉我,那张红色的图片更大概率是 AI 生成的。
专门的图片篡改监测工具现在也有很多,有网友前几天还专门测试了一波市面上的十多款 AI 内容检测工具(包括 hivedetect.ai、aiornot.com、copyleaks.com、以及部分通用 AI 工具),结果超过 1000 次的测试显示,
魔法打败不了魔法,用 AI 检测 AI 是一场注定破产的幻想。
![]()
▲图片来源:NYT 文章(These Tools Say They Can Spot A.I. Fakes. Do They Really Work? 这些工具声称可以识别人工智能造假。它们真的有效吗?)
AI 检测工具可以作为参考,它能给我们一个方向,但无法直接做判断。
Adobe 在 PS 25 周年的时候,还推出过一个图片真假小测验的网站,感兴趣的朋友可以去看看,当时的技术只能是纯 PS,就已经能做到有些图片难以辨别,更不用说现在强大的 AI。
![]()
▲ 分辨图片是 PS 还是真实的:https://landing.adobe.com/en/na/products/creative-cloud/69308-real-or-photoshop/index.html
「让子弹飞一会儿」
面对最近各种 AI 假图片、假新闻的泛滥,社交平台也开始了行动。
从今天起,X 平台上的创作者如果上传 AI 生成的相关视频却未标注「这是 AI 制作」的,将被暂停 90 天的「创作者收入共享计划」。如果再次违规,永远无法从平台赚到广告分成。
X 的平台分成向来可观,不少 AI 自媒体都有在 X 同步更新;年初 X 平台还更新内容激励计划,以首页出现的次数来对内容进行收入划分,同时鼓励长文的创作。
![]()
▲X 产品负责人 Nikita Bier 发文称修改创作者收益分成
这条政策一出,X 上的创作者和网友们都炸开了锅。有些人支持,「总算要管管了!」但也有人质疑,「为什么只针对冲突视频?其他领域的假内容不一样造成各种危害吗?」
我想即便这些措施涵盖了各个领域的假消息,实际的成效恐怕也并不乐观。毕竟,用户可以轻松地使用其他账户重新发布,而平台的内容审核,远远赶不上假图传播的速度。
在 The Verge 采访虚假新闻专家的文章里面提到,「普通人必须清醒地认识到,当前的数字环境,天然就是向操纵和欺骗倾斜的。」
现在看来更大的问题还是回到了,我们对 AI 伪造的警惕性仍然不足。但作为一个吃瓜群众,如果要自己对每一条新闻都要去做事实核查也太麻烦了。
![]()
保持耐心或许是更简单的方法,姜文电影里那句「让子弹飞一会儿」,会是我们在算法操纵下,最清醒的一种特立独行。
#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。
亚马逊正探索为其他应用提供AI聊天机器人广告技术
现货白银日内涨幅扩大至5%
千问模型负责人林俊旸提出离职,阿里高管紧急答疑
千问模型负责人林俊旸提出离职,阿里高管紧急答疑 | 智能涌现独家
作者 | 邓咏仪
编辑 | 苏建勋 杨轩
“我应该要更早知道这些。”
北京时间3月4日下午约13:00,通义实验室紧急召开了All Hands会议,阿里集团CEO吴泳铭向千问员工坦诚表示。
12个小时前(北京时间3月4日凌晨0点11分),阿里千问大模型技术负责人林俊旸在X上突然宣布离职——林俊旸是阿里AI开源模型的核心推手,也是阿里最年轻的P10之一——行业一片哗然之时,Qwen的很多成员也无法接受团队灵魂人物的突然出走。
“在资源远少于竞对的前提下,能取得今天的成绩,俊旸的领导力是核心因素之一。”不止一位千问成员对36氪评价。
在会上,以刘大一恒(Qwen RL leader)为代表,Qwen成员们围绕包括团队拆分、新成员周浩、对模型路线选择、资源投入等等维度,对阿里高层提出了多项疑问。
这场会议与会者包括阿里数位高管、Qwen团队以及通义实验室其他团队成员。围绕团队调整、战略方向等关键议题,包括阿里巴巴董事长兼CEO吴泳铭,阿里巴巴首席人才官蒋芳、阿里云CTO周靖人做出多个回应。
对于此次调整,阿里高层给出的核心定性是:Qwen没有收缩,这是一次团队扩张,无关任何政治斗争,反而需要投入更多资源。
“我们在快速发展,这波调整是为了扩充更多人才、提供更多资源。”阿里巴巴首席人才官蒋芳也承认沟通存在不足,“这次组织形式没沟通好,新人引入肯定会带来阵型变化,扩大过程中必然涉及到这些,我们可能没处理好。”
有传言称周浩将直接领导林俊旸及其相关团队,但据智能涌现获悉,包括周浩的接任职位,汇报线,尚在讨论中。
会上,阿里高层强调多次,千问基础模型是集团当前最重要的事情,大模型的竞争不仅仅是Qwen团队的事,而是整个阿里集团的事——无论是基础模型研发,还是底层 infra 建设,都将在集团层面统筹推进,“一定要超越”。
阿里云 CTO 周靖人则回应了包括招聘名额、算力短缺等尖锐问题:为何外部客户(如大模型创业公司)购买阿里云算力用得顺畅,内部团队反而在算力、招聘名额上捉襟见肘?
周靖人表示,团队处于“一直资源紧张”,内外差异有很多历史原因,未来正在做整体规划,但没有进一步展开说明。
关于林俊旸的动向,会上也没有更新的结论。但下午2点左右,林俊旸再度发布朋友圈,表示“qwen的兄弟们,按照原来安排继续干,没问题的”,并未明确是否回归。
![]()
来源:林俊旸个人朋友圈
而在数日前,阿里刚刚完成一轮AI战略更新,内部将AI的总称和核心品牌统一为千问,组织层面也迎来了新一轮调整。
《智能涌现》了解到,此前Qwen拥有自己的预训练、后训练、Infra团队;从模型模态上看,也有语言模型、多模态、代码等多个方向。
在过往,训单模态的模型曾是业界主流,但在DeepSeek用推理模型带动了新的技术范式之后,各个模态的融合成为趋势。
一位知情人士曾对《智能涌现》表示,从2025年开始,林俊旸就在寻求让语言、图像、视频、代码等方向的员工一起工作,以寻求提升模型训练效率。Qwen团队曾提出与万相团队合并,但没有完成,才开始做了自己的qwen-image模型。
但在这轮调整中,通义实验室希望将Qwen团队按预训练、后训练、视觉理解、图像等维度拆分,和通义实验室中的团队合并(如通义万相、通义百聆等团队),一起工作。但在没有充分信息沟通的情况下,矛盾就此爆发。
“林俊旸,他一个人就值一亿美金”
就在3月2日晚间,千问还在X上宣布开源四款Qwen 3.5小尺寸模型,马斯克点赞了这条推文,并表示“令人惊叹的智能密度。”
千问模型灵魂人物林俊旸毫无征兆地突然提出离职,让阿里AI团队陷入一片迷茫。
在前任阿里千问技术负责人周畅离职后,生于1993年的林俊旸从2022年起开始接手阿里Qwen团队,负责整体技术工作。
这几年间,阿里Qwen模型家族也在快速发展,从最开始的通义模型家族到Qwen 2.5、Qwen 3.5 Max等模型,一路成长为世界一流模型团队。在多个维度上,Qwen都是毫无疑问的开源模型第一家族。
多位前阿里模型团队的人士对《智能涌现》都曾表示,2023年国内大模型刚起步时,国内大厂对是否开源、开源力度多少也有分歧。但阿里的开源战略做得足够早,足够有战略定力,很大程度上得益于周畅、林俊旸等人的积极推动和执行。
而随着林俊旸离开,一同宣布离职的,还有多位Qwen成员,其中有负责Qwen各个模型细分方向的核心负责人,如:
惠彬原(Binyuan Hui):Qwen代码方向负责人,Qwen-Coder系列模型主理人,负责从预训练到后训练的全流程Agent训练,近期也有参与具身智能(Robotics)相关研究。
郁博文(Bowen Yu):Qwen后训练研究负责人,毕业于中国科学院大学,主导 Qwen-Instruct 系列模型的开发。
Kaixin Li:Qwen 3.5/VL/Coder的核心贡献者。
除了上述几位人员,还有不少年轻研究员,也在同一天提出了离职。
不止一位Qwen研究员在推特、小红书发布情绪低落的贴文。“Qwen is nothing without its people.” 这番发言套用了2024年OpenAI陷入CEO更换风波时,OpenAI员工在推特上的刷屏发言。
![]()
来源:X
林俊旸官宣离职在AI社区引起了巨大轰动,很多反馈来自海外开发者,均在表达对林俊旸推动Qwen开源工作的感谢。“一个时代的结束。”Hyperbolic Labs创始人兼CTO Yuchen Jin表示。
![]()
来源:X
“如果这一批人真要是离开了,Qwen模型至少得耽误半年到1年,重组团队重新训。”一位AI方向的资深投资人对《智能涌现》表示。另一位字节AI人士则称“林俊旸至少是1亿美金以上级别的人才。”
不少传言称,林俊旸离开是“非自愿”,但经《智能涌现》确认,林俊旸在3月3日提出离职,并且还没有和阿里谈好相关的细节,Qwen团队成员在3月4日下午得到的消息。
《智能涌现》最新得到的消息是,阿里巴巴高层还和林俊旸密切沟通中,林俊旸是否确认离开阿里巴巴还未可知。
林俊旸离开后,即将接手阿里Qwen后训练工作的新成员,是来自Google DeepMind的周浩。一位Qwen团队人士对《智能涌现》称,周浩于2026年1月短暂入职夸克,而后调至通义实验室。从汇报线上看,周浩直接汇报给周靖人,不少声音称,他将接手Qwen的后训练工作。
周浩(Hao Zhou)本科毕业于中科大。此前,他在Google DeepMind担任Gemini的强化学习与自我改进团队的负责人。
阿里在开源上赢了口碑,但它还想要更多
就在3月3日,林俊旸刚刚在X(推特)上发布数款小尺寸的开源模型,这些模型适用于手机等,也贯彻了Qwen一直以来的开源路线。
很多人认为将做开源模型粗暴理解为“做慈善”,但这并不公允。
开源做得好,首先服务了整个阿里云的开发者生态。因为更早做开源,Qwen模型家族在模型发展早期能够快速得到社区反馈,成长迅速,反哺了模型训练。
Qwen全尺寸、全模态的模型路线,让很多企业、学校的技术从业者能够很快选用到合适自己的模型,建立了一波好口碑。在这些模型落到生产环境后,很多企业主也会倾向于购买Qwen的模型服务,间接转化成了阿里云的商业收入。
但这其中的商业逻辑很难论证,这也是开源长期以来面临的问题,国内外都如此——Meta花了数十亿美元训练Llama却免费开放,外界至今争论这笔账究竟怎么算,也从来无法体现在Meta财报当中。
而尽管在开源依旧维持着优秀的口碑,但在闭源旗舰模型一侧,阿里在2025年发布的Qwen 3、Qwen-3.5系列,尽管维持在第一梯队,但已有吃力之势。
林俊旸等核心成员离开,很大程度是源于阿里巴巴当前AI战略的快速变化,和基础模型团队的目标产生了差距。
追赶旗舰模型、维持开源领先地位都很重要,但阿里巴巴的基础模型团队训练资源相对有限。
如今,Qwen家族有超过百款细分模型,很难想象,支撑这些模型更新主力的Qwen团队,仅有100多人。即使是算上通义实验室整体团队,也刚刚超过600人。
作为对比,字节负责基模训练的Seed团队就已经近2000人。在各个方向上,阿里投入的绝对人数,都是友商的几分之一。不少Qwen人士都曾对36氪表示,Qwen的算力、Infra建设都长期缺乏资源和支持,这部分阻碍了模型的迭代速度。
这是如今阿里AI战略急行军的一个激烈切面。2025年11月,千问App上线,大打春节大战,只是刚刚拉开AI To C战争的序幕——字节旗下的豆包已然接近2亿日活大关,还有尚未完全发力的腾讯;同时,阿里在旗舰模型也不能掉队——这关系着阿里云的商业化闭环,以及整个阿里集团的未来。
(36氪作者周鑫雨对本文已有贡献)