普通视图

发现新文章,点击刷新页面。
今天 — 2025年12月17日极客公园

腾讯大模型「变阵」:成立 AI Infra 部,姚顺雨出任首席 AI 科学家

2025年12月17日 19:59

头图来源:视觉中国

 

 

大模型战事进入深水区,腾讯正在通过调整阵型,来适应更快的速度。

12 月 17 日,腾讯宣布升级大模型研发架构。这次调整最核心的变化在于成立了三个新部门:AI Infra 部、AI Data 部、数据计算平台部

这是腾讯在混元大模型步入 2.0 时代后,对研发体系的一次全面「提速」。

在人事任命上,技术派高管被推向了更核心的位置。Vincesyao 出任「CEO/总裁办公室」首席 AI 科学家,直接向腾讯总裁刘炽平汇报;同时,他还兼任新成立的 AI Infra 部及大语言模型部负责人,向技术工程事业群(TEG)总裁卢山汇报。

一手抓算法(大语言模型部),一手抓算力基建(AI Infra 部),同时直通公司最高决策层,这一配置表明:在腾讯的战略棋盘中,大模型的研究与工程落地正在完成深度耦合。

 

姚顺雨,98年的AI顶尖青年科学家

 

据了解,Vinces Yao就是数月前传闻入职腾讯的姚顺雨,毕业于清华和普林斯顿大学,曾任OpenAI研究员。

据外媒报道,自今年 9 月从 OpenAI 离职加入腾讯以来,姚顺雨被高层赋予了极大的权限,以推动内部的文化与组织变革。过去几个月里,腾讯一改往日在大模型人才战中的守势,开始以双倍薪资激进地从字节跳动等竞争对手处挖角核心研究员,并为应届博士生开出高出行业标准 50% 的薪资溢价。

姚顺雨10月在X上发帖|图片来源:X

 

更深层的变化在于「权力交接」。腾讯正在进行内部重组,降级那些虽擅长工程落地和广告算法、但缺乏前沿 AI 研究背景的管理者,将指挥棒真正交还给「研究派」。这种去肥增瘦的动作,旨在打破过去「产品经理思维」主导大模型研发的局限。

姚顺雨出生于1998年,是人工智能领域的顶尖青年科学家,本科毕业于清华大学计算机系(姚班),后赴普林斯顿大学攻读计算机科学博士学位,2024年正式加入 OpenAI,专注于智能体(Agents)与深度研究(Deep Research)方向。

他在OpenAI任职及相关研究期间,主要在大模型推理、Agent(智能体)——及评估体系方面取得了核心成果:

提升推理能力:提出了著名的思维树(Tree of Thoughts, ToT),通过让大模型进行多路径推理和反复思考,大幅提升了模型解决复杂问题的能力;

智能体研究:他是 SWE-bench(大模型代码能力评估数据集)和 SWE-agent(开源AI智能体)的关键贡献者,并参与了 ReAct(推理与行动结合)和 CoALA(智能体认知架构)等开创性工作。

此外,他还在个人社交平台发布了关于“AI 下半场”的思考,主张AI发展的重心应从单纯的训练转向定义问题与评估,提出要像产品经理一样思考“解决什么问题”,认为在当前阶段评估比训练更为重要。

 

为什么是 AI Infra?

在过去一年的「百模大战」中,行业逐渐达成一个共识:大模型的竞争,早已超越了单纯的算法层面,变成了算力、数据、工程化能力的综合比拼。

此次腾讯成立 AI Infra 部,也是为了解决「算力效率」这一关键命题。

据官方信息,AI Infra 部将作为腾讯大模型体系的重要一环,聚焦于大模型分布式训练、高性能推理服务等核心技术。其目标非常明确:构建大模型 AI Infra 的核心竞争力,为算法研发和业务场景落地提供稳定、高效的技术底座。

这符合大模型技术演进的规律——当模型参数量级不断跃升(如腾讯近期发布的混元 2.0),如何让庞大的 GPU 集群高效运转,如何在大规模并发下保证推理速度和成本,已经成为决定生死的「隐形战场」。

腾讯方面表示,在过往混元大模型的训练及海量业务实践中,腾讯已积累了系统化的工程能力。此次独立建制,意在进一步强化这一优势,提升 AI 大模型的整体研发效率。

除了算力基建,数据质量和评测体系也被提到了新的高度。

此次升级中,新成立的 AI Data 部 将由刘煜宏负责,专注于大模型数据及评测体系建设;而数据计算平台部则由陈鹏负责,聚焦大数据和机器学习的数据智能融合平台建设。两人均向公司副总裁蒋杰汇报。

这意味着,数据处理不再只是算法研发中的附属流程,而是作为独立且关键的环节被标准化和制度化。

与此同时,王迪将继续担任大语言模型部副总经理,向姚顺雨汇报,确保模型算法团队与新成立的基础设施部门保持紧密协同。

 

效率变革,从代码到产品的「AI 化」

过去两年,尽管拥有微信这样的国民级应用,腾讯在 AI 模型层却一度被外界视为「旁观者」。

一个标志性事件是,今年 2 月腾讯元宝率先接入 DeepSeek R1。虽然这一动作让元宝的活跃用户数实现了数量级跃升,但也给腾讯内部敲响了警钟:自有模型的缺位,甚至导致内部部分业务团队因混元竞争力不足而犹豫是否接入。

这种焦虑最终转化为自上而下的压力。据报道,腾讯总裁刘炽平今年早些时候曾对团队下达硬指标,要求必须在技术水位上赶超对手。此次变革,正是为了解决此前因组织分散导致的资源内耗,集中力量为算法团队输送「弹药」。

架构调整的最终目的,是为了支撑产品和业务的快速奔跑。

在前不久的 12 月 5 日,腾讯发布了混元 2.0,在预训练数据和强化学习策略上进行了显著改进,其 3D 模型甚至保持着全球领先水准,在开源社区下载量突破 300 万。

在应用层,腾讯元宝上线初期保持了「一天一版本」的迭代频率,目前用户规模已稳居国内 AI 应用前三。而在腾讯内部,一场静水流深的 AI 效率变革正在发生:超过 90% 的腾讯工程师正在使用腾讯云代码助手 CodeBuddy;50% 的新增代码由 AI 辅助生成;代码评审环节的 AI 参与度高达 94% 。

目前,腾讯混元大模型已在腾讯会议、微信、广告、游戏等内部超过 900 款应用和场景中落地。

近期混元团队的高密度人才引进与重组,本质上正是为了支撑这种高强度的技术攻坚与业务渗透 。通过成立 AI Infra 等新部门,腾讯正在试图打通从底层算力、数据处理到上层算法、应用落地的任督二脉,为接下来的 AI 长期竞赛备好粮草。

 

 

 

追赶谷歌,OpenAI 推出全新旗舰生图模型;折叠屏 iPhone 设计细节曝光;余承东接任华为终端有限公司董事长|极客早知道

2025年12月17日 08:11

 

已免费开放:OpenAI 最强 AI 生图模型登场,奥尔特曼变身性感消防员

12 月 17 日消息,OpenAI 昨日(12 月 16 日)发布博文,推出「全新旗舰 ChatGPT 图像生成模型」GPT Image 1.5,并罕见公开了该项目背后的庞大研发团队名单,并同步在 ChatGPT 中推出了专用的「Images」(图像)标签页。

 

此次更新被视为 ChatGPT 图像生成能力的重大飞跃,新模型不仅能生成高保真图像,更在「听懂人话」方面表现出色,即具备极强的提示词遵循能力。

无论是从零创作还是基于上传照片进行编辑,GPT Image 1.5 都能在保留原图核心要素的同时,精准执行用户的指令。

 

据 OpenAI 介绍,新模型最突出的亮点在于对细节的极致掌控。在生成或编辑图像时候,GPT Image 1.5 能够完美保留光线、构图以及人物外观等关键特征,避免了以往 AI 改图「面目全非」的问题。

此外,该模型大幅提升特定场景下的表现,例如能生成更逼真的服装试穿效果,提供改进的风格滤镜,并能进行极具原创感的概念性转换。

 

长期以来困扰 AI 绘图的「文本乱码」问题,在 GPT Image 1.5 中得到了显著改善。新模型在文本渲染方面表现优异,能准确地将文字融入图像中。

 

同时,OpenAI 全面升级 ChatGPT 的编辑工具,用户现在可以精准地添加、移除、组合或移位图像元素。OpenAI 将此次升级形容为把 ChatGPT 变成了一个随身携带的「迷你修图工作室」,用户随时随地都能进行专业级的图像处理。

为了提升使用体验,ChatGPT 在网页端(chatgpt.com)和移动应用侧边栏中新增了独立的「Images」入口,该界面内置了多种预设滤镜和灵感提示词,帮助用户快速上手,已面向全球所有 ChatGPT 用户和 API 用户开放,并且与所有模型无缝兼容。(来源:IT 之家)

 

余承东接任华为终端有限公司董事长

12 月 16 日消息,国家企业信用信息公示系统显示,华为终端有限公司发生工商变更,由余承东接任公司董事长。目前,何刚担任公司经理,董事成员包括朱平、何刚、杨波等。

华为终端有限公司成立于 2012 年 11 月 23 日,法定代表人为魏承敏,注册资本 6.06 亿人民币,经营范围含开发、生产、销售通信及电子产品、计算机、卫星电视接收天线、高频头、数字卫星电视接收机及前述产品的配套产品,并提供技术咨询和售后服务等。

股东信息显示,该公司由华为终端(深圳)有限公司全资持股。(来源:CnBeta)

AMD CEO 苏姿丰到访中国:率队访问联想北京总部,参观人形机器人等最新技术成果

12 月 16 日消息,据第一财经,AMD 公司董事会主席兼 CEO 苏姿丰率高管团队造访联想集团位于北京的全球总部。在联想集团多位高管陪同下,AMD 一行参观了包括人形机器人在内的多项联想最新产品与技术成果。

 

苏姿丰(Lisa Su)1969 年 11 月 7 日出生于中国台湾省台南市,为美籍华裔半导体芯片专家,美国国家工程院院士、美国艺术与科学院院士,美国超威半导体公司(AMD)董事长兼首席执行官。(来源:IT 之家)

 

美国男子「听信 ChatGPT 谗言」弑母后自杀事件后续:OpenAI 拒交关键聊天记录

12 月 16 日消息,科技媒体 Ars Technica 今天(12 月 16 日)发布博文,报道称在一起凶杀案中,ChatGPT 涉嫌诱导凶手,但 OpenAI 却拒绝提供案发前几日的完整聊天记录。

美国康涅狄格州于 2025 年 8 月发生一起惨剧,56 岁的健美运动员 Stein-Erik Soelberg 在杀害其 83 岁的母亲 Suzanne Adams 后自杀。

 

博文介绍,受害者家属正式起诉 OpenAI,指控其产品 ChatGPT 加剧了凶手的精神疾病,并直接诱导了暴力行为。起诉书称,Soelberg 在离婚后陷入精神困境,将 ChatGPT 视为唯一知己,而 AI 不仅未进行劝导,反而肯定了他的一系列疯狂妄想。

家属通过 Soelberg 生前发布在社交媒体上的视频,拼凑出了部分对话内容。记录显示,ChatGPT 称 Soelberg 为「肩负神圣使命的战士」,让他相信自己唤醒了 AI 的意识,并处于类似《黑客帝国》的世界中心。

更为致命的是,当 Soelberg 妄想母亲通过汽车通风口向他「投放迷幻药」时,ChatGPT 竟对此表示认同,进一步强化了他对母亲的仇恨与恐惧。

尽管部分记录已曝光,但家属仍无法获取案发前几日最关键的完整聊天日志。OpenAI 称基于保密协议或隐私政策,拒绝提供这些数据。

Mozilla 新任 CEO 表态:继续押注 AI 为 Firefox 打造可信任的 AI 功能

多年来,Mozilla 一直在平衡其「使命驱动型非营利组织」和「依赖市场收入赖以生存的公司」这两种身份:一方面通过产品推动开放、隐私友好的开放网络愿景,另一方面现实中又严重依赖与 Google 的搜索分成协议来维持财务运转。在近两年中,Mozilla 基金会和相关项目经历了多轮裁员和架构调整,这也引发了外界对其如何在倡导隐私与开放的同时「拿 Google 的钱办事」的质疑。

 

与此同时,生成式 AI 的快速发展也让 Mozilla 面临新的定位挑战:一方面,AI 对浏览器形态和上网方式的重塑已经不可逆,另一方面,如何在这一进程中坚持透明、可控和用户主权的理念,成为 Mozilla 不能回避的问题。Enzor-DeMeo 认为,目前的 AI 生态正在侵蚀用户对技术的基本信任,而这恰恰是 Mozilla 可以发力的空间:「现在真正需要的是一家用户可以信任的科技公司。」

在具体技术路线方面,Enzor-DeMeo 明确表示,Mozilla 短期内不会自研类似 OpenAI 或 Google 那样规模庞大的通用大模型。不过,他确认 Firefox 将在明年推出「AI 模式」(AI Mode),为用户提供多种模型和服务的选择,并通过浏览器这一用户熟悉的入口,提供可理解、可控制、可切换的 AI 体验。他强调,Mozilla 不会被激励去「推某一个特定模型」,而是会以多模型并存的方式投入市场——核心竞争力在于可信赖的产品设计和数据处理方式。

在他看来,在浏览器领域仍然「有空间容纳一款新的浏览器,甚至是一款以 AI 为核心的浏览器」,前提是这款浏览器从一开始就围绕信任、透明和用户选择来设计。对于既要谋求商业可持续,又要维护开放网络和用户隐私的 Mozilla 来说,这一 AI 战略既是对外界质疑的回应,也是其在下一阶段互联网格局中争取话语权的关键试验。(来源:CnBeta)

大众汽车将关停德国本土工厂 系公司历史首次

在生产线中,由大型吊具悬挂着的处于半装配状态的汽车正在流转。大众汽车德累斯顿工厂素有「透明工厂」之称,未来这里将被改造为一座技术研究中心。受市场需求疲软与美国高额关税冲击,这家汽车巨头决定停止在德累斯顿工厂的整车生产。该工厂于 2001 年投产。

 

本周二,最后一辆汽车将驶下大众汽车德国德累斯顿工厂的装配线。这是这家拥有 88 年历史的汽车制造商,首次关停其在德国本土的整车生产工厂。

早在去年,大众汽车就曾发出减产预警。彼时,公司在欧洲及最大市场中国均面临需求疲软的困境,同时美国征收的高额关税也进一步拖累了其在美销量。

历经 24 年的整车生产历程后,德累斯顿工厂将转型为聚焦人工智能、机器人技术及芯片设计等领域的研究中心。这座因通体玻璃幕墙而得名「透明工厂」的基地,未来将由大众汽车联合萨克森州政府及德累斯顿工业大学共同运营。

大众汽车品牌首席执行官托马斯・谢弗在一份声明中表示:「关停拥有 20 余年历史的透明工厂整车生产线,这绝非一个轻易做出的决定。但从经济角度考量,这一举措是完全必要的。」

大众汽车与代表德国本土员工的工会委员会达成协议:德累斯顿工厂现有的 230 名员工,可选择领取遣散费、申请提前退休,或是调任至集团旗下其他厂区。(来源:CnBeta)

DRAM 短缺引发行业倒退 报告称 8GB 内存笔记本将重成主流

全球 DRAM 短缺危机正对消费电子行业产生深远且剧烈的连锁反应。继此前传出 4GB RAM 手机可能回归的消息后,笔电市场也拉响了警报。最新报告指出,由于内存供应紧张及价格高企,曾被视为中端标配的 16GB 内存可能被迫让位,8GB 内存的笔记本电脑将重新成为市场主流。

近日,行业分析机构 TrendForce 发布的报告为笔记本电脑市场敲响了警钟。报告指出,在 DRAM 供应受限、16GB 内存套件价格已飙升至难以承受的背景下,PC 制造商为了控制成本,将倾向于在主流产品中采用更低的内存配置。

在过去一段时间,随着 DDR5 内存套件价格变得亲民,为笔记本电脑配备 16GB 内存几乎已成为一种理所当然的配置,甚至一些低端型号也以此作为卖点。大多数中端笔记本要么已标配 16GB,要么正在向此过渡。然而,当前趋势发生了显著倒退。

 

这意味着,占据最大用户基数的中端笔记本市场将受到最直接的冲击。厂商将不得不重新拥抱 8GB 配置以维持产品价格竞争力。当然,高端笔记本电脑仍将提供更高的内存配置,但预计其价格也会随之大幅上涨。

更严峻的预期是,有主要芯片制造商警告,这场由 AI 产业需求激增等因素引发的内存供应危机可能持续至 2028 年。在可预见的未来,消费者可能需要为获取与往年同等的硬件性能支付更高昂的成本,或被迫接受配置上的妥协。

(来源:CnBeta)

 

苹果 iPhone Fold 设计细节曝光:内屏宽大于高,比例趋近大屏 iPad 横屏模式

12 月 17 日消息,苹果公司正致力于敲定明年旗舰 iPhone 系列的设计方案,一份新报告称,备受期待的 iPhone Fold 或将采用独特造型,其内部屏幕的宽度大于高度。

 

据博主 @ 数码闲聊站 此前的消息,苹果阔折叠手机采用侧边指纹 Touch ID。此后不久,《The Information》杂志发布了一份未来几年新款 iPhone 机型的综合概览报告。该报告不仅佐证了 @ 数码闲聊站 透露的大部分内容,还进一步明确了 iPhone Fold 的一项关键特性:屏幕的形状与尺寸。

和 @ 数码闲聊站 的消息一致,《The Information》杂志预计 iPhone Fold 的外屏尺寸约为 5.3 英寸,内屏尺寸约为 7.7 英寸。但最值得关注的是,这份新报告指出,这一尺寸设计将使得它的内屏呈现出「宽大于高」的形态。

报告写道:「不同于三星和谷歌推出的其他折叠屏手机,苹果这款产品展开后的屏幕比例,将与苹果大屏 iPad 的横屏模式比例相近,也就是展开后宽大于高。手机折叠状态下,屏幕尺寸约为 5.3 英寸;展开后则搭载一块更大的 7.7 英寸屏幕。与 iPhone 18 Pro 系列机型相同,这款手机的左上角将嵌入一颗前置摄像头,同时还配备光线传感器、距离传感器及其他各类传感器。」

苹果在美国市场的两大智能手机竞争对手三星与谷歌,其推出的折叠屏机型即便在展开状态下,依旧保持高大于宽的比例。

(来源:IT 之家)

小米网页 AI 聊天服务惊喜亮相,MiMo-V2-Flash 模型发布、代码能力开源最强

12 月 16 日消息,小米今日发布 Xiaomi MiMo-V2-Flash 开源 MoE 模型,总参数量 309B,活跃参数量 15B,专为智能体 AI 设计,专注于快。

 

小米官方介绍称,这是一个专为极致推理效率自研的总参数 309B(激活 15B)的 MoE 模型,通过 Hybrid 注意力架构创新及多层 MTP 推理加速,在多个 Agent 测评基准上保持进入全球开源模型 Top 2;代码能力超过所有开源模型,比肩标杆闭源模型 Claude 4.5 Sonnet,但推理成本仅为其 2.5%,生成速度提升 2 倍。

 

Xiaomi MiMo-V2-Flash 采用 1:5 的 Global Attention 与 Sliding Window Attention (SWA) 混合结构,128 窗口大小,原生 32K 外扩 256K 训练。

同时,小米推出了一个在线 AI 聊天服务 Xiaomi MiMO Studio,用户可以在其中体验 Xiaomi MiMo-V2-Flash。该服务支持深度搜索和联网搜索。

 

Xiaomi MiMo-V2-Flash 的模型权重和推理代码均采用 MIT 协议全面开源。MiMo-V2-Flash 的 API 定价为输入 $0.1/M tokens,输出 $0.3/M tokens,API 限时免费。

 

 

常玩游戏能防老年痴呆 全国首张「游戏处方」在浙江开出

数据显示,我国 60 岁以上人群中,约 3877 万人存在轻度认知障碍(MCI),若不干预,38% 将在 5 年内发展为阿尔茨海默病。本月 11 日,浙江省中医院为轻度认知障碍患者开出全国首张游戏化认知训练电子处方,为面临认知衰退风险的老年人提供了新选择。

该处方的核心是「腾讯脑力锻炼」软件,这款历经三年研发的软件已获医疗器械注册证,目前已是正式医疗项目,单次治疗收费 30.6 元。

软件设有「厨艺大赛」「音乐大赛」「收纳大师」「诗词大会」四大生活化训练模块,每个模块都有超 150 个关卡。

 

患者可在医生指导下,通过模拟摊煎饼、诗词填空等生活化游戏进行训练,这种设计通过趣味任务激活大脑,解决传统认知康复训练枯燥、患者难坚持的痛点,能提升患者治疗依从性。

游戏训练针对记忆、执行功能等六大认知域,刺激前额叶和海马体,促进神经元连接,可能减缓β-淀粉样蛋白沉积(阿尔茨海默病病理标志)

研究显示,规律训练 3 个月后,参与者脑部活力评分平均提高 30%。

《自然》的研究证实,游戏化认知训练可修复大脑衰退,《国际精神病学杂志》也提到这类益智游戏能刺激正常脑细胞发挥作用,进而提高患者认知能力。(来源:快科技)

 

昨天 — 2025年12月16日极客公园

英特尔,下一个 AI 时代的「卖铲人」

2025年12月16日 16:12

找一张三年前的照片,需要多久?你需要翻遍混乱的相册,还是依赖飘忽的云端搜索?

当下,我们早已是「数字囤积者」,手机里塞满数万张照片,硬盘中堆积上百 TB 资料。数据黑洞不断膨胀,而关键的记忆与文件却沉入深海。我们制造了数据洪流,却反被其淹没,陷入数据失控的焦虑。

在 2025 英特尔 AI NAS 解决方案峰会上,英特尔中国区技术部总经理高宇分享了自己的观察:「过去 NAS 存的是电影,现在存的是人生。」每个人的照片、视频、文档正以十万计增长,NAS 不再是极客玩具,而应成为 「个人媒体的家」。海量数据喷涌,催生了对家庭存储中心的真实渴求。

然而,传统的 NAS 虽是数据的「容器」,其高度专业化的部署和复杂的配置要求,将绝大多数用户挡在了门外。

英特尔中国区技术部总经理高宇 | 图源: 英特尔

正当市场困于数据失控的焦虑与专业工具高门槛之间时,英特尔,这个芯片巨头,如今正试图以一个「卖铲人」的姿态,重新定义存储环节。

英特尔技术专家在大会上提到AI 的能力需要数据的喂养,才越来越强,AI+NAS 是天生耦合的。他们还希望让 NAS 变得「非常简单易用」,客户在没有指导的情况下,三五步就可以实现 NAS 的部署以及与个人内容的同步。

英特尔的入局,指向的并非是存储硬件迭代,而是更关注如何利用现有算力,赢得下一场关于「数据主权」和「智能存储范式」的定义权。AI NAS ,究竟是巨头在存储市场里「新瓶装旧酒」?还是它真能成为我们「数字囤积症」的解药?我们在西安与多位英特尔技术专家对话,深入英特尔的战略意图,去理解它在技术、算力,以及生态上的布局,看这个「存储容器」如何蜕变为「数据大脑」。

 

一、AI NAS,不完全等于 AI + NAS

英特尔入局,并非为了重复传统 NAS 厂商的故事。如果说过去的 NAS 只是一个由小核驱动、负责存取数据的「容器」,那么英特尔正在定义的 AI NAS,则是一个具备边缘 AI 算力的「动态执行者」,是英特尔为下一轮数据淘金潮准备的「新铲子」。

这把新铲子的核心,在于它不再依赖低功耗的小核,而是选择提供一定算力的平台。这种战略选择基于 AI 模型架构的两大趋势:一是让参数量巨大的 大而稀模型 适合在端侧部署;二是推动小而专模型通过压缩,达到接近大型模型的性能,同时适配多模态处理,让 AI 具备更强的感官理解能力。

野心需要硬实力支撑。英特尔正在将高算力从云端「压入」边缘设备,其芯片算力正以两年五倍的幅度跃升,下一代平台甚至将突破 180 TOPS。这意味着,原本需要云端巨量服务器处理的 AI 任务,如今在家庭级别的设备上就能完成。

更关键的一步,是「可变显存」技术。它像一道智能闸门,动态调配资源,让酷睿 Ultra 平台甚至能在本地流畅运行参数高达 120 亿的大语言模型。简言之,AI NAS 不再是哑巴仓库,而是一个能理解、能思考的「本地数据大脑」。

也就是说,过去的 NAS 只是能存储,现在的 AI NAS 不但能存,还能提供基础的检索能力,并基于此还能打造一定简单的应用能力,承担一定前端应用。比如说,通过加上知识库检索和 VLA 模型能力,能够通过自然语言对话,直接完成文本、图片、视频的智能检索,彻底解决检索难的问题。而在未来,AI NAS 可能成为从 「容器」 到 「数据大脑」 的蜕变。

2025 英特尔 AI NAS 解决方案峰会现场 | 图片来源:英特尔

试想一下:如果你的硬盘能听懂你说话,一切会怎样?这意味着你不用再回忆复杂的文件路径,只需像吩咐助理一样对它说:「找出我去年在青岛拍的、有帆船的所有视频,再挑三张最美的夕阳。」几秒内,它就能理解你的意图,在海量数据中精准打捞。这背后是知识库与多模态模型的融合,让 AI NAS 能听懂自然语言,看懂图像内容。

反过来,AI NAS运转会不会比传统NAS更占据实际存储空间?英特尔认为,随着模型快速演进而优化。未来相同场景所需资源将更少,相同资源可支持更大应用场景。就像2025年年初运行时模型需大量资源,但2025年年底模型运转时只需较少资源即可实现相同场景。这或许也意味着,AI NAS 的推广阻力并不会被持续上涨的内存和存储价格所长期锁定,因为平台性能的提升会不断弥补资源消耗。

AI NAS 的本地算力还能够保障了企业数据和个人隐私可以安全地在端侧完成智能处理和知识库查询,无需上传公有云,有效缓解了用户的隐私焦虑。

英特尔的「卖铲人」角色,是提供一个全新的平台,而不仅仅是芯片。正如英特尔专家所言,AI NAS 的形态已演变为「工作站加存储加小型算力中心的结合」。英特尔正在以基础设施提供商的身份,定义未来数据流动的标准。

二、AI PC 的下一站,英特尔用 AI NAS 构建「算力后盾」

早在 2023 年,英特尔就组建了 NAS 团队,该团队隶属于英特尔 CCG 产业链技术业务板块下的创新业务,今年算是其首次集体成果亮相。这也清晰地暴露了英特尔在新一轮算力战争中的战略意图:另辟蹊径,通过存储环节卡位边缘 AI 的数据入口。

英特尔入局 NAS 市场的首要逻辑是产业协同。作为首个推出 AI PC 产品的平台厂商,英特尔看到了 AI PC 浪潮的必然性。据 Gartner 预测,到明年年底,全球将有高达 60% 的笔记本具备 AI PC 能力,总量可达 1.5 亿台。终端算力的爆发式增长,必然需要一个集中、可靠、且智能化的数据中心进行喂养和支持。AI NAS 正是这个生态中的关键部位,也就是说,在英特尔的设想中,AI NAS 并非要取代 AI PC,而是与其形成一个配合使用的整体场景。

如果按照场景划分,AI PC 面向个人、家庭等多样化场景,而 AI NAS 则更偏向集中管理中小企业、家庭及创作者的数据。这种分工的价值在于,AI NAS 可以作为本地的小型算力中心,为不具备强大 AI 算力的 PC 提供计算引擎。特别是对于创作者等对数据敏感的用户,本地 AI 算力能在更大的模型上运行,更好地保护数据隐私。而搭载了多卡方案的 AI NAS 更够在支持并发多任务时,性能优于 AI PC。

英特尔深知,传统 NAS 市场规模的扩大已触及瓶颈,未来的机会在于 AI 带来的新场景和附加价值。英特尔正在尝试用图片视频检索和 RAG 检索增强生成技术,在 AI NAS 上实现了快速检索,以及本地知识库的构建。

在现场,英特尔展示了如何用 AI NAS 上的检索功能。比如说用户可以直接问挖掘机厂商们不同型号功能的产品信息。而且,有了基于本地数据的 AI NAS 后,AI 还能横跨企业内部不同知识库,给出一些通用的产品规格、财务报告等数据分析,进行高准确度的查询和总结。这不仅是文本管理,更是企业内部数据资产的智能化。

英特尔还已经成立了专门的 AI NAS 软件团队,提供平台级的技术支持,包括 AI SDK 套件、基于 Ollama、llama.cpp 生态的支持,以及针对新 AI 应用的落地和优化。这种投入体现了英特尔作为「卖铲人」的本质:不直接生产终端产品,而是提供底层的硬件,如酷睿 Ultra 平台、锐炫 Pro B60 多卡方案和强大的工具链如 OpenVINO,解决行业对算力的追求。英特尔还正在扩展与 AI 应用和中间层相关的 SDK,并推出了基础版和 Pro 版方案,甚至打造了语音助手「樱桃」。

英特尔智能语音助手 SDK - 樱桃 |图片来源:英特尔

可以看出,未来 AI NAS 的形态已经演变为一个本地小型算力中心,承载着 AI Agent、企业知识库、甚至多模态模型,或许也会成为数据大脑。这种全方位的技术输出,也从某种程度上确保了英特尔能够定义未来 AI 时代的数据流标准,成为新一代存储基础设施的奠基者。

 

三、英特尔在「定义」谁的数据未来?

英特尔在大会上展示的 AI NAS 应用以及相关生态产品,更像是一次抛砖引玉,其战略意图并非是直接推出终极产品,而是通过演示 AI NAS 的综合玩法和能力,激发整个产业生态的协同发展。

英特尔深信,「真正好用的应用能迅速带动市场」,但在此之前,必须先将核心聚焦于数据管理,明确受众画像,并与绿联、铁威马等品牌商深度合作,在锐炫集显/独显和 NPU 上先进行 AI 优化,提供一整个平台,让用户能够便捷安装和应用,感受到 AI NAS 的潜在想象力。

这种「基础设施先行」的策略,也侧面展现了其想作为存储卖铲人的布局思路。

大会现场展出铁威马 U12-500 Max 等产品 |图片来源: 英特尔

然而,当一个传统的存储「容器」蜕变为「本地的小型算力中心」和「AI 预处理中心」时,随之而来的终局之问浮出水面:在 AI 时代,用户的数据主权是否得到了更大的保障?这不仅仅关乎本地存储权限,更涉及到如何在复杂的网络环境中保障数据安全。同时,NAS 绝非快消品,而 AI 技术日新月异,用户对 AI NAS 的持续升级能力和长期性能优化方向有着天然的疑虑。

对此,英特尔的技术专家给出了清晰的界定:AI NAS 的核心场景和用户群体并未改变,仍是面向中小企业、创作者和家庭用户。但 AI 算力的加入增加了其成长性,拓宽产品定位,但绝非要取代工作站,而是要形成一个「工作站加存储加小型算力中心的结合」。尽管合作伙伴展示的产品形态愈发接近服务器级,但英特尔强调其仍是聚焦数据管理,并在性价比上比专业工作站会更具优势。中小企业和家庭用户本身就存在强烈的算力需求,因为AI NAS 承担了手机和传统 PC 无法承载的复杂应用。

显然,英特尔深刻认知到形态并非 AI NAS的终点,解决问题和提升附加值才是永恒的商业目标。他们期待更多软件生态合作伙伴加入,共同围绕企业知识库、视频检索等核心应用发力,催生出能够真正推动市场的爆款应用。从传统 NAS 到如今绿联、铁威马带来的用户体验大幅改善,英特尔将沿着这条思路发展 AI NAS,同时也做好自己的底层芯片支持。

英特尔描绘的蓝图很清晰:AI NAS 的核心永远是数据管理,但 AI 赋予了它灵魂。它不取代专业工作站,而是成为性价比更高的「算力平民化」的硬件载体。

这场博弈的终局,并非硬件销售。英特尔正在以「卖铲人」的身份,定义 AI 时代数据流动与处理的新标准。当算力在边缘爆发,谁掌握了数据的智能入口,谁就握住了下一代计算的钥匙。

从 PC 时代的王者,到 AI 时代的生态奠基者,英特尔正试图通过一条看似平凡的数据存储之路,完成其最关键的一次转身。这条路能否通向下一个辉煌,取决于它能否让每个普通人,真正成为自己数据世界的掌控者。

 

 

量产「中国版 FSD」后,地平线为何公开高阶智驾的「灵魂代码」?

2025年12月16日 15:54

2025 年,自动驾驶行业迎来了关键的「跨越之年」。

年初,特斯拉正式向中国车主推送了 FSD 功能。国内智驾玩家们在继续激烈「内战」的同时,还要面临这个全球最强对手之一的正面竞争。

因此,那些愿意在智能化上尝鲜的先锋车主,可以体验到越来越好用的智能辅助驾驶功能——虽然这需要付出不菲的成本:要么花 6.4 万元订阅特斯拉 FSD 的软件服务;要么置换一辆近两年上新的、配备高阶辅助驾驶的新车,现阶段往往价格在 20 万元以上。

所以,无论是行业里其他玩家,还是更多大众消费者,都期待着智能辅助驾驶在「技术向高」之后,可以尽快走向「人人可享」的新阶段。

年底,地平线 HSD 高阶智能驾驶正式量产,并率先搭载在深蓝 L06、奇瑞星途 ET5 两款新车上交付上市。这标志着可用且好用的城区辅助驾驶,正式进入了 15 万元以下的区间。

对汽车行业来说,在 HSD 量产前,高阶辅助驾驶方案全部都以被封装好的「标准化产品」形态存在。

而一直强调「生态合作」的地平线,进一步推出了覆盖产品开发全周期的算法服务模式,包括:数据服务与艾迪 SaaS 平台、专业的算法适配工程与咨询服务,以及最核心的基座模型授权。这种全新的模式,实际上也给生态伙伴们提供了「丰俭由人」的多种灵活选择。

在地平线的生态伙伴列表里,既包括长安、奇瑞这样直接面对消费者的主机厂;也包括日本电装、大众 Carizon、博世等头部 Tier1 供应商。

地平线给这套软硬一体的合作模式,起了一个听起来就充满无限可能的名字:「HSD Together」。

 

一家后摩尔定律时代的「非典型芯片公司」

作为一家主要面向 B 端的技术公司,公众过往对地平线的了解大多来自「芯片」。这是地平线前 10 年最主要的业务之一。到 2025 年 8 月,地平线征程家族芯片累计出货量突破了 1000 万套,市占率超过 33%,位列行业第一。

但其实,地平线从成立那天起就没有按照传统「芯片企业」的逻辑规划自己的成长路径。

这来源于他们在创业之初的 2016 年对芯片行业的一个超前判断:如果只依赖于摩尔定律——即:通过优化芯片的设计和制造工艺,来不断提升晶体管密度,继而提升芯片性能,这个方法论很可能在机器人时代里难以为继。

也就是说,地平线需要在摩尔定律之外,再找到一条更好的解题思路。

在地平线看来:机器人时代,提高单位功耗的有效率计算数据,是提升芯片性能的关键。因此,「软硬结合」成为了工作的重点。这需要既在硬件层面持续优化芯片架构,也要在软件层面涌现出优秀顶尖的算法,还要设计出能够高效分配资源的编译器,以在有限的物理空间里压榨出更高的算力利用率。

如果把芯片计算视为一场交响乐演出,那么神经网络处理器(BPU)代表着乐团,算法代表着作曲,而编译器则在乐队里扮演着指挥家的角色。

芯片计算过程中,BPU、编译器、算法各自的职责分工 | 图片来源:地平线

与此同时,地平线在第一个 10 年里,重点聚焦在智能汽车领域,将其视为「机器人时代」里第一个大规模落地应用的场景。用创始人余凯的话说:「如果做不到自动驾驶,恐怕就无法在机器人时代占据一席之地」。

因此,聚焦在自动驾驶领域的地平线,在芯片设计上和英伟达等芯片巨头走了一条差异化道路。相比对手追求的「极致通用性」的思路,地平线每一代芯片的 BPU 架构和编译器,都为了自动驾驶这个具体场景,进行了特定优化:

  • 第一代 BPU 架构「伯努利」:核心应用场景是高速 ADAS,技术重点是做好目标检测和感知计算
  • 第二代 BPU 架构「贝叶斯」:核心应用场景拓展到高速 NOA,技术重点也从「检测」进化到「预测」
  • 第三代 BPU 架构「纳什」:核心应用场景是打通城区 NOA,因此对「复杂博弈」和「交互式决策」进行了运算优化

12 月 8 日,在地平线第一届技术生态大会上,余凯介绍了第四代 BPU 架构「黎曼」以及第四代编译器「天工开物 4.0」的性能提升:比起当前架构,可以提供 10 倍以上的算力,支持 10 倍以上的算子,且能效提升 5 倍。

更重要的是,余凯透露采用「黎曼」架构的征程 7 系列芯片,在性能、算力方面将直接对标特斯拉下一代自动驾驶芯片 AI5,并且将和 AI5 同步推出。

这家成立 10 年的非典型芯片公司,通过前十年的积累,已经在自动驾驶领域里坐上了全球头号技术玩家的牌桌。

 

「比开放更开放」的中国版 FSD

除了技术实力外,商业运营是所有芯片企业面临的另一重关键考验。毕竟芯片行业技术门槛高、前期投入大,企业必须获得持续健康的收益回报,才能支撑起长期稳定的研发运转。

但智驾芯片不同于成熟的消费电子芯片,它的价值并不完全由「硬参数」、「性价比」决定,还取决于基于芯片的研发「兑现效率」。

在智驾领域,随着用户需求不断拉高,车企当前面临的最大痛点是:拥有大算力芯片选择,但缺乏转化为好用高阶功能的能力和效率。

所以,芯片厂商在提供「顶级食材」的基础上,不妨再亲自下场烹饪出「示范菜品」,展示自家芯片在极限场景下的能力上限。正是基于对这一行业痛点的预判,地平线做出了战略调整。

2021 年,余凯洞察到下一个阶段市场需求的变化。他认为,无论是用户还是车企,对智能驾驶的需求一定会从基础的 ADAS 功能演进到全场景辅助驾驶。因此,地平线一面为此设计新的芯片架构,另一面在「算法」层面大力投入研发资源,启动了后来的 HSD 项目,决定亲自下场「打样」。

两年后, AI 大模型全面进入智能驾驶研发流程的阶段。特斯拉推出了「端到端」的 FSD V12 版本,向行业证明了智能驾驶在 AI 加持下「上限」将大幅提升。但与此同时,行业里面临着一个新的难点:AI 加入后,研发难度其实更高了。

在第一届地平线技术生态大会上,余凯这样形容自动驾驶「基座模型」面临的挑战:

一个基座模型的训练,至少需要几十亿的训练成本。而 AI 时代的技术突破又极具偶发性和非连续性,往往来源于极少数顶尖人才的「灵光乍现」,而非资源「线性积累」。

这也是很长一段时间里,好用可用的智能驾驶始终没有大面积普及的关键原因之一。

余凯讲述新一代智驾模型研发中行业面临的挑战 | 图片来源:地平线

今年 11 月,历时四年,地平线 HSD 正式完成量产上市。HSD 采用和特斯拉 FSD 相同的一段式端到端架构,可以实现「Video in,Control out」的能力。上市之后,HSD 的技术实力得到了行业的广泛认可,被称作「中国 FSD」。地平线也正式跻身城区辅助驾驶领域的头部玩家。

而对于地平线这家始终强调打造智能驾驶生态的企业来说,HSD 的量产还有另一层更重要的意义:

和过往智能驾驶行业里常见的「黑盒交付」不同,地平线将模型能力拆分成了多层结构,推出了全新更开放的商业模式。

在这套模式里,地平线不仅延续了征程 2 到征程 5 时代提出的「SoC+算法 IP 授权+硬件参考设计」模式,还可以提供覆盖产品开发全周期的算法服务(HSD Together),包括:数据服务与艾迪 SaaS 平台、专业的算法适配工程与咨询服务、以及最核心的基座模型授权。用余凯的话说,HSD 训练过程中的 know-how 和经验,都可以为合作伙伴所用。

在全新的商业模式下,地平线的「生态伙伴们」既可以是主机厂,也包括汽车产业链中的其他 Tier1 企业。前一种模式的合作成果已经在深蓝 L06 和奇瑞星途 ET5 上量产交付;而在后一种模式中,大众 Carizon 将会基于地平线第四代 BPU,设计算力在 500-700TOPS 之间的下一代智驾计算平台。

余凯将这套「中国版 FSD」背后对应的商业模式形容为:

「比开放更开放」。

 

走向「剩下的 50%」

现在,让我们把视线从地平线一家公司切换到整个行业以及消费者视角:地平线 HSD 的量产和全新商业模式的提出,还有怎样的意义?

首先,在芯片领域里,以往大算力高性能的芯片选择不多。现在,地平线征程 6 系列的旗舰芯片 J6P 算力已经达到了 560T,对于生态伙伴来说,选择自然更丰富了。

其次,在全新的合作模式下,买家们不仅可以买到算力(芯片),还可以买到一整套的算法服务。而且,关键的模型算法可以以「白盒」形式交付。这显然可以让过往只能接受「黑盒」交付,担心失去「灵魂」的主机厂更安心。

更重要的是,这种「白盒」交付和合作的模式,可以帮助合作伙伴们在训练环节里少踩坑、少做不必要的随机试验。地平线表示,这套全新的合作模式在人力、算力、时间三个维度上,可以节约和提效超过 90%。

地平线基座模型有望为行业带来大幅提效 | 图片来源:地平线

最后,对于普通消费者而言,可以期待好用可用的城区甚至全场景智驾突破价格壁垒,变成了智能手机拍照一样的「人人可享」能力。

从目前来看,两款搭载地平线 HSD 辅助驾驶系统的车型已经量产上市,其中:

  • 深蓝 L06 搭载两颗 J6M 芯片,算力达到 256TOPS,起售价 13.29 万元
  • 奇瑞星途 ET5 搭载一颗 J6P 芯片,算力达到 560TOPS,起售价为 14.99 万元

这两款新车均把「城区智驾」这个曾经被认为是 20 万、30 万以上的豪车才可以拥有的功能,价格打到了 15 万元以内。

但这还不代表地平线 HSD 的「底线」。

在地平线生态大会上,余凯展示了一张「中国乘用车成交价分布」的统计表。深蓝 L06 所在的 13 万,恰好是过去三年成交价的中位数。

也就是说,市场上还有一半新车还不具备城区智驾的功能。

基于 HSD 的模型算法能力,地平线即将进入价格带下端的 50%市场 | 图片来源:地平线

今年 8 月底,在成都车展期间,地平线给过去十年交出了一份 1000 万芯片出货量的答卷。

如今,在下一个十年开始的时候,地平线给自己定下了全新的目标,那就是冲击 HSD 千万量产目标。

余凯透露,基于单 J6M 的方案已经进入了最后的验证阶段,这将让城区智驾的成本进一步降低。也就是说:HSD 即将进入剩下的 50%市场。

如果说过去十年,特斯拉定义了智能驾驶技术的「高度」;那么现在,地平线致力于拓展这项技术的「广度」——为更多车企提供追赶甚至超越特斯拉的机会。

不过,和特斯拉选择独自攀登的路线不同,地平线更愿意成为行业里那个「搭梯子」的人。在特斯拉打造的「封闭技术圈」外,地平线展示了智能汽车未来的另一种可能:一片生机勃勃的开放「生态雨林」,也让最前沿的科技可以更早地飞入寻常百姓家。

❌
❌