阅读视图

发现新文章,点击刷新页面。

小马智行联合宁德时代首发L4级无人驾驶轻卡

36氪获悉,4月24日,小马智行在2026北京国际车展上发布Robotruck业务全车型及商业进展:与宁德时代联合打造全球首款全车规、全冗余L4级无人驾驶轻卡,第四代自动驾驶重卡量产下线,并宣布与中外运深化干线及城配物流战略合作。小马智行明确提出“干线+城配”全场景物流战略,推动L4级自动驾驶技术在物流领域的规模化落地。

日本将成立特别工作组应对金融体系网络安全风险

日本财务大臣片山皋月周五表示,鉴于人们对Anthropic的Mythos人工智能模型潜在漏洞的担忧,日本将成立一个特别工作组,以应对金融体系的网络安全风险。片山表示,这一决定是在日本金融厅、日本央行、国家网络安全局、日本三大银行以及日本外汇集团的联合会议上达成的。(新浪财经)

美股新高之际 高盛警告:美股近期可能下跌,切莫贸然加仓

随着美股重回历史新高,高盛公司警告称,他们预计美股市场可能即将出现回调,建议投资者不要贸然加仓。高盛在报告中写道:“根据我们的股票不对称性框架,再次出现股市下跌的风险仍然较高,而股市上涨的可能性较低,这表明增加风险投资的策略并不明智。”高盛分析师们特别强调,他们对于美股向上的整体预期并未改变,但是当前市场上存在潜在的抛售力量,他们认为这才是投资者应避免投资风险资产的原因。(财联社)

有道龙虾已率先集成DeepSeek-V4和Kimi K2.6

36氪获悉,网易有道近日透露,旗下全场景个人助理Agent “网易有道龙虾”(LobsterAI)已率先完成对DeepSeek-V4与Kimi K2.6两大最新旗舰模型的支持和接入。接入DeepSeek-V4后,有道龙虾在处理长文档、多文件、多步骤任务以及复杂办公场景时,将获得更强的上下文保持能力和任务理解能力。Kimi K2.6则进一步强化了有道龙虾在长程编码和持续执行方面的能力。

定了,DeepSeek V4首发华为芯片!国产AI开始打破英伟达「垄断」

星期五中午,本该是盘算周末去哪嗨的黄金时段。但没想到 DeepSeek 突然反手就是一个超级加倍,就在刚刚,正式发布并开源了 V4 系列模型预览版。

一上来就是王炸级别,而且双双标配百万 token 上下文:

  • 参数量达 1.6T 的 DeepSeek-V4-Pro(49B 激活参数)
  • 284B 参数的 DeepSeek-V4-Flash(13B 激活参数)

即日起可在官网 chat.deepseek.com 或官方 App 体验,API 服务同步上线。

DeepSeek V4 登场,Agent 玩家迎来大狂欢

Agent 能力是此次升级最核心的方向。

V4-Pro 已在 DeepSeek 内部作为 Agentic Coding 工具日常使用。

员工的实测反馈是:用起来比 Sonnet 4.5 顺手,交付质量接近 Opus 4.6 非思考模式,和 Opus 4.6 思考模式相比还有差距。

官方内部 R&D 编程基准测试也给出了类似的定位,约 200 个来自 50 余位工程师的真实工作任务里,V4-Pro-Max 的 Pass Rate 是 67%,Sonnet 4.5 是 47%,Opus 4.5 Thinking 是 73%,Opus 4.6 Thinking 是 80%。

参与内部调研的 85 名有使用经验的开发者和研究人员中,超过九成认为 V4-Pro 已经可以作为首选或接近首选的编程模型。

模型已针对 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 产品进行专项适配,代码任务与文档生成均有提升。

工具调用方面,V4 系列引入了新的 XML 格式 tool-call schema,以「|DSML|」特殊 token 划定调用边界。官方表示这一设计有效减少了转义失败和工具调用错误,比上一代更可靠。

知识与推理层面,V4-Pro 在世界知识测评中大幅领先其他开源模型。

SimpleQA-Verified 得分 57.9,比最接近的开源竞争者高出约 20 个百分点,只是略逊于 Gemini-3.1-Pro 的 75.6。数学、STEM、竞赛代码三项超越全部已公开评测的开源模型,达到顶级闭源模型水准。

基座模型层面,V4-Pro-Base 在 MMLU 5-shot、MMLU-Pro 5-shot、Simple-QA Verified 25-shot、LongBench-V2 长文本评测上的得分分别为 90.1、73.5、55.2、51.5,全面大幅领先参数量相近的 V3.2-Base(对应分别是 87.8、65.5、28.3、40.2)。

值得一提的是,参数量更小的 V4-Flash-Base 在多数基准测试中同样超越了 V3.2-Base,说明架构层面的改进本身带来了相当可观的效率提升。

指令模型的横向对比里,V4-Pro Max 的 LiveCodeBench Pass@1 达到 93.5,Codeforces Rating 达到 3206,均为参测模型中最高。

在 Codeforces 人类选手排行榜上,V4-Pro-Max 目前位列第 23 名。IMOAnswerBench Pass@1 达到 89.8,仅次于 GPT-5.4 的 91.4。竞赛数学基准 HMMT 2026 Feb Pass@1 为 95.2,和 Opus-4.6 Max 的 96.2 及 GPT-5.4 的 97.7 差距很小。Apex Shortlist Pass@1 达到 90.2,超过同场对比的所有模型。

Agent 评测方面,SWE Verified Resolved 为 80.6,和 Opus-4.6 Max 的 80.8 基本持平。

BrowseComp Pass@1 为 83.4,MCPAtlas Public Pass@1 为 73.6,均处于参测模型前列。后两项数字说明 V4 对 MCP 工具生态的兼容能力很扎实,并非只在内部框架上表现良好。

长文本评测上,MRCR 1M MMR 为 83.5,CorpusQA 1M ACC 为 62.0,超过 Gemini-3.1-Pro 的 76.3 和 53.8,但在 MRCR 上仍落后 Claude Opus 4.6 的 92.9。

从分段数据来看,128K 以内的检索能力相当稳定,128K 之后开始出现明显下滑,但 1M 时的表现依然超过大多数同类模型。

中文写作同样是 V4-Pro 的强项。

官方将 Gemini-3.1-Pro 作为中文写作的对标基准模型,在包含 3170 条样本的功能性写作评测中,V4-Pro 的胜率为 62.7%,Gemini 为 34.1%。

创意写作方面,V4-Pro 在写作质量上的胜率达到 77.5%。不过遇到高难度指令约束或多轮写作场景,Claude Opus 4.5 仍有优势,胜率是 52.0% 对 45.9%。

别把 Flash 当「丐版」,选对思考模式才是王道

很多人看到 Pro 和 Flash 两个档位,第一反应是「Flash 就是降配版」。

错,大错特错。 DeepSeek 的定位逻辑要更复杂,V4-Flash 的参数量和激活量都小得多,API 价格更有竞争力。推理能力和 Pro 很接近,世界知识储备稍逊,

简单 Agent 任务上两者差距不大。真正拉开差距的是高难度任务,以及思考模式的选择。

在 Think Max 模式下,V4-Flash 的推理性能可以大幅追近 Pro:LiveCodeBench Flash Max 达到 91.6,Codeforces Flash Max Rating 达到 3052,GPQA Diamond Pass@1 达到 88.1,IMOAnswerBench Pass@1 达到 88.4,和 Pro Max 的差距已相当有限。

日常任务用 Flash,遇到硬骨头开 Think Max,性价比很高。

模式之间的性能落差远比版本之间的落差大。以 V4-Pro 为例,HLE Pass@1 从非思考模式的 7.7 提升至 Max 模式的 37.7,Apex Pass@1 从 0.4 提升至 38.3,BrowseComp Pass@1 从无法评测跃升至 83.4。对于复杂任务,选对思考强度,比纠结选哪个版本要重要得多。

两款模型均支持三种推理强度,可通过 reasoning_effort 参数切换。

非思考模式响应速度快,适合日常轻量任务;Think High 开启显式逻辑推理,适合复杂问题与规划;Think Max 推理能力拉满,适合探索模型上限,官方建议上下文窗口至少设置为 384K token,复杂 Agent 场景则直接设成 max。

Think Max 模式下还有一段额外注入到系统提示开头的指令,要求模型「以绝对最大力度推理,不允许走捷径」,并强制要求把每一步推理、每一个被否定的假设都显式写出来。

这种设计的效果从数据上看相当明显,也解释了为什么同一个模型在不同模式下的表现差距如此之大。

百万长上下文,榨干每一个 token

百万 token 上下文有不少模型都在宣传,但撑起这个规模的工程代价是完全不一样的。

DeepSeek V4 在架构层面做了比较大的调整。注意力机制是这次改动的核心。传统的注意力计算量随序列长度平方增长,上下文一长就成了最主要的计算瓶颈。

V4 引入了两种压缩注意力并交替使用。CSA 把每 m 个 token 的 KV 缓存压缩为一条,再用稀疏注意力只挑其中 k 条参与核心计算;HCA 则用更激进的压缩率,把更长区间的 token 压缩为一条,但保持稠密注意力。

CSA 里还有一个闪电索引器,用 FP4 低精度快速算出每个查询 token 和各压缩块之间的相关性得分,再挑出 top-k 个块参与后续注意力,进一步压缩计算量。为了避免压缩损失局部细节,两种注意力都额外引入了滑动窗口分支,让每个 token 能完整看到最近的若干个相邻 token。

效果是显著的,在 1M 上下文场景下,V4-Pro 的单 token 推理计算量仅为 V3.2 的 27%,KV 缓存占用降至 V3.2 的 10%。V4-Flash 更激进,同样场景下推理计算量仅为 V3.2 的 10%,KV 缓存降至 7%。

官方表示,百万上下文从现在起将是 DeepSeek 所有官方服务的标配。

真·就长长长长长长长长。

除注意力机制外,V4 还引入了流形约束超连接(mHC)来强化残差连接。

传统残差连接把层与层之间的信号直接相加,而 mHC 把残差流的宽度扩展若干倍,再通过三组可学习的线性映射动态控制信号的混合方式。

负责残差变换的矩阵被约束在双随机矩阵集合上,保证谱范数不超过 1,让跨层信号传播更加稳定。

训练层面采用 Muon 优化器,通过迭代正交化梯度矩阵来更新参数,加快收敛速度并提升稳定性,和 AdamW 混用:大多数模块用 Muon,嵌入层、预测头、RMSNorm 权重仍用 AdamW。

训练过程中遇到了 loss spike 问题。

DeepSeek 摸索出两个有效手段。第一个叫「预期性路由」,在第 t 步训练时用第 t-Δt 步的旧参数计算路由索引,把骨干网络和路由网络的更新解耦,打破两者之间的恶性循环。

第二个是对 SwiGLU 激活函数的线性分量做截断,把数值范围钳制在 [-10, 10] 以内,直接压制异常值的出现。补货,两种方法目前只知道有效,机理还不够清晰,DeepSeek 在论文中坦承这个问题留待后续研究。

此外,两款模型均在超过 32T token 的高质量数据上完成预训练,数据构成涵盖数学、代码、网页、长文档等多个类别,中期训练阶段还额外加入了 agentic 数据来强化代码能力。

训练后阶段采用两步范式,先通过 SFT 与 GRPO 强化学习独立培养领域专家,涵盖数学、代码、Agent、指令跟随等多个方向,再经在线蒸馏(OPD)将各领域能力整合进单一模型。

OPD 采用全词表 logit 蒸馏而非 token 级 KL 估计,梯度估计更稳定,知识迁移更完整,代价是工程实现难度大幅提升——超过十个教师模型的权重被集中存储、按需加载,隐藏层状态也做了专门缓存以避免显存爆炸。

当然,源神,依然是那个源神!

目前四个权重版本均已开源,可在 HuggingFace 或 ModelScope 下载。

Base 版本采用 FP8 Mixed 精度,指令版本采用 FP4 与 FP8 混合精度,MoE 专家参数使用 FP4,其余参数使用 FP8。

FP4 到 FP8 的反量化是无损的,因为 FP8(E4M3)比 FP4(E2M1)多两位指数位,动态范围更大,能完整吸收 FP4 的量化信息。本地部署建议将采样参数设为 temperature=1.0、top_p=1.0。

此次发布未提供 Jinja 格式 chat template,官方在 encoding 文件夹中提供了 Python 脚本与测试用例,说明如何将 OpenAI 兼容格式的消息编码为模型输入字符串,以及如何解析模型的文本输出。

API 接入方面,V4-Pro 与 V4-Flash 已同步上线,同时支持 OpenAI ChatCompletions 接口与 Anthropic 接口。价格如上,调用时 base_url 不变,model 参数改为 deepseek-v4-pro 或 deepseek-v4-flash 即可。

旧接口名称 deepseek-chat 与 deepseek-reasoner 将于三个月后(2026 年 7 月 24 日)停止使用,当前阶段两者分别指向 V4-Flash 的非思考模式与思考模式,开发者需在截止日期前完成迁移。看来这个周末有得忙了。

除了技术架构,DeepSeek V4 这次一个更值得关注的变化,是英伟达不再是唯一选项。

也就是说, DeepSeek 没有给英伟达或 AMD 提前优化适配的机会,而是把早期访问权限独家开放给了国产芯片厂商。这意味着,国产模型在「去英伟达化」迈出了重要的一步。

图片
DeepSeek 选择在 V4 这个节点上做这件事,时机很精准。

V4 的性能已经比肩顶级闭源模型,如果它只能跑在英伟达芯片上,那「国产最强开源模型」这个标签总显得差一口气。现在它跑通了昇腾,这个叙事也有所完整:算法是自己的,代码是开源的,芯片是国产的。

巧合的是,黄仁勋最近就在与科技播客 Dwarkesh Patel 的访谈节目中表示,DeepSeek不是一个无足轻重的进展。

他还假设了一个情况,那就是 DeepSeek 新模型在华为平台上首发,黄仁勋表示这一天对美国来说将是一个可怕的结果,因为这意味着 AI 模型被优化为在中国 AI 硬件上表现最佳,而这些模型扩散到全球之后,就会推动中国技术成为世界标准。

DeepSeek 用万亿参数级别的模型验证了昇腾可以承载顶级大模型的推理,这对整个国产算力生态是一针强心剂。国内大厂本就在加大昇腾芯片的采购力度,V4 的成功适配让这个决策有了更充分的技术背书。寒武纪、海光信息等其他国产芯片厂商也会被倒逼着加速自己的大模型适配进度。

一个顶级开源模型的芯片选择,正在撬动一整条产业链的洗牌。

DeepSeek-V4 模型开源链接:
https://huggingface.co/collections/deepseek-ai/deepseek-v4
https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4
DeepSeek-V4 技术报告:
https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek\_V4.pdf

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

PPIO首批上线DeepSeek-V4

4月24日,DeepSeek-V4预览版正式推出并开源,包含DeepSeek-V4-Pro和DeepSeek-V4-Flash两个版本。中国全栈式AI云服务商PPIO第一时间全量首批上线,成为业内首批上线DeepSeek-V4的AI云平台之一。目前,DeepSeek-V4-Pro和DeepSeek-V4-Flash均已同步上线PPIO官网。

航油价格飙升令多家美国航空运营商业绩承压

多家美国航空运营商日前公布财报显示,由于中东战事导致航油价格飙升,这些运营商不得不通过上调机票价格、行李托运费和选座费,以及削减航班等措施应对冲击,但业绩前景仍然严重承压。(新华社)

国家能源局:3月核发绿证3.03亿个

36氪获悉,国家能源局发布数据,2026年3月核发绿证3.03亿个,涉及可再生能源发电项目176.50万个,其中可交易绿证2.04亿个,占比67.12%。本期核发2026年2月可再生能源电量对应绿证1.63亿个,占比53.65%。3月,全国交易绿证6256万个,其中绿色电力交易绿证3270万个。3月,全国单独交易绿证2985万个,其中电量生产年为2024年的绿证交易663万个,平均价格2.08元/个;电量生产年为2025年的绿证交易2228万个,平均价格5.95元/个;电量生产年为2026年的绿证交易95万个,平均价格7.76元/个。

每日互动DeepSeek-V4私部方案已就绪

36氪获悉,每日互动“个知·智能工作站”已全面接入DeepSeek-V4,同时迅速推出了基于华为最新昇腾方案的纯私有化部署方案,实现从模型部署到端侧应用全链路私有化部署。

DeepSeek V4终于发布,但它留下的5道主观题还没有答案

文|周鑫雨

资料整理|钟楚笛

编辑|苏建勋 杨轩

靴子终于落地。

被调侃“Next Week”近3个月的DeepSeek V4,终于显露真身。

1.6T的最大参数量、1M的上下文窗口、针对Agent的性能优化,以及基于MoE(混合专家模型)和稀疏注意力机制DSA,降低计算和显存需求——这些曾被外界纷纷猜测的参数和性能,随着V4的官宣,一锤定音。

DeepSeek V4性能测评结果。

姗姗来迟的原由,与V4将训练框架从英伟达迁移到华为昇腾上有关,也与DeepSeek内部的决策变动有关。我们得知,2025年年中,DeepSeek曾面临一次较为严重的训练失败。

“当时,DeepSeek面临重新适配芯片的问题。”一名知情者提到,“内部有关训练方向的意见也不完全统一。梁文锋提出了一些自己的要求,但在执行层面很难折中。”

不过,与外界关于“新模型支持多模态生成和理解”的猜测不同,V4依然是个语言模型。暂缓多模态生成的训练策略,主要源于算力和现金的掣肘。

多名知情者告诉《智能涌现》,DeepSeek的对外融资窗口,是2026年4月中旬打开的。内部的导火索,是DeepSeek需要更多资金支持,训练参数规模更大的模型,同时,留住和招纳更多的顶级人才。

“1.6T的参数量与OpenAI、Anthropic等顶级厂商的模型相比,并不具有绝对的竞争力。”一名从业者对我们提到,很快,国内也有模型厂商,将发布3T参数规模的模型。

在人才侧,随着郭达雅(DeepSeek R1核心作者)、王炳宣(DeepSeek LLM核心作者)等人才被字节、腾讯等大厂挖走,DeepSeek需要一笔大额融资稳定军心、招兵买马。

而转向开放融资的外部导火索,几名业内人士猜测,与腾讯的投资态度有关。在开发融资前,梁文锋和马化腾曾有关注独家注资有过几次商谈。但两名相关人士透露,给腾讯20%股份的条件,没有得到梁文锋的同意。

R1发布以来,一个明显的转变是:DeepSeek从一个偏非营利的、理想主义的技术乌托邦,被迫快速转向一家重视产品、商业化的务实公司。

2026年4月8日,DeepSeek App改版,上线支持复杂推理的“专家模式”,和处理简单任务的“快速模式”——随着V4的发布,我们也从而得知,负责“专家模式”的,是1.6T参数量的V4-pro,支持“快速模式”的,则是284B的V4-flash。

DeepSeek App的两种模式。

曾有知情人士表示,2025年下半年以来,梁文锋开始重视产品的打磨。有多名大厂AI产品经理向《智能涌现》提到,2025年年末,DeepSeek对产品策略/经理进行了“开闸式招聘”,他们也多次收到DeepSeek HR的联络。

一名业内人士也对《智能涌现》透露,DeepSeek内部已经搭建了数个创新产品团队,对Agent和其他C端产品形态进行探索。

从更新后的版本看,DeepSeek的文本能力提升明显。在过去一年,我们也听到多位AI行业HR、猎头提起过,不止一次在北大中文系的宿舍,遇见加学生微信的DeepSeek HR

招中文系学生的目的,是做人文领域的数据标注和测评标准搭建。这被视为DeepSeek重视模型的人文性的信号。

虽然“普惠”“开放”,产品简单到只有一个Chat界面,是DeepSeek对外呈现出的形象。但我们了解到,2025年,DeepSeek对产品和商业化的探索一直没有停过——目前,内部已经组建了一支数十人的产品团队,对Agent等产品形态进行探索

甚至更早前,在2024年,爆火前的DeepSeek,也考虑过投流推广,但很快被梁文锋否决。

DeepSeek终于放出年度更新,有如终于掉落的达摩克利斯之剑,让中国乃至全球模型厂商悬着的心稍稍放下。

迈入2026年后,DeepSeek的年度迭代,已成为AI世界“狼来了”的故事。避开DeepSeek,成了近几个月模型厂商的标准动作。

两家刚刚上市的大模型厂商,智谱和MiniMax,在春节前,就错峰发布了新的模型GLM 5和M 2.5。

一名智谱员工告诉《智能涌现》,“DeepSeek将在春节发模型”的传言一放出,算法团队立马拉了会,要求“尽早”发布GLM 5。

MiniMax的一名员工也表示,1月中旬,港股IPO庆功酒的宿醉还没褪去,算法团队就自觉早早回到了工位上。

“错峰”,对这两家已经IPO的模型创业公司尤为重要。“如果比DeepSeek晚发,性能不如它们,会影响股价;但不发,也会影响股价。”上述员工表示,“影响最小的办法,是早发。”

模型公司的融资动作,也要抢在DeepSeek更新前面。

1月末宣布了B+轮融资的阶跃星辰,也迫切地想在春节前Close这轮融资。一名知情人士告诉我们,一旦DeepSeek再次掀桌,和投资人的沟通成本将会非常高。

在从业者眼中,牌桌上一直有“两个DeepSeek”——一个带来被倾轧的恐惧,另一个则作为范式的引领。在模型厂商们温吞缠绵的两年里,行业需要这样一个“不确定性因素”,让厂商们反思、继而冲刺起来。

MiniMax一名员工记得,在年后的内部信和全员会上,创始人兼CEO闫俊杰提到:“DeepSeek帮我们走出了一条我想走的路。”

即使中国AI从业者对DeepSeek情绪复杂,但人们依然承认,DeepSeek改变了中国AI行业的诸多规则。

改变,往往意味着推倒和重建,这必不会是个舒适的体验,但正如一名六小虎投资人对我们评价的那样:DeepSeek奠定了近一年来中国大模型的组织文化、冲研发重点,而在这以后,“它是中国AI跻身全球一流的起点,但不会是终点”。

DeepSeek让中国AI行业的竞争格局,进入相对稳定的中场。但在模型技术的早期,DeepSeek为行业留下的不尽是共识。随着商业化和竞争压力加剧,围绕开源、商业化、增长等命题,各个厂商正在走向不同的分叉口。

在DeepSeek V4发布前,我们与十余位AI行业人士,围绕“DeepSeek改变了中国AI行业什么?”展开对话。

以下,是我们从中总结出的5条“后DeepSeek时代”的新命题。

命题一:重新审视开源的性价比

一年前,DeepSeek R1公开技术报告后,一名AI投资人的判断是:回归基模研究、靠开源开放打响技术品牌,对模型厂商而言是最重要的事。

但如今,他告诉我们,当时的判断有待商榷。

跟随DeepSeek一年后,厂商们大力托举开源和研究生态的时代是否要终结?这一关键问题,随着近期阿里千问大模型技术负责人林俊旸的离职,被摆到了明面上。

某种意义上,林俊旸领导的Qwen,代表着开源生态的利益。但如今,这与阿里作为商业公司的营利性,产生了尖锐的矛盾。

非盈利的黄金时代结束了。”针对这一事件,一名Qwen员工对我们这样评价。

让厂商们动摇的事实是,如今营收最高的2家模型厂商,走的是闭源路线——OpenAI,年化收入超过250亿美元;Anthropic,年化收入超过190亿美元(据The Information报道,数据截至2026年2月底)。

至于国内厂商的模型收入,近期披露的2025年财报显示,MiniMax全年总收入为7903.8万美元,智谱为7.24亿元(约1.05亿美元),与OpenAI和Anthropic相比,还有多个数量级的差距。

△2023年以来,OpenAI和Anthropic的年化收入情况。图源:The Information

2026年1月的AGI Next大会上,智谱创始人唐杰也发出警告,“我们可能只是在‘开源游乐场’里玩得开心,而美国的闭源模型早已进入下一个纪元”。

毫无疑问,DeepSeek带动的开源开放生态,让中国模型在2025年内,快速在全球建立知名度和技术口碑。

但一个残酷的事实是,靠开源快速“冷启动”、建立技术口碑的阶段已经过去了。在基模研发仍然“吞金”的当下,如何将口碑转化成真金白银,是更重要的存活命题。

开源的价值,到了被重新审视的时间点。

命题二:投流大战暂停,精细化投放开打

如何解读DeepSeek “0投流,App上线7天用户破亿”的成绩?

放置一年前,行业的目光会不由自主地聚焦在“0投流”之上——这套破圈叙事,推翻了不少厂商深信不疑的增长路径,也戳破了彼时模型产品烧出的虚假繁荣。

警醒,应激。2025年初,不少公司都做出了和大举投流同样激进的反思。

其中的典型,是拉开投流大战序幕的月之暗面。

《智能涌现》曾报道,2025年2月一场持续了五六个小时的战略会上,月之暗面联合创始人张予彤宣布,立刻暂停Kimi在安卓渠道的投流,同时将iOS渠道上的投流预算,从原来的千万元/天,削减到数万元/天。

一名六小虎中层曾对我们假设:以Kimi和豆包为主角,AI应用激进的投流大战,大概率会持续到2025年Q2,按照平均每个季度2亿美金的投流支出,月暗会因资金压力率先败下阵。

当应激的情绪逐渐回归理性,多数厂商的增长成员都告诉我们:投流,仍要继续,但要做聪明的、有的放矢的增长。

事实上,激进的投流、补贴大战,没有因DeepSeek的非典型成功而停止。只是,参战的主要对象,剩下了财力雄厚、手握流量入口的几家大厂

增长大战最白热化的一幕,发生在刚过去不久的2026年春节。阿里千问豪掷30亿元请用户喝奶茶,腾讯元宝狂撒10亿元红包,字节则用同样的10亿元,将豆包送上春晚的舞台。

六小虎的一名增长团队成员,将如今的投流,称作“巧妇要为无米之炊”:“流量入口被大厂们把握,意味着剩余的模型厂商,要用更精细化的增长方式,放弃建立大盘认知,聚焦目标用户。

他举了个例子,如果AI产品的主要场景是金融、法律办公,那就将产品推到一些金融App上,流量还更便宜。

命题三:回归基模,选实用,还是选研究?

R1出圈后,聚焦基模研发,一夕之间成为AI模型厂商的共识。

“我们对自己的研究方向,都更坚定了。”一名亲历R1发布的前月之暗面研究员对我们表示,“R1并不是石破天惊的创新,但它证明,只要大方向判断不出错,厂商坚持自己的路线,就能获得性能上的正反馈,就像DeepSeek一直坚持纯语言和推理。”

此前,为了打榜或是追逐热点,不少厂商会将聚焦在推理、对话等不同性能的模型,分开单独训练。

“这样做可以针对某项能力调优,但模型的实用性会打折扣,客户也不一定买单。”一名智谱员工告诉我们。他提到,一个令智谱警铃大作的现象是,R1发布后,不少行业头部客户,转向了部署DeepSeek。

彼时的智谱在冲击中,做出了一个在上述员工看来“难而正确”的决定:训练一个同时聚集推理、Coding和Agentic能力的模型,GLM 4.5。

这是智谱第一个‘反榜单’的模型,性能调优方向都从真实的客户需求中来,”他表示,“某种意义上,这也是智谱的背水一战。”

同样的反思,也席卷了大厂。2025��1月,前谷歌DeepMind研究副总裁吴永辉,挂帅字节模���团队Seed后,“不刷榜单,聚焦模型能力本身”的方针就被多次提起。

类似的,多名知情人告诉《智能涌现》,前OpenAI研究员姚顺雨加盟腾讯后,花了大力气把模型和AI产品的测评体系重新搭一遍,直接对接人员具体到每个场景的负责人,甚至他们的-1、-2。

“原来混元(腾讯大模型团队)的风格是‘刷榜’,让模型性能有些虚假繁荣。”一名混元成员告诉我们,“顺雨很Sharp,他希望团队认识到模型的真实水平,回归到研发本身。”

但共识之下必有裂隙。技术研发,向来有“实用派”和“研究派”之分,前者注重赢得竞争、商业落地,后者注重学术价值——具体到一家商业公司的体系中,在手头宽裕的时代,承担AI“研究派”角色的,往往是AI Lab、研究院。

然而,随着AI投入的压力逐步加大,基础模型研究该倾向“研究”还是“实用”,业界并没有统一的答案。

可见的是,在商业化目标的趋势下,目前“实用派”占了大多数。一个显著的信号是,AI Lab正在后退和消亡,研发资源被聚集至“实用派”。

2025年以来,字节AI Lab被并入Seed团队,阿里达摩院多个研发团队被重组至通义实验室;2026年3月20日,腾讯也撤销了成立近10年的AI Lab,团队成员并入混元大模型团队。

但DeepSeek在某种意义上依旧验证了,伟大是无法被计划的,不少突破性的技术,源自非功利性的研究。

依然有厂商,选择给“研究派”自由探索的空间——比如,字节Seed内部,还设置了注重研究的虚拟组织“Seed Edge”,鼓励骨干突破更基础、更长期的AGI课题,考核周期延长至3年。

命题四:大模型组织,顶层扁平高效,基层人海战术

命运的齿轮在梁文锋决定脱离幻方量化,单独成立DeepSeek那一天起就开始转动了。

一名接触过DeepSeek早期成员的知情人士告诉《智能涌现》,2023年初,DeepSeek早期团队到位后,梁文锋就坚持将DeepSeek脱离于幻方,理由是“幻方不是AI时代的组织形式,想要实现AGI,必须脱离原有的组织惯性做事。

R1的成功,让不少模型厂商开始重新审视适配AI时代的人才组织形式。

本质每一代(巨头)企业,都是那个阶段最先进的组织,去适配那个时候的技术和商业,自然而然脱颖而出。”在近期一次播客访谈中,阶跃星辰董事长印奇也提到,如今每一家企业的AI顶尖人才都不少,关键在于组织形态。

《智能涌现》曾报道DeepSeek采取的是相当扁平和“学院派”的管理方式:成员根据具体的目标,分成不同的研究小组;组内没有固定分工和上下级关系——这一组织形式的好处在于,可以充分发挥人的想象力,适配创新业务。

对于规模尚且不大的创业公司而言,寻找适配AI时代的组织形式,尚且有较高的试错空间。不少六小虎的员工都对我们表示,2025年以来,扩张规模成为一件“很谨慎”的事。不少企业甚至选择自行断尾,目的是“更高效、更聚焦”。

但对于动辄万人规模的互联网大厂而言,打破原有组织惯性并非易事。正如印奇所言:创新者的窘境,往往是组织问题;领域内越是优秀的公司,越是将组织模式固化的更好,但往往也更难改变

只是,对于大厂而言,在AI时代延续辉煌辉煌,是必须要做的事。

2025年以来,大厂玩家都试图将模型研发和AI创新业务,规整为一个相对独立于互联网业务的组织,用更为扁平的方式管理

比如虽晚但到的腾讯。《智能涌现》曾独家报道,原来分散在各个BG中的模型核心研发资源,在数次调整中,被集中在姚顺雨管理的AI Infra部,以及大语言模型部。

在近期的答疑会上,姚顺雨针对AI Lab与混元的整并,也做出了回应:要打破部门墙,让AI基础模型的开发和研究架构更年轻、更直接

但精简研发团队的另一面,是数据、评测等支持团队的激进扩张。

“模型底层算法的迭代,到了一个平台期。在算法架构没有突破的情况下,训练数据的质量在模型性能迭代中起到了关键作用。”一名大语言模型研究员告诉我们,“尤其是视频、3D等涉及主观审美的多模态数据,各个厂商之间的质量差距就会显现出来。”

用高薪、高职级组建数据、评测,在不少厂商中已经屡见不鲜。

一名知情者告诉我们,,近期字节Seed总规模相较于年初,已经翻了约2倍豆包某一个尺寸的模型,光负责智商评测的就有5人,负责策略产品的有五六十人,“豆包、Seedance目前的性能优势,都是靠人力堆出来的。”

在数据供应的上游,盘踞在成都、武汉等城市的数据标注公司,已经跑出了不少年营收过亿的“隐形巨头”,招聘的普遍门槛,从中专、大专,抬高到了211硕士。

金字塔结构”,一名Seed研究员如此形容目前模型组织的标准范式:研发顶端,是少数顶尖大脑,而为顶层输送燃料的数据、评测,依然需要人海战术。

命题五:年轻人和“一把手工程”

组织最重要的毛细血管,则是人。很难说,是DeepSeek统一了行业“重视年轻天才”的人才审美,但各个厂商对AI年轻人才的渴求,被拉到了一个史无前例的高度。

△腾讯“CEO/总裁办公室”首席AI科学家 姚顺雨,1998年生。图源:姚顺雨个人博客

“很多大厂的HR团队,前几年招人的姿态都比较‘甲方’。”一名在AI行业从事了7、8年高端人才招聘的猎头告诉我们,“他们只负责给钱,但与人才在业务上的沟通都比较浅。”

明显的转变发生在R1发布之后——抢人,成了各大公司的“一把手工程”。

比如,2025年以来,隐退近4年的张一鸣的身影,频繁出现在新加坡,目的是引进全球各地的AI人才。也有不少人看到,腾讯总裁刘炽平亲自带HR团队,现身多个国内外计算机顶会现场,给参会者发名片、加微信。

一名混元成员也告诉我们,姚顺雨进入腾讯后的一个重要任务,是招人。自2025年9月,他加入腾讯以来,已经替混元面试了近百人,“每个校招生他都会亲自面,也常找突出的实习生吃饭”。

“DeepSeek终于让厂商们自上而下对齐了一件事:AI就是top mission。”一名AI投资人总结。

结语:一直仰望,就无法超越

DeepSeek不能一直待在神坛上。正如一名混元研究员所言:一直仰望,就无法超越

2025年下半年以来,模型玩家们对DeepSeek的态度,不再只有景仰,而是暗自卯足了超越的野心。

这一点,在去年借助DeepSeek流量,快速托举元宝的腾讯身上,尤为明显。一名元宝员工告诉我们,截至2025年底,仍有约7成用户将DeepSeek选为元宝的默认模型,而非腾讯自己的模型混元。

“2026年,元宝的一个重要目标就是摆脱DeepSeek依赖,让腾讯自己的搜索品牌形成一定的用户心智。”她告诉我们。

当然,这也势必伴随更激进的模型研发目标。一名混元研究员告诉我们,2026年4月23日发布的新模型Hy3 preview,腾讯设定的目标是跟上第一梯队。第一梯队的名单,则是DeepSeek和阿里。

对于牌桌上更早进场的其他玩家而言,经过一年的调整、加速,几乎所有厂商都在模型赛道,找到了差异化的身位:

字节和阶跃星辰聚焦全模态;月之暗面和智谱打磨Coding和Agentic能力;MiniMax保持语言模型不掉队的同时,突出视频生成模型的优势。

“每个厂商都沿自己的路线走。”Jason告诉我们,“这条路的终点可以是AGI、是泼天财富,但绝对不会是包括DeepSeek在内的任何一家公司。”

2016年,埃隆·马斯克和OpenAI CEO山姆·奥特曼有过一段公开对话。他提到:“人们有时会认为技术每年都会自动进步,但其实并非如此。只有聪明的人们拼命努力去改进它,技术才会进步。

△埃隆·马斯克(右)与山姆·阿尔特曼(左)的对谈。图源:YouTube@Y Combinator

2025年初,DeepSeek恰好成了那个吹哨的聪明人。2026年,努力的聪明人会更多。

(文中受访者均为化名)

欢迎交流!

小鹏第二代VLA智驾报告首发,全系Ultra车型订单环比提升118%

36氪获悉,今日,2026(第十九届)北京国际车展正式启幕,小鹏集团携全明星产品矩阵重磅亮相,涵盖全新车型小鹏GX、2026款小鹏MONA M03、全新小鹏P7、2026款小鹏X9等多款热门新车,以及全新一代人形机器人IRON、“陆地航母”分体式飞行汽车,全面展示小鹏集团在物理AI矩阵的前沿成果与全场景布局。据透露,3月,小鹏全系Ultra车型订单环比提升了118%,首次下单即选择Ultra及Ultra SE车型的成交量环比增长129.3%。

华为 Pura 90 Pro Max 评测:6499 元起,最难绕开的影像旗舰

站在今年一季度的节点,回顾去年发布的华为 Mate 80 Pro Max,我们的心情是复杂的。

一方面,它凭借着几乎无短板的参数和优秀的体验,成为了迄今口碑最好的一台 Mate 系列直板机。

另一方面,它身上又萦绕着一股「成熟味儿」,让那些有意尝试华为、但注重外观属性的潜在用户——尤其是从其他品牌切换过来的用户们难以下手:

而这个问题,终于在刚刚的四月发布会上得到了解决。

那些既想要一台华为旗舰、又不希望 OOTD 走商务风的用户们,有了一个更灵巧、更活泼,也更潮流的选择——

一台橙到发蓝、绿到显白、紫到镶金的华为 Pura 90 Pro Max,而 6499 的起步价比今年所有的影像旗舰都便宜。

除了占据 C 位的 Pura 90 Pro Max 之外,爱范儿此次也拿到了主打色「粉红芭乐」的 Pura 90 Pro。

对于那些喜欢鲜明色彩,但不喜欢沾指纹的用户来说,采用磨砂背板 + 拉丝纹理金属边框的 Pura 90 Pro 也是一个扎实的选择,起步价仅仅 5499。

本次评测我们将以 Pura 90 Pro Max 为核心展开体验,作为华为 Pura 系列的最新旗舰,这一次在设计和影像上,还真有一些值得说道的细节——

比如华为首个 2 亿像素超高分辨率传感器;更加主动智能的 XMAGE 功能;以及鸿蒙 6.1 的沉浸光感设计等等……

当然,还有 6499 元起售价——总得来说就是,诚意到位了。

影像出众,AI 更出众

影像,是 Pura 系列一贯秉持的基因。作为华为的影像「风向标」,今年的 Pura 90 Pro Max 除了有着更合理的配置,还有着更聪明的智能。

在 Pura 90 Pro Max 上,华为没有选择延续前代的「一镜双目」结构,而是选择换上一颗 1/1.28 英寸、2 亿像素的 RYYB 排列传感器,主打在像素上大力出奇迹。

在长焦的升级下,华为 Pura 90 Pro Max 的影像配置组成了一套以 5000 万像素为基底、2 亿像素为顶的阵营:

  • 超广角最高 5000 万像素
  • 主摄最高 5000 万像素
  • 长焦最高 2 亿像素

那这颗新长焦表现如何呢?一起来看样片(样片经过微信压缩,实际观感以评测为准)。

实际体验来看,Pura 90 Pro Max 上这颗长焦镜头的素质还是非常过关的,系统算法介入得干脆利落,不拖泥带水。放大画面去抠边缘细节,也很难找到紫边或光学衍射的痕迹,整体锐度经得起细看。

在较大尺寸的 CMOS 支持下,这颗 4× 长焦一直放大到 15×(360mm)的画质也还能打,画面底噪的压制也表现不错。

当手动开启长焦的 2 亿像素后,画面的解析力又上了一个台阶。

我用 Pura 90 Pro Max 的 2 亿 4× 拍摄了一张树干,放大看,树皮粗糙的纹理依然清晰可见,也没有为了显得清晰而用力过猛的「锐化感」,整体观感十分自然。

大底和超高像素的红利,不仅停留在静态照片上,也顺理成章地延伸到了视频领域——这颗长焦可以利用 2 亿像素的规格去记录 20× 的超长焦画面,随后通过超采样技术,输出为 4K 或 1080P 30 帧的高清视频。

即便是在极高倍率下录制远景,画面依然能保持极高的可用性,告别了以往超长焦视频糊成一团的尴尬——当然,前提是你的手足够稳。

除了望得远,这颗镜头还藏着另一个看家本领:凑得近

Pura 90 Pro Max 的 4× 长焦支持大约 5cm 的最近对焦距离,能提供十分实用的微距视角。

长焦微距一直是华为的传统强项。从实际样片来看,微距下的画质十分扎实。在同一个对焦平面上,画面的中心和边缘保持着一致的锐度,背景虚化的过渡也很自然。

如果你保持微距的距离下,再切换到高像素模式,打开独属于这颗长焦的 2 亿像素,那么你将获得源于微末的视觉奇观,挖掘到一些你可能完全没注意到的细节。

在拍摄以上样片的时候,我注意到一个有趣的现象——在普通拍照模式下(默认输出 1200 万像素),这颗长焦显示为 96mm 焦段;一旦切换到 2 亿像素,这颗长焦会变成 89mm 焦段。

也就是说,系统在默认拍照模式下很可能没有用上整块传感器,而是略为裁切,以便更合理连贯的焦段布置。

但 Pura 90 Pro Max 还有个略显遗憾的瑕疵——对高像素照片的处理,有些心有不逮。

要想要拍出一张满血的 2 亿像素照片,按下快门后手必须端稳 3 秒钟左右,接着系统还要再花 2 秒左右去后台运算。在这期间,你无法继续使用相机,需要等到照片处理完成后才能继续拍摄。

尽管 Pura 90 Pro Max 的三颗镜头均支持以 5000 万像素输出照片,但默认输出像素依旧是 1200 万,没有充分发挥高像素影像模组的潜力。

想把成像素质拉满,还得多费几步功夫——

先切换到「高像素模式」,才能让其他镜头输出 5000 万像素;要是惦记 2 亿像素长焦,还得去屏幕左上角再拨弄一次开关。

说实话,既然硬件已经堆到了这个地步,华为完全有底气把默认画质提档到 2500 万像素左右。

把实力藏在层层菜单背后,多少有些保守。

再来说说长焦增距——这也是 Pura 系列第一次配备增距镜。

虽然这颗 1/1.28 英寸、2 亿像素的 4× 长焦完全足够满足日常生活的需求了,但华为依旧和铁头(TILTA)合作,专门为 Pura 90 Pro Max 定制了一套增距镜和保护壳,将光学焦段拓展到 324mm(13.5×)。

不得不说,这套外设是目前为止我主观感受上最扎实的一套——保护壳贴合得严丝合缝,外接手柄通过两个固定钉和一个卡扣死死咬住机身。镜头模组上方还专门加固了一块金属盖板,用来充当增距镜的底座。

美中不足的是,增距镜卡口边用于锁定的伸缩限位杆方案有些粗暴,同时保护壳的卡口盖板暴露了过多的 Deco 面积,略显不优雅。

至于核心的画质表现,这颗增距镜没有掉链子。在 13.5× 的原生焦段下,画面质感依旧抗打;继续放大到 27×,成片效果也还能用。

在取景器底部,华为其实还提供了更夸张的变焦倍数,但实测下来,我觉得画面的算法味道过重,日常使用并不推荐。

还需要提醒的是,超长焦是一把双刃剑。

焦段拉伸后,手部的微小晃动都会被成倍放大。尤其是在光照条件不够好的环境里,稍不留神就会收获一张模糊的废片,这对握持稳定性提出了极高的要求。

另一方面,加上增距镜后,镜头的最近对焦距离会被拉得很远。想要像裸机那样贴着物体拍出具有视觉冲击力的微距画面,这套装备就无能为力了。

对了,在安装增距镜的情况下,其他镜头是无法正常使用的——你应该也不想用手机拍出坦克视角。

可以说,在影像素质这块,Pura 90 Pro Max 保持了一贯的高水准,即便在移动影像神仙打架的 2026 年里也不落下风。

而真正让 Pura 系列的影像与众不同的,则是 AI 加持的「XMAGE 智拍」。

在第一次举起 Pura 90 Pro Max 的时候,我们很难不注意到取景框底部弹出一行小字:

打开 XMAGE 智拍

简而言之,这个功能其实是去年 Pura 80 Ultra 上「AI 辅助构图」的进化体——

现在,只要你举起手机打开 XMAGE 智拍,并将镜头对准大致的景物,Pura 90 Pro Max 会自动引导你最佳构图位置。

在镜头中心对准 XMAGE 智拍提供的小圆点后,手机会自动变焦到合适焦段。它随后还会根据眼前的光线和景物,迅速算出几款最对味的色彩滤镜,直接排成列表供人挑选。

最后,你只需要按下快门,就能获得一张构图考究、风格鲜明的照片了。

与之对应的,是 XMAGE 风格也迎来了升级——现在,XMAGE 风格的调色盘分为了「色彩」与「质感」两个部分。

色彩秉承老调色盘逻辑,主要控制色温、饱和度及光影;新加入的质感则变成了两根横向控制条,支持调节 0 到 9 档的画面噪点与暗角强弱。

初看之下,这种做加法的思路多少有些违背逻辑。调色盘的初衷本该是降低后期门槛,增加选项难免会增加学习成本。

不过,若是结合智拍的自动调色逻辑来看,这种方案也可以理解。

解决了构图、调色,华为还准备解决拍摄对象的难题。

为了打破「不知道怎么摆动作」的尴尬,华为在拍照界面底部收纳的二级菜单中,打造了一个名为「AI 姿势推荐」的功能。

这个功能可以理解人物、环境、姿势与道具,随后直接在取景框里勾勒出一个等比例的线框轮廓。

拿手机的人只需按图索骥,引导模特贴合画面上的姿势即可。遇到不满意的动作能随时刷新,它甚至支持导入社交网络上保存的样片,一键提取动作精髓。

综合来看,Pura 90 Pro Max 的影像体验没达到完美无缺的地步。

像是保守的默认像素设定,或是长焦端偶尔迟疑的防抖,都是实打实的体验痛点,得寄希望于后续的 OTA 更新来慢慢缝补。

但如果把评判的标准再放高一个维度,我认为 Pura 90 Pro Max 的突破非常大——

XMAGE 智拍的功能,完全解决了没有摄影基础的用户在前期拍摄、动作指导和后期调色上的重重门槛,全线包揽拍摄全流程。

虽然这套系统无法凭空量产摄影大师,却实打实地给了普通人拍出及格线上、具有美感的照片的底气。

设计有新意,价格有诚意

除了上面符合产品定位的「先锋影像能力」之外,今年 Pura 90 Pro Max 之所以能够在发布会前引爆话题度,自然离不开这个先锋的设计。

对比 Pura 80 Ultra,采用全新设计语言的 Pura 90 Pro Max 究竟是「变美了」还是「变丑了」众说纷纭,但至少有一点是毋庸置疑的:

Pura 90 Pro Max 在保留辨识度的同时,变得比以往更加活泼不羁了。

就比如这次 Pura 90 Pro Max 也跟随去年的 Mate 系列「截弯取直」,从圆弧边框 + 四曲面屏幕变成了如今我们熟悉的直角边框 + 直屏——

视觉观感上不仅变得更利落,也更像一台专业的影像旗舰了。

除此之外,Pura 90 系列——尤其是 Pura 90 Pro Max 的渐变色选择,都有一个非常显著的特征:空间感。

更直白地说,今年 Pura 90 Pro Max 的主打色「霞光紫」「翡翠湖」和「橘子海」都可以让人直接联想到特定的空间景物

图|Ashutosh Saraswat

相比当年 P20、P30 系列的「极光色」和「天空之镜」,Pura 90 Pro Max 的渐变色选择无疑是更容易「通感」的。

而在另一边,Pura 90 Pro Max 从曲屏变成直屏后,带来了一些比较见微知著的变化。

比如上一代由于屏幕曲率导致四周黑边视觉上不等宽的现象,在 Pura 90 Pro Max 这一代彻底消失了:

同时,屏幕「截弯取直」还在这一代机型上转化为了实际收益:Pura 90 Pro Max 成为了华为首款自带屏幕抗眩光镀层和耐划技术的手机

结合这两天的实际使用体验,Pura 90 Pro Max 的屏幕的确可以实现非常明显的抗眩光效果。

即使没有用上「亮出圈」的双层 OLED 玲珑屏,在室外的可读性依然很优秀:

另一个比较关键的变化则是处理器—— Pura 90 Pro 与 Pro Max 使用的是 8 核心的麒麟 9030S 处理器,一款非常为影像能力(ISP 性能)特化的芯片。

从体验上讲,Pura 90 Pro Max 在高速连拍后的图像处理、长时间录像稳定性与发热控制相比 Mate 80 Pro Max 都有较为可感的进步,更像是「能打电话的相机了」。

而 Pura 90 系列出厂搭载的鸿蒙 6.1 也是整个使用体验中不可或缺的一环,甚至可以说:鸿蒙 6.1 是现阶段将「类玻璃」设计运用的最极致的系统之一了。

比如鸿蒙 6.1 拥有三档自由度的「沉浸光感」功能,不仅能开、能调,更重要的是真正做到了与系统控件和第三方应用的有机结合:

除了系统内部的「流光溢彩」,这次的 Pura 90 系列还推出了一个名为「光感无界」的主题,第一次做到了把软件光效与周围真实世界的颜色联动起来——

在锁屏界面长按,手机就会打开摄像头,将背后的景色转换成临时背景,再搭配沉浸光感功能,那种「把一块魔法玻璃握在手中」的感觉第一次成真了。

这种玩法非常像是出门带亚克力透卡拍照,很有成为「小红书爆款打卡方式」的潜力。

而再结合今年整个 Pura 90 系列的影像升级,和机身设计上「室外更好看」的倾向,整个 Pura 90 Pro Max 的体验已然完成闭环——

一台时刻提醒你,找机会出门玩的手机。

但在爱范儿这段时间的实际体验之外,当我们评价 Pura 90 系列时,还有一个不得不提的因素:价格

放眼 2026 年的影像旗舰,华为 Pura 90 Pro Max 有着特殊的卡位——

12+256GB 机型起步价 6499 元,不仅是目前最便宜的华为 Pura 旗舰,更是整个 2026 年最便宜的影像旗舰。

和今年其他影像旗舰相比,华为 Pura 90 Pro Max 除了一以贯之的品牌力、不俗的体验和十足的话题性之外,更是提供了一个极具竞争力的价格。

我们甚至可以说:当一台华为影像旗舰,杀入到旗舰手机的「性价比」区间时,就已经成为了一个绕不开的选择。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

融了2000万美金,这家2000万美金ARR的AI公司,推出“视频版Photoshop”「Buzzy」

文|周鑫雨

编辑|杨轩

一句话介绍

Buzzy(https://www.buzzy.now/)是AI内容创作公司“感知阶跃”旗下的视频编辑Agent平台,主要面向C端内容创作者和中小型商家。

好比“视频版的PhotoShop”,用户只需下达自然语言指令,就能驱动Agent对视频进行背景去除、光线修正、产品替换、背景/视角更改等编辑操作。

团队介绍

“感知阶跃”创始人兼CEO Ella Zhang(张诗莹),曾在苹果、Oculus VR、Google负责核心产品。

在苹果期间,她曾为AirPods产品线创始团队核心成员,负责产品的系统集成和全周期设计落地,包括音频产品的架构设计、元器件选型、原理图绘制、版图设计、验证以及大规模生产。

此后,张诗莹又在Google担任AR产品的系统架构师,负责Glass、Reflector等产品的算法和架构研发。

“感知阶跃”其余核心成员,来自Adobe、小米、商汤等公司。

融资进展

近期,“感知阶跃”完成了新一轮融资,金额超过2000万美元,领投方为Redpoint(红点创投)。深渡资本担任本轮独家财务顾问。

产品及业务

在张诗莹看来,随着视频生成模型性能的发展,生成类的工具赛道,已经逐渐“红海”。她将市面上的视频创作工具,大致分成了两类:

一类是“画布型”产品,优点在于可以通过手动控制,保证生成结果的质量,但缺点是对大多数用户而言,使用门槛高;另一类则是向用户提供预制的workflow和模板,劣势在于不够灵活,同时,idea不够创新。

“用户更倾向于一次性生成整段视频,并通过不断迭代修改的方法来修到完美方案。所以一个指哪打哪的视频编辑器就变成了刚需。”

当下,由于视频的连贯性以及模型理解能力的局限性,用户很难通过Chat的方式,对视频进行换背景、换人物、消除某元素的“局部精修”。大多AI编辑器会改变整个画面,接近于重新生成。

近期,“感知阶跃”上线的新产品Buzzy,就是一款AI视频编辑器,让用户可以像P图一样便捷地“P视频”。

只需要通过Chat,Buzzy就可以对视频完成去除背景路人、修正光线、替换产品、合拍、更改背景与视角等操作,真正实现局部精修。

△背景路人去除。左:去除后;右:去除前。图源:受访者供图

△改变光线。上:改变前;下:改变后。图源:受访者供图

△拍摄角度改变。左:改变后;右:改变前。图源:受访者供图

做到对视频的局部编辑、维持其余部分,技术门槛并不低。张诗莹告诉我们,局部编辑要求视频模型有更高的视频和语言理解能力,“首先它要识别修改的部分到底是什么、在哪里出现,其次它还要准确理解用户的意图,比如prompt中的梗。”

为此,“感知阶跃”基于RLHF(人类反馈强化学习),训练了一个小模型,来增强Buzzy对视频编辑的理解。

与此同时,Buzzy也被设计为一个能够自主学习用户审美和品味的Agent。

Buzzy上线了一个“类OpenClaw”的Bot。用户可以通过扫码,直接将Bot接入Telegram和WhatsApp中。

通过向Bot分享TikTok、YouTube上的视频链接,Bot会自动分析用户的视频偏好和品味,基于该视频风格24*7自动全网搜索灵感素材,并将该风格沉淀为Skill。

风格沉淀。图源:受访者供图

此前,自2021年成立以来,“感知阶跃”经历了两次内容创作产品迭代:

在Midjourney、Stable Diffusion等文生图产品爆发之前,“感知阶跃”就基于GAN(生成对抗网络),开发出了第一款面向国内B端电商客户的AI模特图生成平台ZMO.ai,并在后续将落地场景扩展到商品图设计、编辑等场景。

ZMO.图源:受访者供图

占据先发优势的ZMO.ai,MAU一度达到了700万。

2024年起,视频生成赛道随着Sora的发布,迎来了一个小爆发。在风口中,“感知阶跃”叫停了ZMO.ai,并在2024年4月上线了涵盖图片、视频的内容创作平台Creati。

相较于聚焦电商、广告图片生成和编辑的ZMO.ai,Creati将内容创作扩展到了视频领域,包括文生视频、基于视频模板二创等功能。

与此同时,它为用户提供了移动端产品。不少非专业内容生产者,就可以直接用手机拍摄素材后,直接在App端完成内容的创作、编辑和发布,而非辗转导入电脑。

“用户对AI生视频的需求,比图片更刚一些。”张诗莹提到,“在传播效果上,无论在社媒端,还是广告端,视频都比图片更能吸引注意力。与此同时,用户拍视频的难度,比做图片高很多。”

Creati。图源:受访者供图

同样转变的还有目标用户。ZMO.ai的主要客户,是国内B端的电商、广告商。但很快,张诗莹发现,即便ZMO.ai用户增长很快,但流量并没有转化为实际的付费。

核心原因在于,其一,“大B”客户的结款周期过长;其二,图片的创作成本比视频更低,因此用户对图片的付费意愿不够高。

Creati则是一款面向“大C小B”的产品:C端内容创作者,以及中小商户。张诗莹告诉《智能涌现》,“大C小B”是付费意愿最高的人群,“更大的B端企业倾向于自研工作流”。

上线一年,Creati的全球用户量就突破了千万级别。产品ARR(年度经常性收入),一度达到了2000万美金。

商业模式

靠用户订阅,覆盖Token消耗成本,是目前AI软件的主流商业模式。但张诗莹认为,订阅是SaaS时代的商业模式,Agent时代的商业模式应该为效果付费,而不应该为成本付费。

她告诉《智能涌现》,现阶段,用户依然将Agent视作工具,而非创造价值的人。

当Agent可以覆盖内容生成、发布、投放、A/B Test、效果分析、二创等创作全流程,Agent的商业模式,应该与人类Agency越来越相似,“收费模式不会是订阅,而更多会采用分佣的形式。”

Founder思考

大多数非专业用户的内容创作场景,主要在Mobile端,而非PC端。

不少商家、非专业内容创作者,习惯用手机拍摄获取商品图、短视频等素材。但矛盾的是,创作工具往往集中在PC端。这就会导致内容创作链路的断裂。

因此,无论Creati,还是Buzzy,我们都向用户提供了MobileApp产品,让素材的获取、内容创作和编辑、发布,都可以在手机上完成。

当AI生成视频技术足够成熟,应用层能做的事只有两块:内容生成之前,以及内容生成之后。

内容生成之前,应用层解决的是产生创意的问题;内容生成之后,需要解决的是“怎么改”的问题。

应用层不应该去做模型层的事,因为模型一定会变得足够好。

当下有很多“套壳”视频模型能力的产品,无论是“画布”,还是workflow,解决的都是模型能力不够强的问题,比如“抽卡”、视频生成长度有限。

但未来,模型层一定会解决生成质量和长度的问题。应用层的机会,就在于解决生成环节之外的问题。

未来,Skill会成为可以交易的资产。

Skill本质上是用户沉淀下的品味、认知,以及工作流。就创作领域而言,人的审美和品味,以及掌握找素材的技能,都是有价值的。

因此未来,卖Skill可能会成为一种商业模式。

新的时代,应该独立开发新的产品,而不是在旧产品上加上一个新入口。

Buzzy和Creati是两代完全不同的产品。Creati聚焦生成,Buzzy聚焦生成后的编辑。不同代的产品,会形成不同的用户心智。

所有的Go Viral(走红)都很偶然,产品不应该过分追求Go Viral。

很多用户刚需,其实不具备在社媒上Go Viral的潜质,比如PDF Editor,但它们的用户量非常大。

根据我们的经验,能够Go Viral的产品有几个特点:第一,产品形态、设计比较创新;第二,实用,只有解决了用户的痛点,他们才愿意自发传播;第三,降低用户生产有趣内容的门槛。

欢迎交流!

❌