普通视图

发现新文章,点击刷新页面。
今天 — 2026年4月15日首页

一千块的录音卡片,凭什么还敢每年多收一千块钱?

作者 苏伟鸿
2026年4月15日 10:41

编者按:
当 AI 开始寻找自己的形状,有些选择出人意料。
AI 在智能手机上生出了一颗独立按键,似乎让智能手机找回了久违的进化动力。眼镜凭借着视觉和听觉的天然入口,隐隐有了下一代个人终端的影子。一些小而专注的设备,在某些瞬间似乎比 All in one 的设备更为可靠。与此同时,那些寄望一次性替代手机的激进尝试,却遭遇了现实的冷遇。
技术的落地,从来不只是功能的堆叠,更关乎人的习惯、场景的契合,以及对「好用」的重新定义。
爱范儿推出「AI 器物志」栏目,想和你一起观察:AI 如何改变硬件设计,如何重塑人机交互,以及更重要的——AI 将以怎样的形态进入我们的日常生活?
这是 AI 器物志第 9 篇文章。

最近几年「AI 硬件」很火,但似乎总是不可避免滑向「一锤子买卖」的叙事。

发布会抛出一个宏大的概念,用概念和想象力完成第一轮说服,真正交付到用户手中后,才发现它的能力匹配不上它卖的故事。

于是乎,产品的使用频率直线下滑,更没人愿意为它的后续服务持续付费,最终用户日活几百人,落得一个黯淡收场。

但 Plaud 打破了这样的死循环——它不仅赚了我录音笔的钱,还打算每年继续赚我 1000 元,然后一年收入 2.5 亿美元。

更重要的是,我真的愿意给,在 AI 硬件这个概念还备受质疑的当下,它直接跑通了一整个商业模式。

硬件是入口,App 是核心

Plaud 免费的「入门版」方案,包含 300 分钟的转录时长。

但对于一个需要有着专业录音需求,以至于需要买一支录音笔的用户来说,300 分钟只是一个试用装。

再往上,专业版价格为 339 元一年,每月享有 1200 分钟的转录时长,而 1099 元一年的「卓越」会员则拥有无限时长。

事情到这里就变得很有意思了。因为一支 Plaud Note 录音笔本体的价格,大约也就在 1049 元左右。

也就是说,订阅一年的费用,甚至可能比硬件本身还贵。

所以,Plaud 究竟有什么魔力,让人心甘情愿先花 1000 元买个录音笔,再每年继续花 1000 元来使用?

实际上,构成 Plaud 核心体验的,并不是录音笔硬件本身,而是和它配套使用的 App。

这个 App 本身相当纯粹,所有功能都只围绕处理「录音」进行服务,显得高级而专业。

它核心功能是 「笔记」 :Plaud 会用大模型对录音内容进行处理,你可以把一切交给 Plaud 一键生成,也可以选取转写的语言、AI 模型、模板。

但让「结果」这件事进一步拉开差距的,是 Plaud 的模板功能,也是我认为它最值得我花钱的功能。

官方首先提供了大量的现成模板,涵盖会议、演讲、通话、采访、医疗、金融、法律等多种场景和专业,也有一些「功能性」的模板,针对录音中发言人的意图、权力动态进行分析,甚至还能分析发言者的心理动态和诚实度。

其实本质上,Plaud 的模板就是一长串的固定提示词(prompt),利用大模型对录音进行定向整理,Plaud 在卖的,就是自己提前编写好的一套套提示词。

既然是提示词,那自然也允许用户自己编写模板——这点很像一个真正懂工作的人做出来的产品,因为很多时候,通用模板都不够贴身,真正值钱的是你自己那套处理信息的逻辑。

比如,我们每天早上都会开选题会,涉及到选题内容、选题核心、重点信息、负责编辑这些要点,普通转写能够记录,但很难成为一份能直接执行的东西。

后来我干脆给 Plaud 写了一个模板,让它按照这些维度去整理。最后出来的结果非常清楚,每个选题被单独拆开,每项任务也都准确落位。

通过换用不同的模板,同一段录音就能以不同的方式被分析、蒸馏,通过这样反复整理,我们就能得出录音中的最有价值的信息。

Plaud 给我的一个感觉,是它很以「人」为中心。

很多录音产品,例如飞书妙记,其实是围绕「会议录音」本身,每次完成录音,都会自动生成笔记,可以直接用来分配任务。

但 Plaud 只是围绕「人」听到的话进行构建,聚焦在人和人之间的交互,首先是 100% 记录,然后再通过摘要、模板,保留和树立其中最有价值 50% 内容,并将 10% 的精华呈现出来。

不同的模板,就是看待原始信息的不同方式,你关心什么,就用什么模板——这不能代替人的思考,但能带来不同的启迪。

保留最精华的原始信息,再加上人脑在对谈时产生的记忆和经验,交流能达到的理解,才真正实现最大化。

AI 时代的「电和电灯」

明明是一个「AI 硬件」,但 Plaud 并不靠「硬件」本身赚钱,收入的大头都是来自订阅。

这就是经典的「剃须刀-刀片」商业模式:剃须刀厂家卖的不只是刀本身,而是可替换的刀片,在用户购买硬件后,还需要持续付费,并且被绑定在一个生态系统之中。

放在今天,它又很像一套标准的 「AI 式收费」 逻辑。不同等级会员的核心差别,并不在于质量和速度,而在于时长,在于额度,在于你愿意为多少 「Token」 买单。

当然,这不是说 Plaud 的录音笔一无是处,既然是重度的录音用户,一个专门用来录音的物理外挂,对体验的提升是巨大的。

那 Plaud 和 OpenAI 一样,是靠「AI 模型」赚钱的吗?似乎也不是。

Plaud 的优秀体验,确实是靠大语言模型支撑的,并且可以选用从 DeepSeek、千问、豆包等多个模型中选择,但默认的「自动模式」,才是 Plaud 的精髓:让你少管让你少管技术细节,直接拿到结果。

这也是 AI 时代最显著的特征,我们为结果付费,而不是为工具本身,或者过程付费。

Plaud 贩卖的不是「AI」本身,它不做自己的大模型,而是卖一种「使用 AI 的方法」。

本质上,AI 大模型只是一种源动力,是类似水和电的存在,它有巨大的能量,但我们目前对它的开发还太少,还基本没太突破聊天机器人的范畴。

就像 200 年前,大家都不知道法拉第发现的电有什么用,然后,直到电灯、电话等等电器来到世人面前。

Plaud,就是 AI 时代的「电灯」。

野心很大的 Rabbit R1、Humane Ai Pin,更像是在生成式 AI 浪潮下「带着 AI 去找问题」的产物。

说句不好听的,它们本质上仍是「为了 AI 而 AI」的硬件形态,并没有真正锚定一个明确的用户场景,用 AI 去解决实际问题。

对 Plaud 来说,AI 反而并不重要,这家企业从一开始,只是想做好「录音」这件事,AI 大模型,不过是一条通向这个目标最近的道路。

就像是亘古以来就一直困扰着人类的照明问题,在电灯之前人类也已经发明了蜡烛,但电灯的效率和照明效果都要远超以往,所以我们选择了电灯。

Plaud 的逻辑也很类似,我们有了 AI 大模型,它拥有着前所未有的语言处理能力,因此用它来解决录音场景的问题,让「录音」这件事变得前所未有的好。

我们当然用现有的 ChatGPT 或者 Gemini 这些聊天机器人,帮助我们处理这些录音,但为了获得一个好的结果,我们需要优质的提示词,如果模型不够好还要换模型,并不是一个符合直觉的使用方式。

而 Plaud 不需要用户考虑使用什么大模型,不需要用户给更好的提示词,它是一种一键就能将好结果带到用户面前的确定性。

并且,Plaud 在大量雷同产品中,是最具有「确定性」的那个。

而我们愿意付费的,就是这个确定性,不用「抽奖」,一键直达的确定性。

AI 硬件,应该吞掉「复杂性」

很多人其实不会用 AI。

这里说的「不会」,一方面是不会主动去接触 AI 产品,但更是不知道要怎么用 AI,以为在对话框扔一句短短的提示词,它就能全面理解你的意图,交付一个马上能用的结果。

问题就出在这里,现在真正愿意花时间研究提示词、工作流、模型差异的人,也就是「会用 AI 的人」,确实少之又少。大部分用户既没有这个耐心,也没必要有这个耐心。他们需要的是结果,并不想把自训练成半个提示词工程师。

毕竟,我们对 AI 的期待,本身就是花最少的精力,获得最多最好的成果。

不会用 AI,那就更不知道,一个合格好用的 AI 产品,应该是一个什么模样——所以现在的科技圈,充满了各种只有噱头,没有价值;空有 AI,没有能力的所谓「AI 硬件」。

大家看多了宣传,很容易把会聊天、会生成、会调用模型,当成产品已经成立,其实远远不够。

一个好用的 AI 产品,至少得做到两件事:第一,它知道用户大概率不会用 AI,所以不会把学习成本甩给用户;第二,它能把原本飘忽不定的模型能力,压缩成一个相对稳定的结果。

这就是 Plaud 的价值所在,它解决的是一个非常真实的问题:不是每个人都想学会 AI,可每个人都想把事做完。

在 Plaud 面前,众生平等,所有人都按下一样的按键,获得一样的高质量内容,区别只在于订阅后能获得的内容多与少。

更进阶的「模板」,就是 Plaud 官方提供的「小抄」,直接让你根据需求选用合适的提示词;这还不够的话,来自用户的各种模板就是更强大的补充。你不用钻研,Plaud 直接把 AI 红利喂到你的嘴边。

就像用氪金的方式,让 Plaud 帮你研究日新月异的大语言模型,帮你构思更多更好的 Prompt,彻底摆脱被甩开的焦虑。

替你将复杂吞掉,将差距抹平,Plaud 在卖的,其实就是一个「速通 AI」的外挂而已。

说起来不难,但能真正能只做这么一件事,将所有资源倾注其中的企业,寥寥无几——大而全的厂商,他们要做的是「全能」而不是「专才」,不可能愿意投这么资源去只做一个录音的功能;而小而新的初创者缺少了积累

这是为什么 Plaud 能成为行业的第一,无非就是因为它足够纯粹,只关心录音,于是所有的资源都用在了每一天磨砺更好的效果,比竞争者做得更早,也更专注。

它没有发明一个全新的世界,也没有端出特别夸张的未来想象。它只是证明了一件很关键的事:在这个阶段,最有价值的 AI 产品,往往不是能力最张扬的那个,而是最能给普通人提供确定性的那个。

我希望能见到越来越多的「Plaud」。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

昨天 — 2026年4月14日首页

智能眼镜「iPhone 时刻」终将到来,因为苹果亲自下场了

作者 马扶摇
2026年4月14日 09:00

过去的大半年里,有一个品类的可穿戴智能设备市场相当热闹,那就是智能眼镜。

自从 Meta 与知名时尚眼镜品牌雷朋、欧克利等等联名,推出了 Ray-Ban Meta 和 Oakley Meta 系列智能眼镜之后,人们仿佛终于发现:

人类的耳朵除了承载耳机、口罩、耳坠、帽檐、香烟、铅笔之外,还能再多夹一副智能眼镜呀!

自 Meta 重新定义了「眼镜 + 摄像 + 音乐 + 助理」的产品范式之后,包括谷歌、华为、三星、小米在内的诸多厂商都开始入局智能眼镜领域,整个市场在 2025 年末来了一波总爆发。

向来喜欢最后出现、但总能引燃全场的苹果自然也不例外,根据彭博社的最新爆料,苹果的智能眼镜终于来到了上市前的「最后一公里冲刺」。

根据彭博社苹果专家马克·古尔曼的最新通讯稿,他已经知悉了苹果正在为首款智能眼镜产品开发多种样式的镜框,以及独特的摄像头设计。

据悉,苹果眼镜的内部开发代号为 N50,目前已经进入设计选型和规格定稿阶段,预计在 2026 年末或 2027 年初发布,在 2027 年内正式开售:

图|Glass Almanac

N50 将是继 Vision Pro 之后,苹果 VPG(Vision Products Group,视觉产品部)的第二款正式产品,此时距离苹果成立 VPG、探索头戴式显示设备已经过去了差不多十年。

产品形态方面,马克·古尔曼指出苹果 N50 将会沿用目前市面上成熟的「纯语音交互」路线,以尽可能多地兼容处方镜片和功能性镜片,提高用户基数:

Meta Ray-Ban 眼镜|Forbes

在此基础上,N50 的设计场景自然也主打日常生活——换言之,它(暂时)还不是一款 Pro 系列的产品——即拍照录像、音乐播放、Siri 入口等等,整体依然时尚属性居多。

而时尚眼镜最重要的是什么?当然是镜框设计了。

马克·古尔曼指出,他了解到苹果设计团队已经为 N50 设计出了至少四种不同的样式,并且计划推出其中的部分或全部款式——

这个思路是不是很熟悉?没错,其实就是类似 Apple Watch 产品线里 Series、SE、Ultra、Nike、Hermès 的分类,总有一款适合你。

目前已知的苹果眼镜设计款式有下面四种:

I. 大尺寸矩形镜框设计,风格与雷朋 WayFarers 系列比较近似

Ray-Ban Wayfarer Sunglasses|Sunglasses.ie

II. 细金属全包矩形镜框设计,与蒂姆·库克本人佩戴的眼镜比较近似

图|彭博社

III. 较大尺寸的椭圆或圆形镜框,材质可能采用聚碳酸酯

Oakley OX 8184|SmartBuyGlasses US

IV. 更小巧精致的椭圆形或圆形镜框,类似乔布斯当年的款式,但不会采用无框(Rimless)设计

图|AppleInsider

马克·古尔曼指出,在上述四种主要风格的基础上,苹果也在探索一系列配色方案,包括黑色、海蓝色和浅棕色等等。

与 AirPods 和 Apple Watch 一样,苹果的目标是为它的眼镜打造一款「一眼就能辨识」的设计。

另一个值得关注的设计细节是 N50 的摄像头系统。

马克·古尔曼分析,苹果在 N50 上计划采用「竖向椭圆形镜头」,拍摄指示灯环绕在周围:

使用 AI 生成

N50 还有可能使用与 iPhone 17 系列上正方形传感器同源的方案,以实现横竖方向拍摄的高画质。

另外,正在紧密开发中的 N50 同样是苹果在「智能穿戴」领域所规划的三板斧之一。

另外两个就是先前爆料过的「具有视觉感知能力的 AirPods」以及「智能吊坠」:

图|Threads

只不过相比 N50,另外两款产品都处在内部开发的早期阶段,再加上苹果与 AI 这一路的跌跌绊绊,短期内恐怕不会正式发布。

马克·古尔曼还指出:苹果在智能眼镜业务上,大概率不会采用 Meta 与谷歌、三星的思路,与依视路(EssilorLuxottica)、Warby Parker 这样的专业眼镜品牌合作生产,而是会将软硬件全部掌握在自己手里

这样一来,N50 就可以享受到全部的苹果生态助力,以实现仅凭 Meta 和谷歌难以做到的产品优势——

毕竟 Meta Ray-Ban 买回来,要连上的还是你的 iPhone 嘛。

图|9to5Mac

换言之:其他智能眼镜产品,都算是科技公司在后面、眼镜公司在前面,恐怕只有苹果的软硬件结合,能实现科技公司在前面、眼镜公司也在前面。

比如对于智能眼镜所需的超低功耗 SoC,苹果在 N50 上可能会采用与 Apple Watch 同源的 S 系列处理器。

再搭配新的电池技术,N50 的续航目标为类似处方眼镜的全天佩戴——

图|X @appletrack

可以预见的是,苹果智能眼镜和 iPhone、AirPods、Apple Watch 之类的联动功能将会非常丰富。

甚至一些比较激进的预测认为,苹果有可能完全取消镜腿中的扬声器,将空间留给更大的电池或者其他传感器,而音频工作则全部交给 AirPods 完成——

图|TechCrunch

虽然这种思路与「纯语音交互型」智能眼镜的使用场景有些冲突,但仍不失为一种有趣的方案。

或许在未来加入显示功能之后,苹果会有类似方案的产品出现。

材料方面,除了苹果一向喜欢的聚碳酸酯之外,据称设计团队还考虑过包括纯钛、高强度钛合金之类的选项,目的是将眼镜的整体重量控制在 50g 以下。

图|Optical Illusions

而在至关重要的眼镜片方面,由于苹果在 N50 上不考虑加入显示方案,因此预计可以支持市面上绝大多数处方镜片。

考虑到此前的合作,苹果也有可能会像 Vision Pro 那样推出与蔡司合作的镜片定制服务。但根据爱范儿先前的调查和体验,给智能眼镜配镜总归不是一件轻松的事。

在最后,马克·古尔曼还指出:「隐私」依然会是苹果智能眼镜的主要理念之一,其中就包括了对于智能眼镜「过于隐蔽」的录像录音功能的考虑。

爱范儿猜测:除了录像指示灯、遮挡检测等等手段之外,苹果有可能会发挥现有 Find My 网络的优势,用与 AirTag 跟踪预警之类的方式,向 iPhone 用户推送「检测到附近有长时间录像的苹果眼镜」之类的警告。

图|TechRadar

虽然苹果在 AI 大行其道的当下显得磕磕绊绊,但不可否认的是,苹果在可穿戴设备市场上,依然是那个呼风唤雨的「老大哥」角色。

无论是以一己之力盘活 TWS 市场、几乎成为设计标准的 AirPods,还是在 AR 与 XR「行业应用」领域暂无对手的 Vision Pro,本质上都是苹果设计和生态号召力的体现。

图|Popular Science

就像我们在曾经的文章中反复强调的:智能眼镜的首要指标是「好看」,然后才是功能性。

而苹果眼镜,哪怕功能性上没有什么开天辟地式的突破,也一定会是一个设计优先、甚至「遥遥领先」的产品,为接下来的智能眼镜市场树立一个设计标杆。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

昨天以前首页

Apple Vision Pro 没有完蛋

作者 肖钦鹏
2026年4月13日 22:00

Apple 上海开发者中心,这个工作坊开始还不到十分钟,第一个认真讨论的话题,是电压。

来自 Blackmagic 的工程师举起一块电池,提出问题:升压模块把 18 伏拉到 24 伏以上,能不能稳定录制?

房间里安静了一下。

答案是不能——这台造价二十多万元的 Blackmagic URSA Cine Immersive 摄影机,需要 112 瓦以上持续供电才能正常运转,而升压后只能到 90 多瓦。看起来在工作,但真到 90 帧高规格录制的时候,素材很有可能会丢帧。

Blackmagic URSA Cine Immersive 摄影机

这是摄制高规格沉浸式内容时才会遇到的问题,迄今业内也没有多少人知道这个点。

一年前,这个问题还不存在——彼时,Blackmagic URSA Cine Immersive 摄影机才刚启动发货。

迄今为止,Apple Vision Pro 依然是地球上唯一能够完美显示这些内容的设备。

现场的几十个团队,大多已经用过 Apple Vision Pro,为这台设备拍过东西,有些甚至交付了项目。他们来这里,只想解决一件事:怎么制作高规格的沉浸式内容?

但他们面对的具体问题多如牛毛,没有人知道标准答案。

从工程问题,到影视问题

这个开发者中心过去接待的,大多是做编程、设计和游戏的开发者,内容创作者如此集中出现,还是头一次。

制作高规格的沉浸式影像,门槛高到不可思议——

当时,没有专用摄影机,也没有能处理这种格式的剪辑软件,有的只是苹果给出的一份格式规范。

《Apple Movie Profiles for Spatial and Immersive Media》白皮书

想从拍摄走到交付,每一步要么自己写代码,要么改造现有工具。一个项目组踩过的坑,下一个项目组还得从头再来。这块领域的早期创作团队,掌镜的往往是工程师,而不是摄影师。

2024 年 12 月,Blackmagic 推出了第一台专门为沉浸式影像设计的摄影机,但直到一年后,DaVinci Resolve 20.1 发布,才第一次全面支持沉浸式影像工作流。

RAW 文件直接进达芬奇,剪辑、调色、空间音频混音,元数据全程保留,整个链路终于可以不靠代码跑通。

新的障碍紧跟着就来了。

仅仅拍了 16 分钟,原始素材就超过了 1.2TB,这意味着存储和传输方案要从头设计。

监看更麻烦,2D 监视器展示不了真实的双目景深,左右眼对齐误差在平面屏上根本看不出来,等后期发现基本只能重拍。有摄影师说,宽角预监画面几乎是「有误导性的」,只有在头显端实时看,才知道实际拍到了什么。

机位逻辑也完全不同——空间影像没有变焦,拍一场演唱会可能要同时架二三十台定焦机器,由剪辑师在后期选镜头。什么时刻该切镜头、切去哪、观众的注意力在哪?

很多传统影像的经验在这里失效。

The Weeknd 的沉浸式短片「Open Hearts」只剪了 30 刀,但同一首歌拍成普通 MV 要剪 300 到 400 刀。

当观众可以自己转头扫视整个空间时,快速剪辑的英雄镜头就失去了意义。内容的主动权,一部分还在导演手里,但大部分已经被交还到观众手上。

观众到底想看什么?

我们联系到了一家位于广州的 XR 体验店,店主 Jeffrey 也是一位 XR 领域的资深媒体人,他告诉爱范儿,短短一个多月,他们已经做到了这个片区的团购第一,全靠一台 Apple Vision Pro。

CORTIS 是 2025 下半年才声名鹊起的 K-pop 男团,在工业化高度发达的韩国演艺圈,为偶像拍摄零距离的沉浸式影片是一种常见的营销方式——而 CORTIS 选择了用 Apple Vision Pro,显然是看中了其绝佳的清晰度和沉浸感。

CORTIS

2026 年 1 月 30 日,CORTIS 练舞的沉浸式影片《NEAREST: CORTIS》在 Apple TV 免费上线,凭借浸入感极强的演出和身临其境的视听效果,收获了极佳的口碑,在粉丝群体间口口相传——但真正能看到这条影片的人凤毛麟角。

以 Apple Vision Pro 为核心设备的体验店得到了破圈的机会。

一般来说,这类体验店的辐射半径是 5 公里,但随着粉丝们的种草笔记在小红书上自发扩散,梦想和偶像零距离接触的观众从四面八方涌来。

Jeffrey 说,客人觉得这个内容好到能忽略设备的一切缺点——压脸、闷热、弄乱发型……都不介意。过去这么多年里,VR 内容的出圈和推广是极其艰难的,但 Apple Vision Pro 的沉浸式影片,打破了这样的困境。

CORTIS

沉浸式影片里呈现的,是现实世界的真实视差。成员就站在你旁边,你看向他时,就像真的站在练舞室里。无数立体的细节扑面而来,营造前所未有的真实感,真实得像做梦一样。

苹果官方有一套评估沉浸式影像的画质标准,其中最重要的尺度,不是分辨率也不是像素密度(PPI),而是「感知清晰度」——简单来说,就是视力表。

苹果希望每一部登录 Apple Vision Pro 的高品质沉浸式影片,都能还原肉眼观看世界的体验——近处的内容细节丰富,远处的画面自然会有些模糊,但他们的帧率、色彩、亮度都尽可能贴近真实的视觉感受。

唯有如此,才能保证绝佳的沉浸感。

于是,当我们戴上 Apple Vision Pro,才能置身万米高空的索道、来到 NBA 全明星现场、伫立在西班牙斗牛跟前——这些难以亲临的造梦现场,是观众真正想看到的内容,是一种前所未有的稀缺体验。

截选自 Apple 官网

造梦,AI 时代的稀缺体验

根据 IDC 的预测,2025 年,Apple Vision Pro 出货量只有 10 万台左右,上市两年仅仅卖出了 50 多万台——这可能是 iPhone 面世以来,苹果最滑铁卢的产品。

太重,太贵,太超前,成为判 Apple Vision Pro 死刑的理由。

但苹果在 Apple Vision Pro 内容上的投资从未停过。

《World of Red Bull》首集《Backcountry Skiing》

过去两年,Apple TV 已经上线了超过 30 部沉浸式影片,每隔一两个月总会有些新东西看——

从棒球场到篮球场,从恐龙纪元到动物世界,从二战潜艇到高空钢丝,从男团练舞室到演唱会现场……很难想象,苹果会为一台出货量跌了九成的设备,稳定持续地更新生产成本高昂的内容。

显然,苹果从来没有觉得 Apple Vision Pro 完蛋了,倒不如说,苹果正在给 Apple Vision Pro 的未来下注——为未来注定更加稀缺的造梦体验下注。

在过去两年使用 Apple Vision Pro 的过程中,我经常会有类似的感受——戴在我头上的,到底是未来的 iPhone、Mac 还是 iPad?

Apple Vision Pro 是一个没有经过「剪裁」的产品,苹果也不知道用户想要什么,于是把所有的东西都给了用户。

未经剪裁的 Apple Vision Pro 搭载了太多的功能,也面临太多的妥协。但至少,让人真假难辨的造梦体验,是 Apple Vision Pro 无可取代的部分。

三年前,Apple Vision Pro 和 ChatGPT 分别代表了科技行业最受瞩目的技术方向,但前者是卖了 50 万台的极客玩具,而后者则改变了 10 亿人的生活方式。

于是,当生成式 AI 把内容的生产门槛降到最低时,我们也将迎来数字内容最饱和的时代。

那时候,观众到底想看什么?

1984 年,威廉·吉布森在《神经漫游者》里描绘了一种全新的媒介——「拟感」(simstim)。

那是把一个人的完整感官体验录成数据,传进另一个人的神经系统,从而实现感同身受的体验。

在经典赛博朋克世界观里,这是将电视电影取而代之的东西。

Apple Vision Pro 的沉浸式影片,提供了当下最接近「拟感」的体验——那是一种要求你必须在场,要求你用自己的感官,去经历真实与虚妄的造梦体验。

我说不好这到底是不是未来,但我看到全球各地已经有许多人,他们在拍了,他们在做了。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

vivo Pad6 Pro 体验:要的,就是这块 4K 超大屏

作者 梁梦麟
2026年4月10日 18:16

vivo 在这一轮新品发布中,推出了新的旗舰旗舰平板 vivo Pad6 Pro,单机定价 4299 元起,键盘套装定价 4898 元起。

继承了 vivo Pad Pro 系列的传统,vivo Pad6 Pro 也是一款主打高清大屏体验的产品。那块 13.2 英寸 4K 高刷屏,正是这款平板最吸引的地方。

先看看外观,从2023-2024 年开始,厂商推出的平板都回归了简洁素雅的设计,后面板更干净,DECO 设计更简单。

vivo Pad6 Pro 的后侧是一块带磨砂颗粒处理的光滑金属后盖,中心位置放了横向的 vivo LOGO,右上侧搭载摄像头和补光灯的圆形 DECO。底边上有三个连接保护套和配件的 Pogo pin 金属触点。

配件方面,vivo 这次连同平板一同推出的有 vivo 智能触控键盘 6 Pro 和 vivo Pencil 3。

vivo 智能触控键盘 6 Pro 沿用了上侧下翻成支架的设计,底部 Popgo Pin 触点部分有足够的磁力,用户折下支架时就不会出现把键盘取下的尴尬。

平板有自在灰、灵感紫,以及我们手上这款松弛蓝可选。

平板单机的机身尺寸为 297.03mm x 199.82mm x 6.18mm,厚 6.18mm 和重 663g 的机身拿在手上感觉还好,双手持打游戏的时候放到大腿或手上的感觉也算舒服。

搭配的 vivo 智能触控键盘 6 Pro 重 493g,平板搭配键盘的重量是 1156g,和最新推出的 MacBook Neo、MacBook Air 13 英寸版差别不是很大。

不过,13.2 英寸屏幕的机身,非平摊状态下手持做多指操作会有点麻烦。像《原神》这一类操作不太复杂的游戏还好,如果操控节奏相对紧张的射击游戏,那把平板放在桌面上再用手柄操作才是更舒服的选择。

屏幕部分,vivo Pad6 Pro 搭载了一块 13.2 英寸的 144Hz 4K 原彩屏,支持 10.7 亿色显示、P3 广色域、杜比视界和 ZREAL 帧享超高清认证,整体的观感通透且细腻,用来看高规格的电影和纪录片非常舒服。

而且,屏幕色准表现还不错,还配备了 13.2 英寸的大尺寸。

除了看电影,日常用手机、相机拍摄的图都可以导入到平板里面,再配合 Lightroom 进行图片处理。对于移动办公内容主要集中在图文编辑和视频处理的打工人来说,这块屏幕还是很可靠的。

屏幕支持最高 1200nits HBM 屏幕亮度,在咖啡店的户外座位使用也能够看清楚屏幕。

护眼功能方面,这块屏幕支持软硬件蓝光管理、智能色温调节和全局无频闪 DC 调光,还有智能仿生亮度、纸感护眼模式和晕动视觉辅助功能。日常坐公车上下班比较多,需要快速修改一下文档的话,晕动视觉辅助会比较常用。

要强调多媒体影音体验,其实不只有屏幕。

vivo Pad6 Pro 内置了对称分布的 8 扬全景声学系统,默认模式下,平板输出的声音饱满结实。系统内支持 10段调频均衡器,可以根据自身的听音需求调整声音输出,适配不同的听音场景。

还有,8 扬全景声学系统支持 vivo Super Audio 7.0 音效,在看电影、剧等长视频的时候,这组扬声器可以实现「类裸耳 3D 空间听感」 的效果,提升观影的沉浸感。

配置方面,vivo Pad6 Pro 搭载高通第五代骁龙 8 至尊版,配备四通道 LPDDR5X 运行内存,8GB 起步,最高支持 16GB。机身储存芯片用的是 UFS 4.1,有 256GB 和 512GB 可选,有四个储存版本。

如果只是用来做看线上视频和简单打打游戏,那选择中间位的 12GB + 256GB 还算够用。但如果要应付生产力,需要处理图片,打大型游戏也比较多的话,512GB 还是很有必要的。

性能方面,vivo Pad6 Pro 在室内常温状态下开启性能模式,安兔兔跑分为 4204745。

平板支持新一代 Monster 超核引擎,支持超核闪电加速、超核先知调度和超核性能模式。性能模式开启后支持《原神》2.3K 超分+120 fps 超帧并发,画面会再高清细腻一点。在最新的 OriginOS 6 里面,游戏助手支持游戏 Live 截图。像是《和平精英》里,就能够直接截取击杀对手的 Live 图,分享到有对应支持的社交媒体上。

除了游戏,vivo Pad6 Pro 支持 PC 级的剪映专业版。

整体的界面跟桌面端类似,可搭配 vivo Pencil 3 和带触控板的 vivo 智能触控键盘 6 Pro 使用。加上软件支持全链 4K,配合这块 13.2 英寸的大屏,剪辑更加方便灵活。

另外,运行内存在 12GB 以上 vivo Pad6 Pro 支持 5 窗协作,通过侧边栏选择对应窗口,最多能实现 5 窗口同屏。配合大屏,日常写文档时找参考资料和多任务跨应用协作更为方便。

还有,vivo Pad6 Pro 搭配 vivo 办公套件可作为笔记本电脑的扩展屏,也能在平板上方向控制电脑。这时,这接近笔记本电脑尺寸的 13.2 英寸屏幕优势也来得更明显。

平板内搭载了 VC 立体散热系统,VC 和超导石墨散热面积总和为 71446mm²,散热性能比上一代提升了 15%。

在室温环境、点亮性能模式下裸机启用安兔兔的压力测试,平板从 60% 电量降到 5%,应用内检测的温度控制在 27.7℃-30.7℃,机身只有在 DECO 的位置会有那么一点热。

续航方面,vivo Pad6 Pro 搭载了一块 13000mAh 的超大容量电池,支持 12.6 小时的办公和 13.1 小时的连续在线视频播放,日常出门用基本不需要担心续航。它支持 66W 超级闪充,也支持实测最高 48W 的 PD PPS 通用快充和直驱供电功能。

最后,vivo Pad6 Pro 的四款储存版本的定价分别是:

  • 8GB+256GB 4299 元,键盘套装 4898 元
  • 12GB+256GB 4499 元,键盘套装 5098 元
  • 12GB+512GB 5299 元,键盘套装 5898 元
  • 16GB+512GB 6699 元,键盘套装 7298 元
「买吧,不贵。」

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

华为 Pura 90 官宣,还有抢跑苹果的「阔折叠」

作者 苏伟鸿
2026年4月10日 13:05

就在今天,华为官方宣布 Pura 系列及全场景发布会定档 4 月 20 日 14:30。

顾名思义,这次发布会最重磅的将会是「Pura」手机的新产品,预计将会有两台新手机:影像旗舰 Pura 90 系列,和全新「阔折叠」Pura X 系列新品。

除此之外,华为的可穿戴新品也将迎来更新,除了常规的耳机、手表,更值得关注的,还有一款全新的 AI 眼镜。

Pura 90 系列:渐变色回归,2 亿潜望长焦加持

紧接着发布会官宣,华为也已经放出了 Pura 90 Pro Max 的外观。

三角形相机 Deco 的「家族设计」保持不变,但机身设计语言从前代的等深四曲屏,换成了和 Mate 80 系列同款的直屏设计。

更抢眼的,是 Pura 90 的主打色——「橘子海」。

它有点像 P20 系列当年紫绿渐变的「极光色」,但要更为大胆,机身上部分为浅蓝色,下半部分为橙色,中间以白色过渡。

华为 P20

蓝色和橙色在色轮上互补,被誉为「最舒服的色彩搭配」,也是华为 Pura 系列上较为少见的活泼配色,更是这几年智能手机上不多见的混色设计,至于好不好看,见仁见智。

除了「橘子海」,紫黄色渐变的「霞光紫」配色、还有绿白渐变的「翡翠湖」,以及更纯的「曜石黑」和「晨曦金」配色。

产品命名也有所变化,和去年的 Mate 80 一样,超大杯将是「Pura 90 Pro Max」,替换了先前的 Ultra 后缀。

既然是 Pura 系列,重点自然在手机影像上,前两代 Pura 都有着非常「力大砖飞」的影像黑科技:Pura 70 Ultra 的伸缩摄像头,Pura 80 的一底双长焦。

根据数码闲聊站的爆料,Pura 90 Pro Max 这次将搭载 2 亿像素超大底潜望镜,传感器尺寸为 1/1.28,配备定制大光圈和长焦微距,属于行业内比较激进的长焦方案。

至于「一镜双目」的特性,大概率 Pura 90 Pro Max 不会继承,焦段依靠大像素进行裁切。

Pura 90 系列的主摄配置,华为此前一直在测试 1 英寸传感器,但内部评估收益一般,并且传感器库存不够,很可能仅为 Pura 90 Pro Max 独占,其他版本使用 1/1.28 英寸主摄。

随着 Pura 90 Pro Max 推出,日后的华为 Pura 和 Mate 系列,或许会在长焦影像上走两条不同的道路:Pura 单颗大底大像素长焦,通过裁切提供多个焦段;Mate 系列双长焦,通过不同的镜头提供多个原生焦段。

目前,Pura 90 Pro Max 和 Pura 90 Pro 已经在官网开启预订,Pura 90 暂时未上架,推测将不会在这次发布会上同步发布。

Pura X Max:抢先苹果的「阔折叠」

另一款 Pura,则是 Pura X 折叠新机,有可能命名为 Pura X2,或者 Pura X Max。

由于这款新机在形态上和 Pura X 完全不同,不太像 Pura X 迭代,更像是一个全新的产品线,因此更有可能命名为「Pura X Max」。

数码闲聊站爆料,Pura X Max 将会是「大阔折叠」的形态,机身尺寸比目前的 Pura X 更大,折叠状态下屏幕比比较像一张卡片,大小 5.5 英寸;展开后类似一台横向的 MatePad mini,尺寸达到 7.7 英寸左右,比例为 4:3 或 16:10。

Pura X Max 假想图

这个方案有点类似今年苹果和三星都即将推出的新机。作为参考,彭博社爆料苹果折叠 iPhone 的外屏和内屏可能落在 5.5 寸和 7.8 寸附近。

Pura X 去年累计激活超百万,口碑和销量都相当不错,华为当然不会砍掉「小阔折叠」这个形态。在这场发布会上,华为预计会推出「型格橙」和「型格紫」两个新配色,很可能还会更换全新芯片,但真正的「Pura X2」迭代不会在今年推出。

Pura X 新配色 AI 效果图,图源:数码闲聊站

做 Pura X Max,也不意味着华为不会继续推出外屏长方形的「窄折叠」新品,今年会正常推出 Mate X8 更新,不过发布时间要等到今年下半年。

作为国内折叠屏手机销量最高的品牌,华为做折叠手机可以用「得心应手」来形容——其他家基本上只敢做一台「窄折叠」,小折叠都基本停摆,华为的折叠屏品类几乎可以比肩其他家的直板机产品线。

折叠屏还是一个正在发展中的品类,大众未必知道自己需要什么样的折叠屏,因此才会有「阔折叠」和「窄折叠」之争,但华为不仅定义折叠屏的形态,产品线也触及了每一个品类,进一步巩固市场地位的同时,也更有底气去进行探索。

华为 AI 眼镜,能卖爆吗?

除了手机,这场发布会还将带来更丰富的可穿戴新品。

本周,华为终端 BG 首席执行官何刚在微博发了一张照片,水印为「HUAWEI AI Glasses」,直接坐实了华为 AI 眼镜新品。

数码闲聊站透露,华为 AI 眼镜支持拍照、音频和 AI 功能,可以与整个鸿蒙生态跨端协同工作,配备同传翻译等更多新功能,内置 3 块锂电池,有流光银、钛银灰、摩登黑配色。

虽然已经有小米 AI 眼镜、理想 AI 眼镜 Livis 这些大厂出品,但国内 AI 眼镜还缺了像 Ray-Ban Meta 那样的爆品。

而在此之前,华为已经推出了「华为智能眼镜」产品,支持单一的聆听功能。有了这款产品作为基础,再加上华为擅长的影像能力,以及「小艺」AI 助手,和华为强大的品牌能力,华为 AI 眼镜确实有「卖爆」的可能。

华为智能眼镜 2

AI 智能眼镜之外,华为还有更多全场景产品等待发布,FreeBuds 耳机、WATCH 手表、平板新品都有可能亮相,并且将在接下来两周的时间披露更多细节信息。

不得不说,这两年的华为发布会,或许是为数不多能靠「创新」让人眼前一亮的科技新品发布了——甚至连产品配色都别具一格。

即使已经知道新品要做「2 亿像素大底潜望长焦」,知道要做「大阔折叠」,你还是会去期待,华为究竟会将产品做成什么样子。

除了产品本身,Pura 90 和 Pura X Max 如何定价,也将会成为发布会的重点。

在当下这个元器件成本飞涨的时期,接下来的每一场每一场消费电子发布会,都会充满坏消息。vivo 上个月的发布会,新品已经涨价 1500 元不等,加上 OPPO、小米,连库存机都在涨,千元机也要绝迹。

但华为,却好像一直在降价:从去年的 Mate 80 系列开始,同比都比前代降价 1000 元;上个月甚至推出了千元机畅想 9 系列。

凭借强大的供应链管理能力,以及品牌的更高利润,华为能够在这轮成本上涨中更从容应对,不仅能很好承受膨胀的成本,甚至能顶着压力降价,显得更有「性价比」。

当高端品牌开始被迫「性价比」,对其他不得不涨价的品牌,当然是一次危机。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

接下来,苹果的 iPhone 和小米手机一样多

作者 苏伟鸿
2026年4月9日 19:10

在相当长的一段时间,iPhone 都是一个非常精简的产品系列,每年 9 月固定发布旗舰产品,清晰、克制,靠高利润盈利;而像是小米这样的国产手机品牌,则通过多种产品组合,既和 iPhone 对打,也要争苹果没覆盖的市场。

但从明年开始,新 iPhone 的数量,将和小米主品牌一样多,并且涵盖从 3000 元到 15000 元的各个档位。

终于,苹果不再满足于一年只打一次仗,他们想把 iPhone 变成一门全年都在运转、全年都能刺激消费、全年都能重新定价的新生意。

iPhone 一年 7 台,价位全覆盖

彭博社报道,从今年下半年到明年上半年,苹果有望推出 6 种新 iPhone,分别在秋季和次年春季发布会推出:

  • 2026 秋季发布会:iPhone 18 Pro、iPhone 18 Pro Max、折叠 iPhone Ultra
  • 2027 春季发布会:iPhone 18e、iPhone Air 2、iPhone 18。

去年的 iPhone 17 Pro 系列由内到外都进行了重新设计,因此今年的 iPhone 18 Pro 系列外观上不会有变化,主要升级点如下:

  • 灵动岛面积会缩小 35%,可能变为左上角打孔
  • 2nm 工艺 A20 Pro 芯片
  • 影像配备可变光圈、长焦光圈增大
  • 简化的相机控制按钮,彻底移除电容触控功能,保留最基础的压力感应
  • 全新「酒红」配色
  • 电池容量有望提升至 5100mAh

不过,我们都知道今年真正的主角,将会是苹果首款折叠屏 iPhone Fold,真正的定名可能是「iPhone Ultra」。

本周《日经新闻》报道,折叠 iPhone 已经进入试产,但遭遇挫折,或将推迟出货。彭博社却给出了不一样的信息:虽然全新的显示屏和手机的复杂性会导致折叠 iPhone 发布后几周现货供应紧张,但苹果仍然计划让其在 iPhone 18 Pro 系列上市后推出。

内部人员透露,苹果工程师已经解决了折叠屏质量和手机耐用性两大痛点,折叠 iPhone 有望实现「真 · 无折痕」设计。为了将展开态厚度控制在 5 毫米内,苹果舍弃了 Face ID 模组和长焦镜头,采用电源键 Touch ID 的方案。

和市面上的折叠手机有所不同,折叠 iPhone 外屏为 5.5 英寸,比例接近正方形,而展开后为横屏显示的 7.8 寸,更接近一台横向的 iPad Mini。苹果计划对 iOS 27 进行调整,让折叠 iPhone 应用在新设备上接近 iPad 应用。

iPhone 18 Pro/Max 和折叠 iPhone 模型

可以确定的是,折叠 iPhone 价格注定不会便宜,起售价可能突破 2000 美元,折合人民币约 13000 元。

原本会在今年秋季发布会推出的 iPhone 18,则将被推迟到明年春季,和 iPhone 18e 坐一桌。

这个改动释放的信息足够明显,就是要在定位上进一步拉开和 iPhone Pro 的差距,根据爆料,iPhone 18 的更新幅度将非常细微,外观设计基本不会有任何变化,更新集中在 A20 芯片、12GB 运行内存这些内部配置上。

但更有意思的是,原本以为已经被砍的 iPhone Air,也将在明年推出迭代。The Information 报道,苹果已经在重新设计 iPhone Air,关键的更新是增加第二颗后置摄像头,大概率为 4800 万像素超广角摄像头。配置补齐的同时,还会进一步降低手机重量,增加电池容量,甚至还会增加 iPhone 17 Pro 同款的均热板。

▲ iPhone Air 2 假想图

由于目前的 iPhone Air 内部空间利用已经非常极致,很难容纳第二个摄像头,苹果几乎要从头设计 iPhone Air 2 的内部结构。苹果还会采用更薄的 Face ID 模组,来进一步节省空间

简而言之,从 iPhone 18 系列开始,苹果会发布 iPhone Ultra、iPhone 18 Pro Max、iPhone 18 Pro、iPhone Air 2、iPhone 18、iPhone 18e 六款 iPhone。

但这还没完,2027 年将是 iPhone 发布的二十周年,苹果计划推出一款纪念版 iPhone,采用前所未有的曲面玻璃设计。

这款内部代号为 V72 的设备,将是一台「全玻璃」iPhone——屏幕和背面的玻璃将沿四个边缘弯曲,彻底消灭屏幕黑色边框,目前尚不清楚屏幕本身是否会弯曲。

手机中框将被压缩成为一条极窄的金属条,位于目前 iPhone 的中部,用于放置手机的按键。

如果折叠 iPhone 也同样「年更」,那明年苹果将发布 7 台 iPhone。

根据彭博社报道,苹果 CEO 「头号接班人」、时任硬件工程主管的 John Ternus 主导了这次 iPhone 的重大变革——这个线路被誉为「三年计划」,从去年的 iPhone 17 Pro 大升级和 iPhone Air 发布开始,再到今年推出折叠 iPhone,直到明年的 20 周年 iPhone。

通过推出更多 SKU,iPhone 正在从一台手机,变成一个横跨 3000-20000 元价位的手机家族,从入门到超高端都一网打尽。

从 10 年前的一年一台 iPhone,到 iPhone 6、iPhone 6 Plus 的双版本、iPhone SE 进军入门市场 到 2020 年的 4 台 iPhone 年更,最终苹果,终于也开始走「机海」战术,尽可能覆盖 3000 以上所有价格段位。以后,差不多每隔 2000 元,就有一台可供选择的 iPhone:

  • 3000-4000 元档位:iPhone e
  • 5000-6000 元档位:iPhone 标准版
  • 7000-8000 元档位:iPhone Air
  • 8000-9000 元档位:iPhone Pro
  • 9000-10000 元档位:iPhone Pro Max
  • 10000-20000 元档位:二十周年 iPhone、iPhone Ultra(预测)

冲低冲高两手抓,A 芯片全部通吃

「买 iPhone」这回事,将被彻底改变。

以前的苹果,不是不「冲低」,只是鲜少为入门价位推出单独的新品,这部分主要由「老 iPhone」来承担。不管是苹果官网还是第三方的电商渠道,都会继续售卖 1-2 年前的基础款 iPhone,价格一般都比新款低 1000-2000 不等。

iPhone 16 现在依旧在官网售卖

老 iPhone 虽然还算能打,但不是所有人都能接受买一台 2 年前型号的手机——毕竟买回来,就意味着它会比新机少 2 年的更新,时间久了性能也会更吃力。

而现在,苹果提供了一个更好的选择:iPhone「e」系列。

采用标准版同款,但少一颗核心的「残血版」芯片,既能提供接近的旗舰级性能表现,还能消化这部分原本会被浪费的库存,其他零部件也基本都是现成的,却能为消费者提供一台价格更低的「新」iPhone。

与「冲低」相对的,苹果也正在进一步打破目前 iPhone 的天花板,尝试「冲高」。

iPhone Air 本来也是一种尝试,试图将外观设计和手感,作为近似于大屏或影像的卖点,但这款产品并不成功,消费者没能被打动。

折叠 iPhone 就是下一个尝试——像华为这样的国产厂商已经证明,折叠屏旗舰可以成为比直板顶配定位和定价更高的产品,这个市场远比「轻薄」旗舰成熟,依靠 iPadOS 的生态,折叠 iPhone 的宽屏、大屏也更有发挥余地。。

很明显,苹果已经不满足于 iPhone 现存的价格段了,他们想进一步扩张 iPhone 的触角,不管是低端还是高端,都希望有产品能覆盖。

这么做的底气和原因,都是因为 A 芯片。

苹果对 A 芯片库存的利用率已经到了一个极其惊人的地步:算上明年发布的 7 台 iPhone,以及 iPad mini、iPad 数字款,还有全新的 MacBook Neo,苹果内部围绕 A 芯片打造的 SKU 已经有 10 款之多,并且绝大部分都会年更。

而像是 iPhone e 系列、iPad mini 和 MacBook Neo,使用的甚至还是 A 芯片缺少核心的库存,苹果几乎不需要额外投入生产,反而「变废为宝」。

本周,科技媒体 Culpium 报道称,由于 MacBook Neo 销量超出预期,原本的 A18 Pro 处理器库存被迅速消耗,苹果可能还要重新生产这批 2 年前的芯片。

芯片是一个投入高、回报慢的产品,A 芯片每年推新,研发费用来到 10 亿美元级别,差不多 4 年前的 A16 芯片价格已经来到 100 美元一颗,领先优势却只有短短一两年。

而这两年以内存为首的元器件价格暴涨,新的 2nm 制程工艺芯片的价格也只会水涨船高,苹果的成本压力骤增,势必要把大饼摊薄。

既然做芯片这么贵,那当然不能放过任何能获得收入的机会,用 A 芯片的 iPhone 要多出货,残血版、老库存也要想办法消耗——毕竟,A 芯片的性能确实够强,即使是 2 年前的残血版 A18 Pro,放到电脑上依然很够看。

像是国产 Android 厂商这些老对手,芯片只能基本靠采买,不断膨胀的成本必须硬吃,也没有多出来的库存可以对冲风险。

小米、OPPO、vivo 不仅新品价格全面上探,连在售机型的零售价也开始悄然上调,部分机型涨幅甚至来到 1500 元,出货压力随之陡增。IDC 预测,2026 年中国手机市场出货量将下滑 2.2%。

反观苹果与华为,这些原本就拥有更高利润率的品牌,反而凭借更强的供应链掌控力,在这轮成本上涨中显得更加从容,甚至开始反向进攻低端市场:苹果 iPhone 17e 存储加量不加价,华为重启畅享品牌,重回快绝种的千元机市场。

与此同时,小米等厂商在今年基本做不出千元机产品,就算做,配置恐怕得大幅缩水,很难维持「性价比」的卖点。

不管是原本舒适的低价市场,还是本来就没那么擅长的高端价位,苹果现在两手齐抓,挤压整个市场的生存空间。

对所有手机厂商来说,当新 iPhone 和小米新机一样多的时候,好日子就到头了。

唯一的例外?可能就只有为内存不够卖发愁的三星了。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

专访 OPPO 影像算法总监罗俊:好的计算摄影,就是让你忘掉计算摄影

作者 肖钦鹏
2026年4月9日 11:00

即将发布的 OPPO Find X9 Ultra,换掉了全部七颗镜头——主摄、广角、两颗长焦、丹霞色彩镜头、前置、增距镜……

没有一颗是祖传的。

OPPO 成立二十多年,极少有一代产品把影像硬件全部推翻重做。罗俊说:

这种革命式升级,好像真的没做过。

罗俊是 OPPO 影像算法总监,主导了从 Find X6 Pro 到 Find X9 Ultra 四代产品中的影像算法方向,还有那个已经成为 OPPO 影像标志的「大师模式」。

在 Find X9 Ultra 发布前夕,爱范儿采访了罗俊。我们聊了全新设计的「大师模式」、聊了还没上市的新手机,也聊了 OPPO 影像的过去、现在和未来。

我们试图找到一个答案:什么是计算摄影的「真实感」?

大师模式,用算法对抗算法

「大师模式」是什么?

简单来说,它是 OPPO 相机里独立于普通拍照模式的一套影像管线。

普通模式追求的是明亮、讨喜、一拍就好看——系统会自动拉高亮度、增强色彩饱和、做较强的锐化和降噪处理。这些操作让照片第一眼很抓人,但代价是:照片看起来,总是多了一些略显特意的「精良」。

这就是今天手机影像行业最普遍的争议:「算法味」。

算法味不是某一家厂商的问题,而是整个计算摄影发展到今天的结构性副产品。

当手机用越来越重的算法,去弥补小机身的物理局限时——多帧合成、AI 降噪、HDR 堆栈、超分辨率重建——每一次处理都在往照片里添加计算的痕迹:暗部被提亮,高光被压制,噪声被涂抹成油画质感,锐化制造出更多的「细节」。

结果就是,拍什么都好看,但拍什么都少了点纯粹。

「大师模式」走的是另一条路。

它用更克制的色调映射、更自然的锐化策略、更接近光学相机的影调逻辑来处理画面。该暗的地方留下暗部,有噪点的地方保留颗粒,不追求每一张都「亮白美」,转而追求照片的真实质感。

手机行业有一条不成文的规律:一个功能如果连续两代争议不断,第三代大概率就会被砍掉。

「大师模式」曾完美符合这个画像。

Find X7 Ultra 时代,用户对它的评价两极分明。喜欢的人说它「相机味」「高级感」;不喜欢的人说它「画面暗」「不锐利」,我甚至还遇到过,把大师模式的照片发给朋友看,对方第一反应是:你这张是不是拍糊了?

但大师模式活了下来。

从专业用户的小众工具,变成了连大学生都会主动选择的拍照模式。

更值得琢磨的是,用户喜欢大师模式,理由几乎一致——没有算法味。

事实上,大师模式跑的恰恰是整个影像系统里最先进、计算量最大的算法管线。

这种反差感,正是当下 OPPO 影像的缩影,也是过去十年,罗俊对计算摄影的全部理解。

传统影像的大师,做了大师模式

罗俊是影像算法专业出身,校招就进了索尼。

2000 年代初,日本影像行业就是世界影像行业的天花板。他做过 Handycam 录像机,做过 Alpha 单反,也经历了 NEX 微单系列从零到一的过程。

但真正让他看到行业拐点的,是索尼黑卡 RX100。

当时日元卖二十多万,一般的卡片机一台五六万日元。它一搞出来就卖一万多(人民币),但确实挺革新的。

索尼把一英寸底和蔡司镜头塞进上衣口袋大小的机身。这是影像小型化浪潮的发端。今天回头看,黑卡和后来的手机影像走的是同一条路:在极其有限的物理空间里,把画质做到极致。

只不过,手机走得更远。

在索尼的十几年,罗俊做的所有影像算法都跑在 ASIC 专用芯片上。一颗芯片两年一代,覆盖多条产品线,追求稳定可靠。

但他慢慢觉察到一个根本性的错位:

算法的迭代是很快的,但 ASIC 两年一代。整个算力和架构跟计算摄影、跟 AI 的研究思路有点不匹配——它太慢了。

后来他看到了 NPU——一种专门用来处理神经网络计算的处理单元。算法可以跑在软件层,迭代速度陡然提升。

但 NPU 最好的载体不在相机,而在手机。

2017 年初,罗俊在 MWC 上见到了 OPPO 展示的潜望式长焦技术演示——10 倍混合变焦,在当时的手机行业里没有人做过。他一眼认定这家公司有潜力,决定加入 OPPO。

有意思的是,十年后的今天,他主导的 Find X9 Ultra 搭载了一颗更好用的 10 倍光学长焦,但这是后话。

这段从传统影像到手机影像的迁移,决定了他做大师模式的底层逻辑。很多人觉得大师模式「没有算法味,像相机直出」,罗俊听到这种评价觉得有意思:

其实专业相机也有算法,ISP pipeline 还挺重的,全是用芯片实现的。只不过效果跟我们大师模式很类似,用户的参照系就变成了——我用手机的算法,也能得到一个像相机的效果。

在他看来,「相机没有算法」本身就是一种错觉。相机的算法只是固化在芯片里,用户看不见而已。

大师模式的设计起点,正是从这个认知长出来的。目标从来不是「去掉算法」,而是让算法像专业相机的 ISP 一样——做了很多事,但你浑然不觉。

OPPO 内部的说法叫「用计算去计算」

罗俊说,如果你的目标是「让算法不可见」,那你就不能去追某个单一参数的提升。你需要一套系统性的标准,来定义什么叫「好」。

他用四个字总结这套标准:真实还原。

三年,重构 OPPO 影像

2021 年底,罗俊从日本调回国内,全面主导 OPPO 影像算法的迭代方向。

对所有手机厂商来说,影像算法全面转向自研,都是个长期高投入,但短期低收益的决策。

但为了让影像——而非仅仅美颜——成为OPPO 旗舰手机的核心竞争力,罗俊重组起了一支数百人的影像算法团队。

「真实还原」是个相对务虚的概念:什么样的影像称得上真实,又该用什么手段去还原?

罗俊把它拆解成三个具体的维度——光影、细节和色彩。 他心里有个三年计划,希望用三代产品来重构 OPPO 影像。

Find X6 Pro 是在罗俊这个理念下,堪称转折点的一款影像手机,当时首先解决的是光影问题。

OPPO 影像认知总监程卓在接受爱范儿采访时曾说过,Find X6 系列的目标,是建立「正确的影调关系」——将扭曲的光影曲线拨乱反正。

这一代 Find 搭载了当时行业唯一的大底长焦——1/1.56 英寸 CMOS、等效 70mm 镜头,并配合全新的超光影图像引擎。

这套系统第一次让手机有能力在像素级别标定亮度信息,计算被摄物体、光线和环境之间的光影关系。罗俊说:

亮而不耀,暗而不黑,这就是我们对光影的基本要求。

罗俊还将一个面向专业用户、可以充分发挥手机影像能力的模式引入到 OPPO 的影像系统当中,他们将其命名为「哈苏专业模式」——这就是「大师模式」的雏形。

紧接着,罗俊团队要解决的是细节。

Find X7 Ultra 带来了行业首个双潜望四主摄影像系统,加入了支持 6 倍光学变焦的长焦镜头。

焦段的增加不只是「拍得更远」。在罗俊的理解里,它有更本质的意义:

有更多焦段,就有更多的参考系。你能用不同的视角记录世界,系统能还原的信息就更完整。

参考系——这是罗俊理解「真实还原」的核心概念。

真实不是一个绝对的客观标准,它依赖于你拿什么去做参照。取景框是一种参考系,人眼所见是另一种,用户脑子里想象的「好照片」又是一种。

焦段越多、细节越多,系统捕获的参考信息就越完整,离用户心里的「真实」就越近。

Find X7 Ultra 还进一步提升了光影的质感,尤其是中间调。

日常照片里最大量的明暗信息集中在中间调区域——不是最亮也不是最暗的过渡地带。中间调如果粗糙,照片就缺少实感。

也是在这一代影像系统里,OPPO 正式推出了「大师模式」。在罗俊看来,大师模式并非专属于摄影师,而是把调教相机的权力交回到用户手里——就像相机的拨杆和旋钮那样。

但第一代的大师模式的泛化能力有限,场景兼容性不够,导致用户评价褒贬不一,喜欢的人非常喜欢,玩不明白的也大有人在。

对罗俊来说,技术上的问题总归能解决,但怎么把理念坚持下来、传递出去,是一个巨大的挑战:

大师模式能坚持下来,也许就是因为我们没有妥协。

光影和细节都有了,色彩是最后一块短板。

计算摄影高度依赖统计学,在复杂光线下,白平衡不准、肤色偏移、环境色失真,是统计方法的固有局限。

Find X8 Ultra 加入了一颗新镜头——丹霞原彩镜头,专门做分区色温感知。它能识别画面中不同区域的色温分布,分辨自然光和人造光源,对肤色和环境色分别做独立还原。

色彩链路说到底做两件事,白平衡和色彩映射。白平衡是统计方法,有些场景就是算不准。有了丹霞之后,因为它是绝对信息量,在干扰色场景下就有机会把偏差修回来。

丹霞的作用并非让颜色更好看,而是给色彩计算管线提供一个物理锚点——一个不依赖统计猜测的客观参照基准。

你看,又是参考系。

到 Find X8 Ultra,还有一个不容易被注意到的技术整合完成了:大师模式和照片模式在 RAW 域的处理算法实现了统一。

两个模式出来的 RAW 片是一样的,差异只在后端——照片模式走更明亮讨喜的色调映射,大师模式走更克制的光影层次和锐化策略。

这意味着,「大师模式」不再是一个独立的功能分支,它的底层能力已经成为整个影像系统的内核。

在罗俊看来,到了 Find X8 Ultra 这一代,终于实现了他最初的设想——光影、细节、色彩,三个维度第一次集合为完全体。

于是,全新的 OPPO 影像品牌「凝光影像(LUMO)」 诞生了。

罗俊团队对好影像的评判标准,在历经三代产品迭代后也逐步成形——其中一个基准,就是照片的「连续性」

专业相机拍的照片也有噪点,但它的噪声、它的颗粒是连续的,看起来很舒服。我宁愿放出一些连续的噪声,也不要让画面清晰一块、模糊一块。

这些标准并不是在某一代产品研发过程中突然冒出来的,它们源自罗俊骨子里传统影像的基因——信噪比、连续性、色彩映射——只不过换了个载体,从相机到手机,从传统光学到计算摄影。

随着新的影像算法系统逐步成型,罗俊也面临一个新的局面:软件侧能做的,做得差不多了。算法迭代的边际收益在递减。

接下来怎么办?

Find X9 Ultra:十年回声

答案是再来一遍。

罗俊把手机影像的发展分为三个阶段:

第一阶段从 2015 年前后开始,核心是器件小型化——把大 sensor 塞进手机,从 1/3 英寸一路堆到一英寸;

第二阶段从 2021 年前后开始,AI 和计算摄影的算法能力上来了,不追求一英寸大底也能通过算法补强,得到画质不错的照片;

第三阶段则是现在:

你不是靠器件,不是只靠算法就可以。它一定是软硬结合、端到端的创新,才有机会把效果再往前推。

Find X9 Ultra 就是第三阶段的产物——为此,OPPO的影像团队不惜换了全部的七个镜头——

主摄从 5000 万像素一英寸换成 2 亿像素 1/1.2 英寸,广角从 1/2.5 英寸升级到 1/1.95 英寸,第一颗长焦镜头换成了更大底的传感器,而第二颗长焦镜头从 6 倍光学拓展到 10 倍光学,丹霞色彩还原镜头升级,前置从 3200 万升到 5000 万,连增距镜都从 200 换到了 300。

其中设计难度最高的,无疑是那颗 10 倍光变的长焦镜头。

罗俊向爱范儿展示了 Find X9 Ultra 的10 倍长焦镜头——1/2.8 英寸传感器搭配 230mm 的镜组,但整个模组只有 29 毫米长,其中棱镜的长度,约等于半个小拇指。

更妙的是,这块棱镜并不是一体成型的,而是由三块棱镜拼接在一起,还在中间封了一层空气用来消除杂光。这个工艺在产业链里没有先例——没有人把棱镜切成三块再粘,也没有人在棱镜中间封过空气层,当然也没有人搭建过这样的产线。

于是,一切都要从头做起。

罗俊把这颗 10 倍长焦定位为「口袋增距镜」——OPPO Find X9 Pro 的增距镜长十几厘米,而 X9 Ultra 的「内置增距镜」只有 29 毫米,但成像的素质并无二致。

正因如此,你在 OPPO Find X9 Ultra 里,能找到 14mm-230mm 的所有主流焦段,这就是相机经典的「大三元」配置。

2016 年,罗俊在 MWC 上被 OPPO 的十倍潜望长焦技术演示打动,决定加入。十年后,他和他的团队在手机里嵌入了一颗迄今为止最好 10 倍光学长焦——对罗俊来说,这是一声跨越十年的回响。

有了 10 倍长焦之后,大师模式的创作空间一下子就打开了:视频可以用 10 倍、20 倍拍,人像模式也新增了 10 倍焦段,这是罗俊三年前没想到的:

以前可能都没考虑过用 10 倍拍这些东西,突然发现素材空间又变大了,这个感觉还挺有意思。

新一代的大师模式也变得更易用、更好分享了。

罗俊说,他私心最喜欢的就是这个「配方分享」功能,用户在大师模式里调好拍摄参数、拍出照片,配方就已经被嵌在照片水印里了。

别人看到这张照片,用 ColorOS 的一键闪记功能,就能快速导入同样的配方一键出片——对喜欢打卡的小红书姐妹,可真是太友好了。

而这个功能成立的前提,恰恰是前三代把大师模式的底层管线做到了足够稳定。如果管线不成熟,配方分享出去换个场景就失效了。

好的计算摄影,就是让你忘掉计算摄影

采访快结束时,我们聊到了一个稍微务虚的问题:什么叫计算摄影的「真实」?

罗俊的回答就两句话:

一个叫所见即所得,一个叫所得即所想。

所见即所得是基础——取景框里看到什么拍出来就是什么。但他认为真正重要的是后半句:用户脑子里对一张好照片是有预期的,影像系统的工作就是尽可能贴近那个预期。

你拍一张照片的时候,是有想象一张照片效果的。不管是你看到的还是你想的,这时候是脑子在后期。

你按下快门之前,脑子里已经有了一个画面。那个画面就是你的参考系。

这让我想起,之前去悉尼旅游时的经历。那时,我专程去一个有名的打卡机位,但遇到阴雨天,人很多,拍完之后,我也对照片不太满意。

于是,我想到用豆包修图——我加了夕照,去掉了人影,修完,我觉得这就是我想要的,但,这还算摄影吗?

罗俊告诉我:

它一定是摄影。但你脑子里想的画面和你眼睛看到的之间,到底有多少比例是记录的,有多少是生成的?这个比例在不同工具、不同场景下是变化的。我们做影像系统的价值,就是把真实记录的那部分做到极致。要不然的话,咱们都靠豆包就完事儿了。

从大师模式,到重构 OPPO 影像,再到 Find X9 Ultra——在罗俊看来,这一切从来都指向同一个目标:

把脑子里想的那张照片,和手机拍出来的那张照片之间的距离,缩到最短。

真实还原,还原的不仅是现实本身,更是心里的参考系。

罗俊说,在未来,影像交互对于用户而言必须简洁——用户拿起来就拍,不再纠结,因为系统已经理解了你想要什么。

我想那时候,真实还原的理念,就已经渗透到整个 OPPO 凝光影像系统的脉络里了。

好的计算摄影,就是让你忘掉计算摄影。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

联想天禧 Claw 产品体验:大家都能吃的龙虾才是好龙虾

作者 艾 梵
2026年4月7日 17:54

2026 年虽然是马年,但真要选个「年度动物」的话,非得是龙虾莫属。

就像海里的龙虾一样,OpenClaw 虽然美味,但想要烹调和享用好,还是需要相当的门槛的:不仅要自己配置环境、设置接口、寻找模型,更是得专门留一台 24 小时待机的电脑给它当「笼子」。

再加上自己配置技能(Skill)、进行微调(SFT)、接入 MCP 所需的时间、精力和金钱成本,真正的日常用户其实是很难让 OpenClaw 发挥出「明显改善效率」的意义的。

就在这时,老牌 PC 大厂联想站了出来,做了一件非常具有启发性的事情。

它们以联想电脑、平板和摩托罗拉手机为载体,做了个免安装、跨平台、全天候的 Claw 服务——

换言之:让每个人都能享受 Claw 的乐趣

3 月 18 号,联想在春季新品直播中正式宣布了自家智能助手「天禧个人智能体」 Claw 能力上线,并于 3 月 30 号正式开启了内测:

▲ 图|联想

爱范儿也参与了这次天禧 Claw 的测试活动。在这段时间的使用之后,我们觉得:天禧 Claw 就是现阶段上手难度最低、跨设备能力最强、软硬件结合最好的 Claw 部署方案之一。

龙虾「最后一公里」,联想替你走

以往想要在 Windows 上安装一个能用的龙虾,是件非常让人头疼的事情。

由于 OpenClaw 高度依赖类 Unix 环境,许多底层脚本也是基于 Darwin 或 Linux 写的,因此想要在 Windows 上得到一个能用的龙虾助手,光是折腾 WSL2 就足够劝退 90% 的尝鲜用户了。

而对于联想的天禧 Claw 来说,以上这些都不是问题——

与纯本地手动部署不同,天禧 Claw 采用了「端云混合」的运营逻辑。

联想作为软硬件供应商,可以直接给自家硬件预留好调用接口,然后用类似「云电脑」的形式,在服务器端运行天禧 Claw。

这样一来,用户既省下了手动部署的麻烦,获得了文件隔离的安全性,同时还能享受到纯本地龙虾带来的硬件操控能力。

仅需一个联想账号,所有人都可以在电脑、Pad 和手机上同时运行天禧 Claw,做到了真正的「零成本部署」和「开箱即用」。

就拿我们在内测阶段的体验来说,在这台联想 YOGA Air 14 上运行天禧 Claw,其实只需要四步:开机、打开天禧 app、登录联想账号,开始使用:

同时,天禧 Claw 作为一款「预装类」的龙虾助理,最大的优势就在于它出厂预装了非常多实用的技能(Skills),不需要挨个在 ClawHub 上下载压缩包了:

在目前的测试版本中,天禧 Claw 已经支持了包括文档处理、设计创作、硬件操控、生活娱乐、技术工具等等十多种 Skills 。

无论是要天禧 P 个图、草拟一份周报、写一封声情并茂的请假申请,还是直接搞定路演 PPT,都只是一句话的事儿:

除了这些预装技能之外,你当然也可以自己给天禧 Claw 添加别的 Skill ——

比如我自己常用的高级搜索工具 web-search-plus,只需要把 ClawHub 的项目网址发给天禧 Claw 就可以自动完成安装:

但即使不看上述的第三方 Skill,天禧 Claw 作为一款电脑出厂预装的龙虾助手,仅仅依靠它自带的那些技能就已经足够满足绝大多数的日常需求了。

就拿编辑的工作流为例,我可以用自然语言给天禧 Claw 设置一个循环任务,让它每天早上检索并整理过去 12 小时的热门科技新闻,生成摘要并导出至本地:

而在工作过程中,则可以直接和天禧 Claw 以聊天的形式让它帮忙搜索信息、整理知识库和修改图片,以及对我来说最重要的——查找本地文件:

这时,天禧 Claw 就可以发挥出它作为一个端云混合龙虾的全部优势:我既不需要盯着一个沉闷的 cmd 窗口等回复,过程期间我的电脑风扇也不会起飞,只需要舒舒服服等待它反馈。

第一个免配置跨平台龙虾

折腾 OpenClaw 的另一个问题是如何跨端跨网进行指挥。

如你所知,OpenClaw 原本作为一个纯本地化运行的 agent 工具,如果你的使用场景仅限自己家里的空间,那么完全不需要担心操控问题。

可一旦你希望出门之后也能控制你的龙虾,尤其是涉及到使用 MCP 以及管理龙虾后台的时候,就必须给家里的网络设置内网穿透或者虚拟代理,繁琐程度可想而知。

天禧 Claw 对于这个问题给出了一个相当完美的解法:它重新给龙虾套了一层网络客户端的壳,所有指令都通过「天禧个人超级智能体」app 上传和下发。

这样一来,只要你的电脑开着机、连着网,你在千里之外只需要拿出手机或者平板电脑,就可以继续执行天禧 Claw 在电脑上的操作:

并且这种能力还不是单向的——我用这一台 moto razr 60 可以远程管理联想笔记本上面的文件,自然也能反过来用笔记本管理手机和 Pad。

这时就不得不提天禧 Claw 的独家 Skill 了:由于天禧 Claw 属于联想的第一方应用,联想专门为它配置了一套可以直接调用硬件功能的专属技能

比方说用手机给电脑上的天禧 Claw 发信息,让它把电脑设置成暗色模式,并且把屏幕亮度调整到最低,电脑就可以直接执行:

同理,在电脑上对着天禧 Claw 说在平板上设置一个明早 7 点起来喂猫的闹钟,它就可以在平板上直接创建闹钟,完全不需要解锁:

而上述的一切,都只需要一个联想账号。

这样一套跨平台、跨设备的龙虾不仅不需要分别折腾 Windows 和 Android 两套繁琐的配置,更实现了熄屏时的后台静默操作,能够为普通用户解锁什么样的便捷场景简直不敢想——

小问题不影响天禧成为「最方便吃」的龙虾

需要注意的是,联想天禧 Claw 目前仍然处在测试阶段,我们体验到的各项功能严格来说都还不是「完全体」。

在短暂的测试中,我们也注意到了天禧 Claw 目前存在的一些问题——毕竟从它的运行机制来说,相比本地部署 OpenClaw 它还存在一些不太完美的地方。

首先,你虽然可以通过给天禧 Claw 发送链接的方式要求它安装 Skill,但添加某些 Skill 所需的 API Key 却很麻烦。

原因很简单:天禧 Claw 运行在联想服务器上的一个虚拟容器里,我们对话的 app 只是一个聊天窗口。

如果你使用的 Skill 需要通过修改根目录里面的 .json 文件添加 API Key,那暂时是没有办法进行修改的:

其次,目前测试版天禧 Claw 还不支持更换基础的对话模型,也无法直接修改和调整它的「性格」和对话方式——

换言之,如果你想让你的龙虾说话「更有人情味」,或者保持某种预设角色的话,天禧 Claw 目前还办不到,仅能通过添加知识库的方式让它的对话风格产生一些倾向。

最后,也是最重要的,就是天禧 Claw 的记忆机制和词元(token)收费规则了。

受限于运营模式,测试阶段的天禧 Claw 还无法负担非常长的上下文 session,会自动执行 /compress 压缩早期的信息,因此有时候会忘记你之前告诉过它的东西。

而如果你想要让天禧 Claw 长期记住什么信息,就必须命令它「记住这个」,从而将信息半手动地保存到当前账号的知识库里:

同时,联想官方目前尚未公布天禧 Claw 的词元收费制度,至于后续是否会开放用户自行选择基础模型则有待讨论。

参考其他已经存在的 OpenClaw 托管类服务的收费标准,我们猜测天禧 Claw 后续可能会采用「限时免费、后续订阅」的机制,同时也可能整合进联想其他云服务的订阅当中。

总的来说,天禧 Claw 是目前难得一见的、真正称得上「零门槛人人可用」的龙虾方案——

用户不需要自己折腾 Linux 容器,不需要在闲鱼上花 800 块钱安装再卸载,也不用担心天禧 Claw 会误删你的文件——它在执行任何删除动作之前都会向你询问,并且所有调用的数据都保存在天禧 app 的沙盒内。

对于基础的 OpenClaw,我们总会把它形容成托尼·斯塔克的 Jarvis ——但真正的难点从来都不是和 Jarvis 对话,而是怎么让它去接入和控制那些硬件。

而天禧 Claw 恰恰像是有了自己战甲的 Jarvis:它可以自己对话、自己控制、自己决断,我们只需要像托尼一样直接下达命令就好。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

一款开放式耳机,怎么做到「降噪」的?|韶音 OpenFit Pro 体验

作者 苏伟鸿
2026年4月5日 16:47

自苹果将 iPhone 7 砍掉耳机孔,并推出 AirPods,从此真无线蓝牙耳机(TWS)这个品类火了十年,整个行业开始分化出了几条不一样的路线。

首先比较传统的「类 AirPods」形态:入耳式的降噪耳机,半入耳式的非降噪耳机,最近几年还开始有全新的「半入耳式」降噪耳机。

▲ 主动降噪版本的 AirPods 4,图源:PCMag

与此同时,和这些产品截然不同的开放式耳机,例如华为「耳夹」耳机 FreeClip,以及 Nothing Ear Open,又掀起了新的热潮。

▲ 华为 FreeClip 耳机

于是,我们看到今天的 TWS 市场,表面上是开放、半开放和入耳式降噪的多点开花,但底层其实只有一个变量在起作用:对「噪音」的处理方式。

耳机越开放,就越难减少噪音;越能有效减少噪音,它就越趋向封闭。

这是一条几乎被默认成立的关系,也是过去十年里,大多数产品选择站队的分界线。

但韶音最新的 OpenFit Pro,明明是一副非常标准的开放式耳机,却开始试图「减少噪音」,这些曾经的分明边界,终于要被打破。

滤噪,而非降噪

严格意义上,OpenFit Pro 并没有标榜自己是「降噪」耳机,它不能提供 AirPods 4 那种等级的主动降噪,更多是一种「滤噪」。

中文语境可能很难理解两者的区别。「降噪」在英文中是「Noise Cancelation」,直译就是「噪音取消」,强调一种对噪音的全面消除;而「滤噪」可以翻译为「Noise Filer」,只过滤一部分的噪声。

作为耳挂式的开放式耳机,OpenFit Pro 的发声单元悬挂在耳道外部,声音以类似「气传导」的方式送入耳内,这样的物理结构意味着它不仅先天没有耳塞的「被动降噪」能力,还更容易让外部声音进入耳内,只能通过产生反向声波来主动降低低频。

老实说,第一次戴上 OpenFit Pro 的感觉有点新奇,不是平时那种戴上 AirPods 后「世界安静下来」的感觉,同事的动静,自己敲击键盘的声音,都还是清晰可听。

当我把耳机摘下,我才发现办公室其实挺「吵」的,抽风机的低沉底噪瞬间灌入了我的耳膜,并且上面提到的那些声响,都更加清晰。

我平时在办公室中使用的,是一副半入耳式的有线耳机,对比之下,能明显感觉到 开启「滤噪」的 OpenFit Pro 能多削去一层环境噪声。

比较惊喜的场景是车水马龙的马路,OpenFit Pro 的滤噪效果会有更明显感知,会觉得大马路安静了不少。

但与此同时,无论是车辆靠近,还是身后电动车的鸣笛、自行车的铃声,都依然清晰可辨,在降低噪声的同时,也保留了必要的安全感。

不过在地铁这种噪声更大和持续的场景,OpenFit Pro 就显得比较捉襟见肘,无法削弱地铁开动时持续的轰鸣声

同样,作为一款开放式耳机,OpenFit Pro 也需要保证佩戴也能进行的日常交流。开启「滤噪」后,佩戴 OpenFit Pro 与人面对面交谈几乎不会受到影响,被过滤掉的更多是一旁路人的闲谈声。

可以发现,即使有了「滤噪」,OpenFit Pro 的适用场景,依旧没有突破办公室、健身房、大马路等等开放式耳的领域,只是它能做得更好。

「减少噪音」的解法,不止一种

对一副降噪耳机,我们的期待相当简单,无非就是降更多的噪,然后再多一点,最好就是耳机一戴,外面的世界就按下静音键。

但韶音 OpenFit Pro 有主动降噪的技术,却完全不想成为这种产品,而是从源头上,就给出了「降噪耳机」的一种全新可能性。

人类与噪音的斗争历史由来已久,进入工业时代之后,各种大机器持续不断的轰鸣声,让人们萌生了研究了「主动降噪」的想法——不仅依靠耳塞、耳罩以物理形式隔绝噪音,而是通过技术「消除噪音」。

1936 年,一位名为 Paul Lueg 的德国物理学家获得了一项专利,描述了一种利用和噪声同频但反相的声波,对噪声进行抵消的方法,这也是基本所有耳机「主动降噪」功能的原理。

▲ 正反声波相互抵消

1978 年,Bose 公司的创始人 Amar Bose 博士在一次从欧洲飞回波士顿的航班上,戴上了航空公司提供的耳机,但当他想要听音乐时,耳朵只能听到飞机引擎的巨大轰鸣,调高耳机音量后,过大的音乐和引擎声混合起来,成为另一种噪声。

▲ Amar Bose

这种糟糕的体验引发了 Bose 博士的思考,能不能运用一种技术,消除噪声,他直接在飞机上开始了数学计算。后来,他将这些想法带到了 Bose 公司的工程部门。

后来,Bose 打造出了主动降噪耳机,很快也在航空领域中得到实际验证,能够很好保护飞行员的听力,于是在军事和商业飞行领域得到大规模应用。

直到 2000 年,Bose 推出了第一款消费级主动降噪耳机 Bose QuietComfort,在一些航班上提供给旅客,大量的用户给出了积极的评价,认为降噪耳机可以隔绝飞机噪音,让他们更放松,并且使得在飞机上看电影、听音乐,或者只是享受一个更私密的个人时间,都成为了可能。

▲ QuietComfort

这 20 年来,大量的音频品牌都推出了自己的主动式降噪耳机产品,并且形态也从头戴式,简化到后来的入耳式,甚至是半入耳式,佩戴舒适度不断提升,但「降噪」依然是绝对的重点,我们对这些产品的期待,还是期待戴上的那一刻,它将整个外部的声音世界,完全隔绝在外。

OpenFit Pro 就是在这种司空见惯上,提出了一个可能:为什么消除噪声,就一定是为了「隔绝」呢?降噪耳机的思路,难道只可以有一种吗?

「减少噪音」是刚需,但「隔绝噪音」不是

正如其名,「开放式耳机」主打的是「开放」,在聆听数字内容的同时,外部世界也没有被排除开来,是一种「既要又要」的模式。

但这不意味着,所有的外部声音都是需要接收的——空调机抽风机的嗡嗡,跑步机的哐啷哐啷,旁人的叽叽喳喳,以及马路上各种复杂的动静,都没有任何信息量,属于绝对的噪音。

问题已经不是「为什么开放式耳机要做降噪」,噪音作为一种毫无作用的污染,明明应该是「所有耳机都应该具备降噪」才对。

AirPods 的「自适应」和「对话感知」功能,其实就是想在保留用户对外界感知的同时,智能化消除没有意义的噪音。

而往开放式耳机上加入降噪,就是另一种思路,虽然降噪效果不如 AirPods,但能尽可能保证用户能及时、清晰接收到外界的声音。

不能消除高频,也不能消除大噪声,本身是 OpenFit Pro 物理结构决定的天然缺陷,但对于开放式耳机的使用场景和人群来说,这些本来就不是需要抹除的声音。

就算日后真的有开放式耳机,能做到接近 AirPods Pro 的降噪能力,其实它已经和 OpenFit Pro 不是一个物种。

开放式滤噪耳机的另一个价值,还在于让降噪这件事,提供了一个「佩戴」上的选择。

爱范儿的一位摄像师阿杰,无法佩戴任何入耳或半入耳式耳机,头戴式耳机的重量和闷感又难以长时间佩戴,韶音 OpenFit Pro 就是他一直在等待的那款耳机。

像阿杰这样的用户,我身边不算少数,他们可能因为耳廓过小,或者耳道敏感,长期以来都难以佩戴市面上的降噪 TWS 产品,以前他们的选择都多少有所妥协,一款能过滤部分噪音的开放式耳机,是他们当下最好的选择。

封闭式耳机主动降噪沉浸感虽然很强,但高耳压带来的不适感,也让很多人无法长时间佩戴这些耳机,只能选择关闭降噪或换用其他负担更低的耳机,开放式滤噪耳机也能很好解决这种矛盾。

开启主动降噪后,韶音 OpenFit Pro 虽然也会因为发射反相声波,为耳朵带来一些特殊的感觉,但它更多只作用在耳骨上,而不是和入耳式耳机一样,让耳膜直接承压,大部分人习惯之后几乎没有异感。

OpenFit Pro 并不是「降噪」和「开放」的结合体,一个能解决所有场景的完美方案,它的本质依旧是一个开放式耳机,只是它更加细化,剔除了那些用户没必要接收的「底噪」。

如果从 Bose QuietComfort 算起,降噪耳机也已经发展了 26 年的时间,但至今仍然没到终点,所有产品的迭代,都会标注降噪能力比上一代降噪提升了多少。

把耳机的主动降噪推向极致,是一条需要不断叠加技术的单行道,它没错,但世界并不只需要一种答案。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

有线耳机这么好用,不翻红才怪

作者 苏伟鸿
2026年4月4日 11:16

你现在还会用有线耳机吗?

在苹果 AirPods Max 2 正式发售的同一天,「有线耳机」反而抢了网络头条,#有线耳机为啥能翻红# #有线耳机穿搭火了# #有线耳机爆火原因# 这些微博热搜接连霸榜。

我们这才发现,虽然 TWS 真无线耳机已经成了绝大多数主流,但有线耳机还有着相当数量的拥趸。

以前觉得戴有线耳机很穷,现在觉得戴有线耳机很懂。

有线耳机,是一个潮品

有线耳机的卷土重来,并不是忽如一夜春风来的当季潮流,事实上几乎经历了长达一年的复兴。

一份来自调研机构 Circana 的报告显示,经历了连续五年的销售下滑之后,有线耳机在 2025 年忽然触底反弹,全年销售增长 3%,并且在去年下半年迎来加速,销量激增 10%,2026 年的前六周,销售额甚至暴涨到 20%。

与此同时,整个耳机市场却迎来了大萎缩。根据洛图科技最新的报告显示,2025 年,中国耳机耳麦市场销量同比下降 6.9%,也是 2019 年来首次下滑。

这些数据的披露,加上一些媒体的关注和报道,纷纷引发了大家的情绪共鸣,于是成为了这周最热门的数码话题。

原本我们以为,当苹果砍掉 iPhone 7 上的 3.5 毫米耳机接口,推出真无线耳机产品 AirPods 这个节点,有线耳机已经被宣判了死刑。

▲ 图源:CIO

没想到十年过去,无线耳机卖不动了,有线耳机反而逆流而上。

和手机、手表这些科技产品不同,耳机天生就具有「OOTD」的属性,这几年的 TWS 耳机新品,明显也在往这个路线走。除了音质和功能,成为「潮流单品」也是一种杀出重围的方向。

进入 2020s,全世界一直被复古的情绪笼罩,各种「昨日产品」成为当季时尚单品:CCD 相机,手机挂绳、iPhone 4,时至今日也轮到了有线耳机。

这波文艺复兴,首先也是受到时尚潮流和名人效应的推动。

前两年韩国女爱豆们各种上下班和机场的街拍图,基本都被 AirPods Max 统治,这两年她们头上戴着的,一般是一副有线耳机。

凭借《呼啸山庄》《亢奋》大火的男演员 Jacob Elordi,就尤其钟爱有线耳机,留下不少出圈街拍——甚至有的时候,他只是戴着这个耳机凹造型,另一端并没有接任何设备。

2025 的纽约时装周,美国女歌手演员 Dove Cameron 更是直接把有线耳机当成头发配饰的一部分,引发时尚圈热议。

有意思的是,这些名人用来「出片」的耳机,几乎都是非常朴素白色有线耳机,大概率是经典的苹果 EarPods。

这就不得不提到苹果领先 20 年的时尚品味。在 EarPods 之前,耳机线基本都是黑色、灰色,苹果做白色耳机线,原本只是想和白色的 iPod 配对,但很快他们发现,这条耳机独特又颜色,能让人一眼看出你兜里揣着一个 iPod。

于是才诞生了那个经典的 iPod 剪影广告,这条广告本身又成为了流行文化的重要视觉符号,为那条白色的耳机线赋予了更多美学意义。

耳塞形状的 TWS 耳机体积太小,平时还要收进充电仓,缺乏「二创」的空间,有着一条长线的有线耳机,大家自然而然就开始「咕」起来了。

▲ 图源:微博@整的跟个神经病似的、@啊咿呐哟

最爱网上冲浪的 Z 世代,他们未必经历过 CCD 相机这么「Vintage」的时代,但绝大多数人小时候都用过有线耳机,这波翻红能快速激活他们的使用经验和记忆,共鸣其实要更深。

潮流或许只是一时,我却不认为有线耳机会快速「过气」,原因很简单——它是真的好用。

有线 =「踏实」

无线耳机除了无线都是缺点,有线耳机除了有线都是优点。

我本人其实不同意这句话,无线耳机开盒即用,收纳方便,比起会胡乱打结还要查耳机孔的有线耳机,体验要顺滑不少;主动降噪、空间音频这些功能,也一般是无线耳机才具备。

▲ 图源:How-To Geek

但在一些场合,我还是更青睐有线耳机的简单直接。

首先,不管是工作用的 Mac,还是娱乐用的 Windows,它们对蓝牙耳机的支持,几乎都非常不可靠。

即使用的是 AirPods,连接 Mac 总会遇到莫名其妙断连的问题。明明电脑蓝牙连接了耳机,打开隔空播放还要再连一次,并且我的 AirPods Max 每次连接 Mac 都会开启麦克风,导致音质全损。

而且,我上班会比较长时间地佩戴耳机听歌,无线耳机容易听到没电,并且佩戴体验不如半入耳式的耳机舒适,在办公室我也不需要用到主动降噪。

麦克风依旧是无线耳机难以征服的领域。平时用 Windows 连麦打游戏时,我都会用有线耳机,因为麦克风一般都在嘴唇下方,收音清晰,也不用额外配置。

我还是一个 ASMR 的爱好者,喜欢睡前听会儿助眠视频放松,如果佩戴的是 AirPods,又没能在入睡前把耳机收纳好,不仅会给耳朵带来负担,醒来还可能会发现两只耳机不翼而飞。

最关键的是,我用的是一条 10 元左右的原道耳机,音质非常优秀,即使它坏了或遗失了,我再买一条也毫无负担。

这些场景,虽然都是从我个人的体验出发,但不管是身边的朋友,还是不少网友,甚至专业的音乐人,其实都分享过类似的体验。

在「踏实」的层面上,有线耳机还是太权威了。

无线时代不可避免,但有线耳机会一直存在

智能手机砍掉 3.5 毫米耳机接口,全面推进「无线时代」,我的态度并不如大家那么消极,甚至觉得还有那么点积极意义,因为它确实普及了无线耳机那种轻松的体验。

十年过去,所谓的「无线时代」却还是 AirPods 刚问世时的模样:苹果最高级的 Airpods Max,想听苹果自己的无损音频,还是只能用一条线连接;电脑连接无线耳机,还是一堆问题;想买一个不错的无线耳机,价格还不低,还要注意买和自己手机同一个生态的产品……

关键是,现在除了手机,还有不少产品都能继续用 3.5mm 的有线耳机:苹果最便宜的笔记本 MacBook Neo 可以,Switch 2 和各种游戏手柄可以,相机监听也是如此。

或许很多人不知道的是,现在买一个头戴式耳机,一般都会附赠一条音频线,允许你把它「变成」一副有线耳机,并且音质会更好,这似乎也侧面印证,我们还不能彻底离开「有线」。

▲ 图源:图源:MobileSyrup

似乎大家前几年追求无线耳机的原因,不过也是因为最常用的手机,少了一个专门为音频服务的接口而已。

前几年真无线耳机能一直大卖,更像是一种「从零到一」的转变——越来越多原本只有有线耳机的用户,开始购买无线耳机,于是整个市场欣欣向荣。

现在 TWS 耳机几乎人手一个,新无非降噪或音质更好罢了,没必要换新,反倒是尝过了无线的滋味,反而念起了有线的好。

对于大部分人来说,或许「双持」才是一个理想的状态。

我还是对无线耳机,以及整个「无线时代」寄予厚望,毕竟无线耳机的能力更强大,使它可以不囿于听听歌,未来很可能还会成为 AI 入口,并且不被线缆束缚,一直都是我们人类科技进步的追求。

不过我也相信,只要电子产品还没有彻底抹平所有接口,有线耳机就不会真正退场——甚至在这之后,有线耳机还会继续存在,只是彻底成为一个穿在身上,用来彰显自我的符号。

封面图源:Teen Vogue

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

腾讯会议这波 AI 功能,让我彻底戒掉了整理焦虑

作者 姚桐
2026年4月2日 19:54

有多少会议的录像,你从来没有回看过?

我想有些人的答案是:几乎全部。

录制文件躺在云端,没有索引,没有摘要,于是我们宁可在手机备忘录里潦草记几行字,也不去动那个文件夹。时间一长,会议录像的意义,就只剩下一种:防止对方事后翻脸说「我没说过这句话」。

作为腾讯会议的深度用户,我用它录过选题会、采访,也录过早八课、小组讨论。录制于我而言,从来只是个存档动作。因为我总要花 3 倍于会议时长的时间,去整理笔记、提炼重点、定位关键信息。稍有不慎就会遗漏核心点,主打一个「摸鱼一时爽,整理火葬场」。

腾讯会议这次「智能录制」的升级动静不小。变的不仅是准确率,还包括整个框架。它引入了多模板机制,不同类型的会议,AI 会用不同的方式帮你整理。

看到「AI 帮你整理会议内容」,可能你和我的第一反应是:又来。这种功能见得太多了。生成出来的东西,要么是逐字稿套了个排版,要么是把你说的话复读一遍加了个标题。

但这次可能真的不一样,我拿了几种完全不同的会议来试,工作周会、大学课堂、客户拜访,看看它到底能整出什么花来。

体验入口:

第一步:在会议中开启「云录制」,会议结束后录制文件将自动保存进入你的「录制」文件中。

第二步:进入腾讯会议客户端/APP,点击「录制」(APP 请从「我」-「录制」),在全部文件中,选择任何一场会议,进入后即可查看该功能。

不同的会,终于有了不同的整理方式

我先拿了一场最常见的周会开刀。

这会会一般信息密度不高但杂乱,我过去通常的处理方式是:打开录制文件,拖着进度条找到关键段落,然后打开备忘录开始手动敲:谁说了什么、结论是什么、谁负责跟进。

这次我什么都没做,会后直接打开录制文件,选择「智能总结」模板。

在这场周会的录制里,AI 把内容切成了大约 6 个段落,排期讨论、预算确认、人员安排,每一段标题都对得上我的记忆。单是这一个功能,就帮我省下了至少一半的整理时间。

对于大多数日常工作会,这个通用模板已经够用了。但腾讯会议这次真正让我觉得有意思的,是接下来这件事。

因为不同类型的会议,对「重要信息」的定义完全不一样。

一节课的核心是知识点和考试重点,一场客户拜访的核心是预算、决策链和痛点,一次项目启动会的核心是里程碑和责任人。让一套 AI 模板包打天下,就像让同一个实习生既写课堂笔记又写销售报告。能用,但不专业。

腾讯会议这次一口气推出了 5 个场景化模板,我拿大学生最刚需的「学霸助手」先测了一场早八课。

周三早八,文学翻译鉴赏课,老师用英文开场,PPT 切换的速度比我意识清醒的速度快一倍。

和往常一样,进入会议我顺手点了云录制,然后把脑子调到了省电模式。

下课后,我先点开了逐字稿,中英夹杂,密密麻麻。「so」和「就是说」交替出现。

图源小红书@亿万

我在屏幕前坐了三秒,头开始疼,算了,直接看「学霸助手」模板整理的纪要。

整齐的语段就这样萌萌地看着我。

我在复盘时发现一个有趣的细节:老师在讲「Memory, like olives, is an acquired taste.」这句话如何翻译时,用了相当长的篇幅分析「acquired」,AI 纪要把这段内容压缩成了要点,而不是一堆原话的堆砌。

最让我觉得贴心的是,组队人数、抽签规则、评分占比等重要细节都无一遗漏。

但 AI 的输出不是终点。我还可以随时在要点下面加一段自己的理解,操作就像在一篇文档里插入注释一样自然。 我的思考、我的补充、我的疑问,都能和课程内容牢牢绑定在一起,随着学习过程不断丰富,最终变成完全属于我的学习资产。

对中小企业来说,多模板可能更值钱

除了学霸助手,腾讯会议还准备了汇报总结、项目启动纪要、客户拜访纪要(MEDDICC)和客户分析(BANT)四套模板。

我有个做 ToB 销售的朋友,团队六个人,没有 CRM 系统,客户信息全靠微信收藏和脑子。每次见完客户回来,主管问一句「对方预算多少?谁拍板?」他就开始翻手机备忘录上潦草的三行字,剩下的全凭印象。

他不是不知道 BANT、MEDDICC 这些专业销售框架好用。客户预算、决策人、需求、时间线,哪条漏了都可能跟错单。但六个人的小团队,哪有精力每次见完客户还坐下来花半小时填表?

行业里有个数据说,用对了销售资格认定框架,成交率能提高 67%。道理大家都懂,卡就卡在执行上。

这次我帮他试了一下 MEDDICC 模板。操作很简单:客户拜访时开着腾讯会议的云录制,聊完之后切到 MEDDICC 模板,AI 直接把聊天里提到的预算范围、谁是最终决策人、客户痛点、竞品情况这些信息,按框架归好了类。

他看完说了句:「我以前花半小时填的东西,它开完会就填好了。」

BANT 模板也是同样的逻辑,预算、决策权、需求紧迫度、时间线四个维度自动归位。对他这种小团队来说,这招属于「轻资产、重方法」。

买不起几十万的 CRM,请不起咨询公司做销售培训,但开个腾讯会议、选对模板,AI 就能帮你把客户信息按专业框架整好。说白了,方法论本身不贵,贵的是执行成本。现在执行成本被 AI 干掉了。

会议能被追问,元宝是我的私人秘书

如果说智能纪要解决的是「会后整理」,那「问元宝」解决的是更深一层的问题:会议内容能不能被追问

我们或许都经历过,在五六个人的工作会议中,大家都在说话,你很难在实时对话中同时追踪每个人的立场演变,注意力往往被最强势的那个声音带走了。

现在你直接点击逐字稿里参会者的昵称,就可以让元宝总结 ta 的全场观点。分人总结之后,这五六个人分别说了什么、各自强调了什么、在哪个问题上有过保留意见,全部清晰呈现。

会后追问,才是「问元宝」更日常的用法。

做访谈时,有位受访者提到了心盲症(Aphantasia)这个概念,我当场不好打断就没追问。会后让元宝结合那段访谈内容和外部资料给我解释,它把受访者的个人描述和认知科学的外部知识结合起来,标注了哪些内容来自录制,哪些来自联网检索。

之前遇到陌生概念,要花几小时翻知网、查文献,既耗时又容易出错。现在元宝直接完成「访谈内容解读 + 权威知识补充 + 信源标注」一站式服务,整理好的内容稍作调整核对,就能直接放进论文附录或注释里了。

大学生们课后如果需要给组员发组队通知,直接输入「根据本节课的分组要求,生成一份组队通知,明确组队时间、人数要求、报告占比、抽签规则」,一份清晰得体的通知立刻生成,复制粘贴就能发到群里。

这样一来,「会议内容」就从一段只能播放的音视频,变成了一个可以被追问、被延伸的知识库。你只需要告诉 AI 你想知道什么,它帮你从里面捞出来。

会议录制的终点,是「随时调用的记忆」

以前我对会议效率的期待,就是开完能有份纪要就谢天谢地了。但纪要只是信息的归档,归档之后的信息怎么再流转、怎么被用起来,才是真正决定效率的环节。

这一年腾讯会议把 AI 嵌进了会议的每一个角落。现在,多模板管整理,元宝管追问,整条链路终于没有断点了。

你可以追着它问、往里面加自己的笔记,甚至让它联网帮你查资料。会议录制文件第一次变成了一个活的东西。

我翻了翻云端那堆从来没打开过的旧录制文件,原来早就支持了,过往文件也能用。

那些在云端躺了几个月的早八课录像,我可能要重新打开了。不是为了复习,只是想知道,那节我快睡着的课,AI 眼里的「核心知识点」到底是什么。

与其说这是会议录制,不如说是把工作生活里,那些过去没有被好好整理的上下文记忆都留存了起来。

这,才是「会议录制」这个动作之后真正应该有的结局。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

AirPods Max 2 体验:降噪更强声音更饱满,稳定更新的小升级

作者 梁梦麟
2026年4月2日 18:24

没想到,苹果就这样无声无息地推出了 AirPods Max 2,定价还是 3999 元。

将芯片从 H1 升级到 H2,蓝牙版本、降噪性能提升的同时也加入了自适应音频功能。机身搭载了苹果设计的大动圈单元,配合 H2 芯片在音质上也起了一些变化。

对比之前只是替换成 USB-C 接口的小小「升级」款,AirPods Max 2 算是在一些细微的地方和功能表现上做了一点实际的小调整。

降噪,最大更新点

配置上最大的升级,还是要从换芯说起。

AirPods Max 2 双侧都搭载了 H2 芯片,自身支持的蓝牙版本从上一代的 5.0 升级到 5.3。

连接稳定性表现和之前差别不大,AirPods Max 2 现在连接 MacBook 和 iOS 设备用非官方应用看视频和游戏基本上不会感受到明显延迟,日常使用的无线表现还挺稳定的。

降噪表现也很强,AirPods Max 2 能够压住办公场景、咖啡厅中的常规噪声,像是空调的风噪声、键盘敲击声以及咖啡厅中的背景音乐,戴上耳机之后都基本听不到了。

像我这种工作时会在笔记本下方垫上一个 6 风扇的散热器矩阵的用户,戴上 AirPods Max 2 之后基本听不到风扇的声音。就算是把风扇开到最大然后贴近听,也只是有一点风细微流动的感觉。

而且,AirPods Max 2 降噪切换的响应速度很快。它检测到用户带上就会马上开启,开启会有一个短暂的变化过程,让你感受到降噪开启的过程,不会有「啪」一下瞬间变安静的突兀感。

降噪开启时,耳机内的感觉都很干净和安静,没有很明显的底噪出现,这对于提升声音的听感也有帮助。

除了降噪性能有 1.5 倍提升,AirPods Max 2 比上一代还增加了自适应降噪音频的功能。它能让耳机主动调节降噪级别,根据不同的环境改编降噪力道,从而保证佩戴舒适度。调节也很无感,人戴着走过场也不会有明显感知,增加使用舒适度。

用户可以通过左侧耳机上的按键,自主切换到通透模式。

不得不说,苹果的通透模式还是目前做得最好的一款。通透模式下的声音很自然,风声很顺畅绵滑,键盘敲字的声音很真实,人的讲话声不会有明显的「麦克风录制感」,开启之后跟摘掉耳机的感觉差不太多。

日常在咖啡店使用,只需要简短和别人交流,用这个模式就行。

声音,更甜更饱满

声音方面,AirPods Max 2 搭载苹果设计的动圈单元。和上一代 AirPods Max 相比,二代改用了 H2 芯片,并在耳机上加入了定制的高动态放大器。

机身内置自适应均衡功能,这项功能已针对 H2 芯片进行重新调校。用户佩戴之后,耳机可以根据耳机的佩戴情况(耳垫的贴合度、佩戴形态等要素)对声音输出进行调整,从而输出适配适合当前佩戴状态的声音效果。

连接方式的部分,AirPods Max 2 同样支持 USB-C 连接和蓝牙连接。

手机和 MacBook 以 USB-C 有线连接的时候,耳机会启动成支持无损音频的有线连接模式,在 iOS 和 macOS 的声音菜单会明确标注出来给用户选择。

蓝牙的部分,目前还是只有不支持无损的 AAC。AirPods Max 2 要听到无损,还是只能用 USB-C 有线连接。

听感部分,苹果这次加的高动态放大器可配合定制单元提供更多动态,在声音的低频、人声以及声场表现方面会有所提升。

声音整体比上一代听着更加厚实饱满,鼓点的质感和敲击时力道更强,层次感也比上一代突出。加上,这次苹果调声时提高了整体的清晰度,声效处理更突出,声音的边缘也比之前锐利,提升锐度的同时增加声效的饱满度,会让声音听起来更加扎实丰富,不至于因为提升锐度、清晰度而产生干涩感。

除了声音厚度和质感提升,AirPods Max 2 的声音延展比上一代舒服和顺畅。

特别是在用 USB 播放无损音频的时候,信息量增加、声音精度提升时,AirPods Max 2 的声效边缘更加顺畅,没有明显的棱角,听起来更舒服。乐器的发声过程更加完整,乐器的余韵慢慢消失,这个过程更加真实,听起来数码感也降低不少。

声音精度提升的同时,高频听着也不那么刺激和干涩,声音也能多出一些甜味衍生的高级感。

不过,在 AAC 蓝牙编码的限制下,无线会比有线听着稍稍毛糙一点。如果实在家中或工作桌前面想收音乐,那用有线还是会对音质提升有帮助。

稳定的基本盘

从包装到外观设计,AirPods Max 2 延续了系列的整体风格。

上下层天地盖纯白包装展开之后就是装在智能耳机套里面的 AirPods Max 2,耳机没有折叠结构,头梁加上耳机套刚好能够固定在包装内圈中,可以像手提袋一样提起来。

耳机下侧,附带了一条 USB-C to C 的数据线,可以连接 AirPods Max 2 进行充电和音频传输,剩下的还有一些纸质文件。

AirPods Max 2 的配色和上一代一致,苹果还是提供了午夜色、星光色、蓝色、紫色还有橙色这五个选项。机身外观也没有变化,在还没推出新一代专属的特别配色时,你似乎很难分从外观上分清两代的差异。

机身整体也没有太大的变化,AirPods Max 2 用的还是那个整体覆盖着亲肤材质的网状设计头梁,整体重量是 386.2g,放在旗舰定位的头戴式耳机里面还算是比较重的一款。

基于出色的人体工学设计,头梁和偏松软的网状耳罩能够缓解绝大部分的佩戴压力,AirPods Max 2 在保证稳定的同时,佩戴时没有明显的压力生成点,戴着耳机的头活动起来也挺轻松的,和两百多克的索尼 WH-1000X 系列比起来差别不大。

不过,为了保证佩戴的稳定性,AirPods Max 2 的头梁还是会调得有点紧,部分头围较大的用户佩戴时还是会觉得有些夹头。

我个人的话觉得还好,戴着眼镜使用时,松软的耳罩也可以缓解掉压力,佩戴还算舒服。

有一点要提到的是,AirPods Max 2 耳机上的滑槽要比上一代顺滑舒服。以前想带上头再调整会有些吃力,新版就要舒服很多了。

机身设计一致,续航的差别也不大。根据官方数据,AirPods Max 2 和上一代一样都是在开启降噪下能持续播放 20 小时。

新旧款,怎么选

新推出的 AirPods Max 2,定价还是 3999 元,和上一代一样。

降噪更强,声音更加饱满更有味道,听感在保持苹果原有的理智和平衡时多了一些适应大众口味的味道,让这杯「白开水」变成了有一点原生味道的「矿泉水」,更好入口也在味道上多了一些记忆点。

加上苹果设备的原生态全功能支持,还有优秀的佩戴感和时尚属性,它还是目前最适合 iOS、macOS 设备的旗舰级头戴式无线耳机。

如果你不纠结没有蓝牙无损编码,又或者是没有打算在增加手机 USB-C 接口的负担,那现在直接买这款 AirPods Max 2 也没有问题。

这个定论,对于拥有 Lightning 接口版 AirPods Max 的用户一样。

但如果你已经拥有 USB-C 口的一代 AirPods Max,目前对手上耳机的续航、降噪和声音表现都很满意,那现在也不急着升级,等苹果来更大幅度的升级,又或者是真正推出无损编码的时候再考虑也不晚。

「买吧,不贵。」

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

惹众怒!Anthropic 疯狂删库,他连夜爆改 Claude Code 源码拿下史上最快 10 万星

作者 莫崇宇
2026年4月2日 13:53

凌晨四点,韩国开发者 Sigrid Jin(instructkr)被手机震醒。

消息铺天盖地:Claude Code 的底层源码被泄露了,开发者们正在疯狂转发、下载、存档。他的消息列表里全是同一件事。他也在第一时间拿到了那份代码,并上传到 GitHub 仓库。

但未经授权持有、传播一家公司的专有源码,在美国版权法框架下,完全可能构成侵权。他的女朋友也提醒他:你可能要被起诉了。

思考过后,他打开 OpenAI 的 Codex,连夜用 Python 从头重写了一遍,推上了 GitHub。2 小时,突破 50K。单日,超过 110K,成为 GitHub 史上增速最快的项目。

马没跑,马鞍丢了

事情发生在 2026 年 3 月 31 日。

Anthropic 在推送 Claude Code 更新时,打包出了问题。一个本不该公开的文件类型被上传到了 GitHub,这个文件指向内部源码,外人可以直接下载、直接阅读。

正常情况下,Claude Code 的源码是经过混淆处理的,逆向极其困难。但这一次,保护层消失了。

一个名为 Chaofan Shou 的 X 用户最先注意到这件事,截图发出,消息开始指数级扩散。几小时内,开发者们在 GitHub 上创建了超过 8000 份拷贝和衍生版本,每个人都在争分夺秒地把这份代码保存下来。

而要理解这次事件的严重性,需要先搞清楚泄露的是什么。

Claude Code 的底层,是 Anthropic 的 AI 模型,这部分没有泄露。泄露的,是套在模型之上的 harness。

如果说,AI 模型是一匹马,harness 是缰绳和马鞍。模型提供原始能力,harness 决定骑手能否真正驾驭它、指挥它干活。Claude Code 之所以能让开发者用得顺手、效率极高,靠的正是这套精心设计的 harness 体系。

这里面,包含 Anthropic 在工具调用、任务编排、上下文管理、模型行为调校上的全部积累。因此,竞争对手和无数开发者拿到的,是一张无需逆向工程的完整设计图。

后续,Anthropic 的发言人随即回应:此次泄露「没有暴露任何客户数据」,也「没有泄露模型的权重参数」。公司声明将其定性为「打包时的人为失误,不是安全漏洞」,并表示正在推出措施防止重演。

Claude Code 之父 Boris Cherny 也在 X 上简短留言,确认这只是「开发者的操作失误」。

消息发酵后,马斯克也来凑了个热闹,转发网友调侃 Anthropic 现在比 OpenAI 更开放的帖子,并留下一句「太绝了😂」。

DMCA 出手,先误伤了无辜

面对失控的传播,Anthropic 启动了 DMCA 删除程序。

DMCA,即《数字千年版权法》(Digital Millennium Copyright Act),是美国版权保护的主要武器。版权方向平台发出删除通知,平台需在审核后响应,否则可能连带承担侵权责任。

GitHub 作为平台,必须处理这些请求。

Anthropic 初始提交的 DMCA 请求,覆盖了超过 8000 个 GitHub 账号。随后,自己意识到范围过大,把请求收窄到了 96 个账号。

但伤害已经造成。比如开发者 Theo(YouTube 频道 t3.gg 主理人)被「DMCA」了。他的仓库里,根本没有任何泄露的 Claude Code 源码。唯一的关联,是他几周前编辑过一个 skill 的 PR(Pull Request),仅此而已。

「这不是愚人节玩笑,这是对法律的违反,我会全力抗争,」Theo 在 X 上写道,并点名 GitHub,要求撤销 Anthropic 的删除请求。

几小时后,他的仓库恢复了,但他没有收到任何通知。Theo 最终发了一条跟进推文:「看起来像是真实的失误,他们也迅速处理了。」

DMCA 的滥用问题,在开源圈由来已久。

2020 年,RIAA 向 GitHub 发出 DMCA 通知,指控 youtube-dl 绕过 YouTube 的版权保护机制,GitHub 随即下架了该仓库。事后电子前沿基金会(EFF)介入,证明投诉方误读了技术和法律,仓库最终恢复。

GitHub 随后设立了 100 万美元防御基金,专门帮助开发者应对错误的 DMCA 投诉。这一次,Anthropic 这次的大范围误伤,多少让整个开源社区有种似曾相识的愤怒。

维权的节奏,被 AI 降维打击

尽管开发者 Sigrid Jin 的重写行为本身是有争议的,从法律风险规避的角度看,至少比持有原始代码更安全。

他用的工具叫 oh-my-codex(OmX),@bellman_ych 开发的一个工作流框架,底层跑在 OpenAI Codex 上。原始的 TypeScript 代码库约有 51.2 万行,体量不小。

他开了两个模式同时推进:$team 负责并行代码审查,$ralph 负责持续执行和架构验证,迅速完成了从 TypeScript 到 Python 的整体重写。

并且他号称全程没有复制一行原始代码。

这里有个法律上的基本逻辑:版权只保护代码本身的写法,不保护背后的思路和设计。你把一个系统的架构摸清楚了,换一种语言重新实现出来,就像看完一本菜谱,自己下厨做出来,厨师管不着你。

目前,Rust 版本已经在 dev/rust 分支上动工,API 客户端、运行时、工具执行框架、斜杠命令、插件模型这些模块都在计划里。

Sigrid Jin 的仓库最早发的是直接复制的原始代码,上线瞬间,star 数量几乎垂直拉升,2 小时突破 5 万,创下 GitHub 平台有史以来最快达成该里程碑的纪录。

这个 stars 增长速度有多夸张,拿同期的 OpenClaw 来比就清楚了。

OpenClaw 已经是这个时代增速最快的开源项目之一,一个本地 AI agent 框架,在 2026 年 3 月初积累了超过 30 万 GitHub stars,超过了 React 的 24.3 万和 Linux 的 22 万。

React 跑了 13 年,Linux 跑了 35 年,OpenClaw 用了不到 100 天。而就目前的增速来看,claw-code 比 OpenClaw 还快,而且快得多。

更重要的是,AI 的介入也让今天开发者社区的复制、传播、重写速度,已经快到让版权武器有些跟不上节奏了。DMCA 能删掉 8000 个仓库,但删不掉工程师脑子里已经消化掉的架构思路。

以前,把「理解」变成「可运行的代码」需要相当的时间和人力成本,这个时间差,某种意义上是版权执法的窗口期。现在这个窗口几乎关闭了。

理解一套系统的架构,然后用 AI 辅助重写,几个小时就能完成。法律的节奏,和代码传播的节奏,已经完全不在同一个时间维度上。

Claude Code 源码传播到这个量级,早已超出任何版权手段能覆盖的范围。

对 Anthropic 来说,源码泄露本身已经是一件棘手的事。更棘手的,是两层叠加的麻烦。

第一层,是技术上的暴露。harness 的设计细节、dreaming 怎么压缩记忆、undercover mode 什么时候触发、工具调用怎么编排,这些原本的内部设计,现在摆在所有人面前,供所有人参考、复现、改进。

第二层,是形象上的裂痕。Anthropic 走到今天,最引以为傲的就是「负责任的 AI」这块金字招牌。企业客户敢把数据交给它,投资人愿意给出千亿估值,都建立在这个人设之上。但这次乱挥大棒,不仅暴露了技术底牌,更让这块招牌添上了一道难以抹平的划痕。

今年愚人节,Anthropic 送出了最贵的一份礼物。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

十年时间,移动影像抵达「入海口」

作者 周奕旨
2026年4月2日 12:00

1975 年的冬天,柯达应用电子研究中心的工程师 Steven Sasson,在实验室里拼凑出了一台古怪机器。

它重达 8 磅、仅 1 万像素,按下快门后,需听着沉闷的机器运转声等待漫长的 23 秒,才能将一张黑白照片写入到飞利浦卡式磁带里。

面对极低的像素和数据存储速度,Steven Sasson 认为这玩意还需要 15 到 20 年才能真正和胶卷竞争。

之后二十年,影像行业沧海桑田。影像载体加速数字化,并在二十一世纪的头一个十年,终于如 Steven Sasson 所愿,终结了胶卷时代。但那时,相机依旧属于「家庭重资产」,人类还没法随心所欲地拍照,更遑论视频创作。

直到移动影像时代来临。

刚刚发布的 vivo X300 Ultra,搭载第五代骁龙 8 至尊版,抛出了一个令人侧目的规格:全焦段 4K 120 帧 10-bit Log 视频。

此时回头看去,才发现人类用五十年的时间,建造了一条数字大运河,并让每个人都能行船其上。

底层扩容,鲸吞光影

这条运河里奔涌的河水,本质上就是海量的「密集影像信号」。

这个听起来颇为学术、有些距离的词,实际与每个举起手机按快门的人息息相关——

回想一下早年的智能手机,你一定对这样的画面不陌生:高光死白、暗部死黑、色彩断层、帧数不高,还伴随着挥之不去的噪点。

▲ iPhone 4s 拍摄的夜景画面,图片来自@PhoneArena

视觉上的灾难,本质上都是因为底层图像信号处理器(也就是我们更熟悉的 ISP)「咽不下」庞大的信号。

那时的手机只有 8-bit 的量化精度。一旦环境光比超过传感器的承载极限,高光区域的电平就会发生不可逆溢出,变成一片死白;而信号的暗部,则会被 ISP 粗暴地抹平成一团带有噪点的死黑。并且物理级的信息丢失,任何后期软件都无力回天。

这个痛点,比我们想象中更持久。

厂商曾试图用增大传感器面积换取更大的动态范围解决这个问题。但时至今日,在极度受限的机身内部,单纯堆叠物理尺寸的路径已逼近极限,后端 ISP 变得愈发重要。

▲ 手机内部空间已经被影像模组与电池瓜分,图片来自@Notebookcheck

过去很长一段时间,受限于物理规格,手机的算力中枢停留在 14-bit 双 ISP 阶段,随着传感器捕捉的信息愈发庞大,ISP 的数据管道必须随之拓宽。

从 2020 年骁龙 888 引入 14-bit 三 ISP 以应对并发数据,到后来 Spectra ISP 迭代至 18-bit,移动平台将影像数据的处理带宽扩容了 4096 倍。如今,为了承载更密集的影像信号,vivo X300 Ultra 搭载的第五代骁龙 8 至尊版 Qualcomm Spectra ISP 顺理成章地迈入了 20-bit AI 三 ISP 时代。

别小看这区区 2-bit。在数字底层,这个单位的任何变化都呈指数级海啸:单通道色彩的量化层级从 26 万平稳过渡到了 104 万级,为底层数据提供了 4 倍的动态范围余量。

依托这层宽裕的物理基底,vivo 与高通在底层影像管线上,完成了深度的联合调优。

结果也很生猛:X300 Ultra 实现了全焦段 14EV 的动态范围覆盖。

这股庞大的数据余量,被悉数灌注进了两个极其考验底层的专业规格中——Log 格式,与杜比视界。

在 Log 模式下,20-bit AI 三 ISP 负责将传感器捕捉到的线性信号,实时映射为对数曲线。由于底层采样精度的提升,手机保留了更丰富的原始信息,从而在后期调色时能有效抑制色阶断层,扩展了后期处理的边界;而在杜比视界标准下,算力则体现为对动态元数据(Dynamic Metadata)的封装精度。它能够更准确地对准每一帧的亮度与对比度信息,使高光与暗部的 HDR 层次得到如实呈现。

落实到实际体验上,效果也很明显——我们带着 X300 Ultra 去拍摄了一场「热带极光」,凭借 Log 格式极其优秀的动态范围与宽容度,我们在夜半时分记录到离岛的渔船照亮了天际。

经过后期还原后,渐变的天空过渡自然柔和,没有出现色彩断层,噪点抑制表现堪称优秀。

至此,原本属于影视工业的宽容度规格被集成进移动芯片,在底层凿出一条数字运河的航道。普通人也就能随时随地、以手机拍摄出更高规格且具备后期空间的视频,进而有了更多的创作可能。

多摄并发,变焦丝滑

解决了单颗镜头的明暗宽容度,只是完成了静态画面的重构。

但视频的核心在于叙事的连贯性,这就引出了移动影像长久以来的另一个痛点:变焦卡顿。

在拍摄视频时,我们常需要推拉镜头来切换视角。但滑动变焦环时,画面往往会伴随一阵不易察觉的跳动,色彩和白平衡也会发生突兀的偏转。

影像的叙事感,就这样被硬件的迟钝瞬间撕裂。

症结在于手机内部的镜头各自为战。它们素质各异且受控于独立时钟,传统 ISP 的「冷启动」策略只能在变焦瞬间仓促切换。时间戳一旦错位,画面的跳帧与色彩断层便注定发生。

▲ 传统专业摄影中,时间戳的对齐需要参照全球时间

要在移动设备上实现顺滑的变焦推拉,就必须在底层强行打通这些相互独立的硬件。

在 vivo X300 Ultra 实现全焦段高规格视频录制的背后,第五代骁龙 8 至尊版用两套相互咬合的底层机制将硬件扣合起来——

20-bit AI 三 ISP 撑起庞大数据吞吐,让三颗镜头得以在后台保持热并发状态。即使当前只用主摄录制,超广角和长焦的 ISP 通道也已经在后台同步运行着 3A(自动对焦、自动曝光、自动白平衡)算法,为随时上场热好身。

与此同时,第五代骁龙 8 至尊版的高通多摄同步系统(MSCC),扎进最底层的硬件总线,给这些原本各自为战的镜头,强制下发了一个统一的「全局时钟」。

广角、超广角、长焦。

无论它们的物理位置有多远,传感器素质有多大差异,底层的死命令只有一个:

在同一个微秒,同时曝光;在同一个瞬间,读取数据。

时间轴,被彻底锁死。

两套机制并发运行,以此换取 vivo X300 Ultra 跨镜头推拉时,不同传感器之间的数据交接平稳过渡,从而缓解了跳帧与白平衡漂移的痼疾。

专业影像领域如河流般暗流涌动,如果没有坚固巨舰为依托、严密的团队做协同,不得逐浪其中。

如今,底层芯片的算力在小小的机身内部,用数字逻辑管控物理秩序,让没有资金与团队的创作者,也能泛舟而行。

编解码,与算力双向奔赴

在影像领域,长期存在着一个反直觉的「算力悖论」:

在普遍认知中,相机处理器并非性能怪兽,却能吞吐洪流般的超高规格视频数据;我们手中搭载着强悍 SoC、能够高帧渲染游戏大作的智能手机,但在持续的极致影像记录时捉襟见肘。

究其根本,相机的处理器(ASIC)生来只为影像服务;而手机作为复杂的数字枢纽,真正留给影像的算力其实并不富裕。

算力的拮据,逼迫过去的手机不得不向存储空间妥协——普遍采用 H.264 或 H.265 等帧间压缩(Long GOP)格式,只记录关键帧和差异信息。这种做法极大地压缩了体积,却也彻底破坏了画面的物理空间信息。

▲ H.264 编解码原理,图片来自@ResearchGate

没有后期的底气,所有的前期快门都不过是碰运气。

一旦将这种素材导入剪辑软件进行二级调色,哪怕只是轻微拉扯一下阴影或高光曲线,画面立刻会暴露出大面积的马赛克色块与严重的色彩断层。

后期的调色空间被死死锁住,创意的落地、创作的可行,都无从谈起。

随着 vivo X300 Ultra 上市,长期以来的固有认知正在失效,4K 120fps Log 这类专业格式,来到手掌的方寸之间。

除了 20-bit AI 三 ISP 的持续发力,让有着高后期空间、创意可能的格式来到我们手上,此外,编解码器也功不可没——在 vivo X300 Ultra 上,vivo 与高通互相协作,成为国内首个落地 APV 422 编码的智能手机。

APV 采用的是专为非线性编辑(NLE)打造的「帧内压缩」,将每一帧画面的色彩深度与亮度信息独立、完整地封存起来。将 APV 422 格式的素材在达芬奇中调色,画面会展现出相当强的韧性,在应对节点式操作或复杂的 LUT 映射时,也能有效支撑起暗部细节与高光过渡,大幅减少了以往手机视频一拉曲线就出现马赛克与色阶断层的尴尬。

更友好的是,在提供与影视标杆 ProRes 几乎同等极致画质的前提下,APV 的底层编码机制让文件体积进一步降低了约 10%。

在内存价格飞涨的大环境下,编码效率提升有助于创作者开源节流,能省下不少钱。

性能与编解码器技术的双向奔赴,为这条大运河打造了高规格的「数字集装箱」,将信号完整且顺畅地运送到后期工作流,手机得以拥有与专业数字电影机全链路闭环无二的创作潜力。

移动影像抵达入海口

2014 年,vivo 推出 Xshot 拍照旗舰,与 X 超薄、Xplay 大屏两台机型一起组成三位一体产品线。

这台手机搭载 1300 万像素的索尼第二代堆栈式传感器、F1.8 的大光圈、光学防抖和双色温补光灯。而另一个没那么引人注目的配置,是 Xshot 配备的骁龙 801 处理器引入了双 ISP 架构,用以解决快门迟滞问题,并为高频作用的 OIS 光学防抖计算补偿角度,提供算力支持。

▲ vivo Xshot,图片来自@vivo

用底层算力辅助物理防抖的工程雏形,在今天演变为第五代骁龙 8 至尊版上 OIS 与 EIS 极高频数据握手的全焦段防抖链路。

非常巧妙的呼应。

此后十余年,手机影像能力一路狂奔,所产生的数据从溪流汇聚成洪流。 承载汹涌信息的河道,也持续扩容。

回溯至 X100 Ultra,行业首次将 2 亿像素长焦塞入受限的机身时,瞬间快门带来庞大数据拥堵。高通引入认知 ISP(Cognitive ISP),在底层提供了硬件级的实时语义分割与算力冗余,让高像素的数据吞吐不再伴随漫长的处理黑屏,干净利落。

到了确立专业影像基调的 X200 Ultra,战线被推进至更为严苛的暗光 4K 视频。面对极低信噪比的环境,依托骁龙底层的异构计算平台,影像架构完成了从传统 ISP 向 NPU(神经网络处理器)的深度交接。通过将 AI 算力前置到 RAW 域进行帧级降噪,手机终于跨越了小尺寸传感器在夜景视频中的进光量枷锁,实现了干净、可用的动态记录。

每一次前端模组与传感器的激进探索,都在对底层的吞吐能力发出严苛拷问。

如今,在 X300 Ultra 上,这场向底层索要宽容度的漫长工程,终于触碰到了工业级影像标准的边界。

回头,移动影像从「拍到」到「拍好」的河道蜿蜒漫长;前眺,从「记录」迈向「创作」的汪洋近在眼前。

数据洪流激荡交汇,骁龙筑起的河床向宽而行。

移动影像,终于在此刻抵达入海口。

让我有个美满旅程

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

刚刚,OpenAI 创下史上最大融资纪录,估值逼近万亿

作者 莫崇宇
2026年4月1日 06:32

当所有人还沉浸在 Claude Code 源码泄露事件时,OpenAI 又双叒叕出来抢头条了。就在刚刚,OpenAI 官宣完成一轮 1220 亿美元的融资。

单轮私募 1220 亿,人类商业史上从未有过。融资完成后,OpenAI 的估值落在 8520 亿美元,距离万亿只差一步,而这家公司成立至今才十年。

值得一提的是,这轮融资最初在今年 2 月公布时,承诺金额还是 1100 亿美元,最终收盘时多出了 120 亿,说明后来跟进的机构比预期的多。

外界普遍认为,这是 OpenAI 在年底 IPO 前最后一次大规模私募,上市节奏已经越来越清晰。

钱从哪来的

这轮融资的主要出资方,是亚马逊(500 亿)、英伟达(300 亿)、软银(300 亿),软银还和 a16z、D.E. Shaw 等机构联合领投。

微软作为多年老伙伴继续跟投,但这次没有公开具体金额,只知道截至去年底,微软在 OpenAI 的累计投入已经超过 130 亿美元。

此外,OpenAI 还首次通过银行渠道向富裕个人投资者开放募集,这部分筹到约 30 亿。ARK Invest 旗下规模 60 亿美元的旗舰创新 ETF 也宣布纳入 OpenAI,持仓比例约 3%,这也是该基金首次投资非上市公司。

事实上,T. Rowe Price 和 Fidelity 管理的部分基金早已持有少量 OpenAI 股份,这次 ARK 的加入,进一步打通了普通人参与的渠道。

简言之,几乎整个科技圈都在给 OpenAI 撑场面。

但仔细想想,逻辑其实很简单:OpenAI 拿了这些钱,还是要去买英伟达的芯片,租亚马逊和微软的服务器。巨头们把钱投进来,等于提前锁定了全球最大的算力客户。这轮融资,与其说是看好 OpenAI,不如说是一门稳赚的生意。

而对 OpenAI 来说,这笔钱更像是 IPO 前的最后一次大补仓。

账面数据确实好看:每周活跃用户接近 9 亿,付费用户超过 5000 万,去年全年营收 131 亿美元,单月进账最高 20 亿,而且增速是当年谷歌、Meta 这些互联网巨头同阶段的四倍。

只是,OpenAI 还没盈利,烧钱的速度一点没降下来。

为什么要关掉 Sora

这次融资前后,OpenAI 的产品节奏并没有停滞不前。

他们发布了目前最强的 GPT-5.4,在多任务处理和工作流性能上都有明显提升。代码生成工具 Codex 也从一个功能升级成了独立的编程 Agent,目前每周活跃用户超过 200 万,过去三个月涨了五倍,月增速维持在 70% 左右。

企业端的表现同样值得关注。目前企业服务已经占到 OpenAI 总营收的 40% 以上,预计到 2026 年底会和消费者端打平。

API 每分钟处理的 token 数量超过 150 亿,搜索功能的使用量在过去一年接近翻了三倍,广告试点项目在上线不到六周内年化收入就突破了 1 亿美元。这也是 OpenAI 希望向外界传递的信号,收入来源越来越多元,ChatGPT 的订阅费用只是其中一块了。

然而,就在这一片飘红的数据旁边,Sora 悄悄地下线了。

Sora 刚发布时,确实在影视圈和创意行业引发了不小的震动。一句话生成视频,画面质感还挺真实,很多人觉得这是 AI 技术最让人兴奋的那种东西。

但视频生成的算力消耗,远比文字生成高得多。AI 的每一次推理、每一段文本生成、每一帧视频渲染,都在真实消耗着昂贵的 GPU 计算周期和电能。没有免费的智能,每一次调用都是真金白银的损耗。

而用户这边,虽然觉得好玩,却没多少人愿意为此付高价。

根据华尔街日报》报道,OpenAI 之所以选择关闭 Sora,原因之一也是因为它每天要烧掉约 100 万美元,可用户数量却从上线时的 100 万,暴跌到不足 50 万。

当留存数据难看,商业化路径又模糊不清,这笔烧钱的买卖,自然没有继续下去的理由。于是,现实还没被颠覆,Sora 就已经不存在了。

关掉 Sora 只是开始,OpenAI 还在审视其他花钱多、回报慢的方向,准备进一步收缩;把算力集中到文本模型、代码生成、企业服务这些有稳定现金流的方向,也是 OpenAI 在向华尔街表态:我们知道、也需要怎么赚钱了。

从「改变世界」到「水电煤」

OpenAI 成立于 2015 年,最初的愿景是确保通用人工智能造福全人类。

2019 年,为了筹到足够的研发资金,公司转型为「有限盈利」模式,成立了营利性子公司,接受了微软 10 亿美元的投资。运营主体虽然商业化了,但非营利性的 OpenAI 基金会仍持有约 26% 的股权,名义上延续着最初的公益使命。

OpenAI 融资的官方声明里有一句话值得注意:「构建智能本身的基础设施层」。

寥寥数语,其实道出了 OpenAI 自我定位的转变。以前他们更在意用一个个惊艳的 Demo 刷新外界对 AI 的认知,现在更想做的,是退到幕后,成为企业和个人离不开的底层工具。

他们把这个方向叫做「超级应用」,计划把 ChatGPT、Codex、搜索、浏览器等能力整合进一个统一的入口,主要面向开发者和企业用户,让人不用在一堆工具之间跳来跳去。

这背后的逻辑,是让消费者端的习惯自然带动企业端的采购,两块业务互相强化。

一个普通用户可能今天觉得新鲜、明天就取消订阅,但一家把核心业务跑在 OpenAI 模型上的企业,不太可能说断就断,后者才是华尔街真正想看到的那种客户黏性。

过去几年,AI 行业隔三差五就会出现让人眼前一亮的东西,新模型、新产品、新的可能性,一波接着一波。

但从这轮融资和 Sora 被关掉这件事来看,那个充满惊喜的阶段,可能真的要告一段落了。接下来可能更像是一门成熟的生意:有人管算力、有人管数据、有人管销售,大家各守一块,讲究成本控制,讲究商业落地。

OpenAI 已经回不到从前了,但它也许本来就没打算回去。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

国行苹果 AI 一手实测:等了两年终于来了,好用吗?

作者 柯铭源
2026年3月31日 11:22

2026 年 3 月 31 日,距离苹果 50 周年纪念日还剩一天。国行 iPhone 用户的设置页面里,悄悄多了一个选项:「Apple 智能与 Siri」。

没有发布会,没有新闻稿,甚至没有一条来自官方社交媒体的预告。Apple Intelligence 就这样以一种几乎静默的姿态,落在了中国用户的手机上。

从 2024 年 6 月 WWDC 的高调亮相算起,国行用户为这一刻等了整整 21 个月。

爱范儿在第一时间完成了激活和全面实测,先说结论:

体验很「苹果」,但效果很一般。但

如果你期待的是一个能跟 Gemini 或豆包正面交锋的 AI 系统,这不是你想要的。

值得注意的是,这次苹果国行 AI 突然上线可能是一次意外,并非正式发布,目前苹果已经下线这个版本。

一向以苹果爆料闻名的彭博社记者 Mark Guman ,称国行 AI 还没拿到监管批准,他给出了以下理由:

  • 苹果国行 AI 上线,官方不可能没有任何宣传动作。
  • 苹果不会在中国凌晨发布国行 AI 。
  • 它会调用 Google 作为视觉识别引擎,这在中国本就不合理

📢 另据爱范儿最新了解,本次推送是由于软件问题,国行的 iPhone 和 iPad 设备曾短暂地可以下载其他地区适用的设备端 Apple 智能并启用该功能。

在问题出现后,苹果已迅速修复。

据悉, Apple 智能尚未在国行推出,推出时间依监管部门审批情况而定。

国行苹果 AI 怎么激活?

首先,你需要把设备更新 iOS 26.4 系统,然后进入「设置」,会发现原来的「Siri」入口已更名为「Apple 智能与 Siri」。

点击进入,再点亮 Apple 智能的开关,系统开始下载端侧模型。

整个过程需要连接 Wi-Fi,下载时间取决于网络状况,我们实测大约花了十分钟左右。下载完成后,一系列新功能随即解锁。

机型方面有硬性要求:iPhone 15 Pro 及后续机型才能运行 Apple 智能,更早的 iPhone 15 标准版因芯片和内存限制被排除在外。

需要留意的是,部分功能在首批推送中存在激活失败的情况。我们在实测过程中遇到了个别功能无法正常开启的状况,重启后恢复正常,但倒也并不意外。

新功能实测:速度很快,体验一般

打开新的 Siri,最直观的变化是视觉层面,屏幕边缘泛起的柔光替代了过去那个悬浮在底部的圆形动画,整个交互节奏明显更流畅。

Siri 现在同时支持语音和文字输入,这意味着你在会议室或者安静的公共场合也能通过打字跟它交流,不用担心开口说话的尴尬。

语义理解能力有所提升,能处理一些上下文连贯的对话。但在我们的实测中,Siri 的深度对话能力距离 ChatGPT 或者豆包仍然有肉眼可见的差距。

值得注意的一点是大模型调用的问题。

国行版 Apple 智能调用的后端模型情况比较复杂。视觉识别 AI 方面,我们通过 iPhone 16 的「相机控制」按钮实测,调出的视觉识别引擎应该来自 Google。

而在 Siri 的对话和内容生成环节,爱范儿实测发现是有可能调出 GPT 的,网上也有调出百度文心大模型的。

这一点颇为微妙,因为此前业界普遍预期国行版只会接入百度和阿里的模型。具体的模型调用策略,苹果官方尚未给出明确说明,也许跟网络环境高度相关。

写作工具覆盖了系统级文本输入场景,包括备忘录、邮件、信息等原生 App。选中一段文字后,可以调用润色、改写、摘要等功能。

速度是写作工具最令人印象深刻的地方。

由于模型运行在本地,从点击到结果呈现几乎没有感知延迟。在备忘录里选中一段 200 字的草稿,点击「改为专业语气」,不到两秒就输出了完整结果。这种即时反馈对日常使用来说体验非常好。

但端侧模型的能力天花板也肉眼可见。

复杂长文本的摘要有时会遗漏关键信息,语气改写偶尔会产生不够地道的表达。跟调用线上大模型的写作工具相比,它胜在速度和隐私,输在精度和灵活度,在云端模型面前,苹果的 AI 写作工具就像小学生。

Apple 智能下载完成后,桌面会新增一个「图乐园」App。

它支持根据文字描述生成图片,提供素描、插画、动画三种风格。你可以输入描述,也可以直接用照片库中的人脸作为素材,生成带有本人特征的艺术风格图像。

生成速度很快,大约三到五秒就能出图,这得益于端侧扩散模型的优化,但手机会明显发热。

苹果显然没有把图乐园定位成一个专业创作工具,它更像是一个系统级的趣味配件,如果你真要玩 AI 修图,请出门左转选择豆包。

AI 消除是本次更新中最实用的功能。

在照片 App 中打开一张图片,选择消除工具,用手指涂抹需要去除的主体,系统会自动识别并完成消除和背景填充。 好消息是速度快到令人惊讶。

选中、涂抹、消除,整个过程不超过三秒,完全在本地完成。日常清理照片中的路人、电线杆、垃圾桶之类的干扰物,效率极高。

坏消息是,精度不够。

在我们的实测中,AI 消除能够快速识别并去除主体,但细节层面存在明显瑕疵。

放大图片后可以看到阴影残留、边缘模糊、填充纹理不连续等问题。

如果是消除一个背景简单的小物体,效果尚可;但面对复杂背景或者大面积消除,画面破绽一目了然。

跟 Gemini 或者豆包的消除功能相比,Apple 智能的 AI 消除有明显差距。但苹果选择把所有处理放在本地,换来的是隐私和速度,代价就是质量上的折让。

比较私人的照片资料,也许端侧模型用起来会更让人放心一些。

系统级翻译功能现在也被纳入 Apple 智能的体系。

支持实时对话翻译和文本翻译,在信息、Safari 等场景中可以直接调用。响应速度很快,可以提前下载好语言包,实测在 iPhone 或者 AirPods Pro 3 上都能激活。

但在翻译质量上,它跟 DeepL 或者 Google 翻译的差距仍然存在,特别是在长句、专业术语和语境判断上。翻译功能对于苹果来说更像是一个系统级的实用补充,而非要在翻译赛道上跟专业选手竞争。

整体来看,Apple 智能国行版的整体体验可以用两个词概括:快,安全。 快,是因为绝大多数功能运行的都是端侧模型。

文本润色、信息总结、AI 抠图、消除,所有操作的响应速度都非常流畅,没有云端调用常见的等待感。这种「想到即得到」的交互节奏确实是苹果的强项。

安全,则体现在数据处理全部在本地完成,不会上传至云端。

对于隐私敏感度日益提高的国内用户来说,这是一个不可忽视的加分项。你的照片、文字、对话记录不会离开你的设备,这一点苹果做到了。

但「快」和「安全」的另一面,是端侧处理的质量上限。

跟调用线上大模型的竞品相比,Apple 智能在消除精度、文本理解深度、图像生成质量等维度都存在可感知的差距。

苹果在隐私与性能之间做了一个明确的选择,而这个选择的代价,用户在每一次使用中都能体会到。

为什么苹果 AI 迟迟不来?

Apple Intelligence 首次亮相于 2024 年 6 月 10 日的 WWDC24。

那场发布会上,苹果做了一件前所未有的事情:把「AI」这两个字母放进了自己的核心叙事。

在此之前,苹果一直刻意回避这个缩写,更愿意用「机器学习」之类的说法来描述自己的技术能力。但 OpenAI 掀起的生成式 AI 浪潮改变了一切,苹果也不得不正面迎战。

Apple Intelligence 被描述为一个「个人智能系统」,核心架构是端侧约 30 亿参数的小模型加上云端通过 Private Cloud Compute 调用的大模型,底层跑在 Apple Silicon 上。

在那场发布会上,苹果跟 OpenAI 达成了 ChatGPT 集成协议,Siri 在遇到超出本地能力的问题时可以调用 GPT。

2024 年 10 月,Apple Intelligence 随 iOS 18.1 在美国率先上线,随后逐步扩展到英国、澳大利亚、加拿大等英语市场。12 月,更多英语地区获得支持。

2025 年 3 月 31 日,iOS 18.4 更新让 Apple Intelligence 支持了简体中文、日语、韩语等多种语言。

但国行迟迟不来。

苹果最初的计划是在 2025 年中将 Apple Intelligence 带到中国市场,可惜这个时间表几乎从一开始就注定要被推翻。

由于合规要求,无论是苹果自己的云端模型还是 OpenAI 的 ChatGPT 都无法直接在国内使用,这意味着苹果必须找到本地合作伙伴。 苹果先是接触了百度,尝试接入文心一言,但据报道在技术对接和模型表现上遇到了障碍。

随后,苹果转向阿里巴巴。2025 年 2 月,阿里巴巴集团董事局主席蔡崇信公开确认了双方的合作关系。

根据方案,阿里的通义千问将作为 Apple Intelligence 在国行设备上的模型底座,同时负责内容合规审查。阿里还会在苹果的端侧模型之上部署一个审查层,确保 AI 输出符合国内法规要求。

但随着 2025 年上半年,世界局势的急剧变化,以及 AI 行业的迅猛发展,苹果的国行 AI 也从「行货」变成了「期货」。 此后,国行版 Apple Intelligence 的上线日期经历了多次推迟。

最初锚定 2025 年中,推迟到 iOS 18.6(2025 年夏),再推迟到 iOS 26.1、iOS 26.2、iOS 26.4。

2025 年 11 月,彭博社记者马克·古尔曼在 Power On 专栏中直言,国行版落地「遥遥无期」。

他指出,除了监管问题之外,Apple Intelligence 本身的工程进展也不顺利,模型性能未达预期。

最新的消息是,苹果计划在 iOS 27 中开发 Siri 的第三方 AI 接口,同时与 Google Gemini 深度合作,双管齐下来提升苹果 AI 的使用体验——但这种把半条命交给合作伙伴的做法,也意味着苹果在这轮 AI 大模型的军备竞赛中已经输了。

苹果能做的,就是牢牢把住 AI 硬件的入口——数十亿级的苹果生态设备。

这也是为什么,国行 Apple 智能必须尽快推出的原因,苹果要赶在 WWDC26 之前,完成全球范围的布局,为 AI 时代的 App Store 扫清障碍。

2026 年 3 月 31 日。距离苹果成立 50 周年的 4 月 1 日恰好只剩最后一天。苹果在 3 月下旬刚刚宣布了创业 50 周年纪念活动,Tim Cook 发布公开信回顾公司 50 年的历程,全球多地 Apple Store 举办了特别活动,爱范儿也受邀参加了苹果在成都和上海的特别演出。

就在这个时间窗口里,Apple 智能悄悄降临国行设备。 苹果没有解释为什么选择这个时间点,也没有给出关于合作模型、审批进展的任何官方说明。但时间节点本身已经足够说明问题:

在迈入下一个 50 年的门槛上,苹果大概不希望自己最大的海外市场之一仍然被排斥在 AI 时代的门外

图自彭博社

从商业角度看,这也合理。中国市场的 iPhone 销量在过去两年持续承压,Tim Cook 本人多次在财报电话会上承认,Apple Intelligence 的缺席是国行 iPhone 竞争力下滑的原因之一。

与此同时,华为、小米、OPPO 等国产厂商早已在 AI 功能上全面铺开,部分品牌还陆续接入了 DeepSeek 和龙虾,体验差距越拉越大。

苹果需要这个功能落地,而且需要在 50 周年这个全球瞩目的节点上落地。

把 Apple 智能放回它该有的坐标系里来看:它不是一个要跟 ChatGPT 或 Gemini 争夺「最强 AI」头衔的产品,它是苹果把 AI 能力融进系统层的第一步。 端侧模型带来的速度和隐私优势是实实在在的。

对于普通用户来说,能在本地完成文本润色、照片消除、信息摘要这些日常操作,不需要把数据交给任何云端服务,这件事本身有价值。

但如果你已经习惯了豆包、Kimi、DeepSeek 这些国产 AI 产品的能力水准,Apple 智能目前的表现大概率会让你觉得「就这?」。

端侧模型的参数量级和推理精度决定了它的上限,苹果在隐私和性能之间做出了清晰的取舍,而你需要判断这个取舍,是否符合你自己的需求。

等了快两年,Apple 智能终于来了。它迟到得太久,以至于我们对它的期待已经从「改变游戏规则」降到了「先能用再说」,但它确实来了。

在苹果 50 岁生日的前一天。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

实测 PixVerse V6 暴力出片:快,才是最贵的

作者 莫崇宇
2026年3月31日 10:00

我输入了一段 prompt,按下生成。手还搁在键盘上呢,视频已经出来了。

画面前景是一杯冒着热气的黑咖啡,背景模糊;随后焦点平滑转移,清晰展现出背景中一位翻阅旧书的女孩。

改了两个词,把光线方向调了一下,再按一次。又出来了,质感没掉。提示词写得很随意,就是脑子里的画面用大白话说了一遍,没有刻意堆关键词,模型全听懂了。

▲提示词:前景是一杯正在冒着热气的黑咖啡,占据画面主导位置,背景模糊。随后,镜头焦点自然地转移到背景中,清晰地展现出一位正在翻阅旧书的女孩。

这是 PixVerse V6 给我的第一感受。不是「效果好」三个字能概括的,准确说是「这个效果,居然这个速度就出来了」。

PixVerse 出片快,这件事圈里不算新闻。大多数 AI 视频工具还在用排队考验耐心的时候,PixVerse 已经是同类里生成速度最快的选手。在 Artificial Analysis 的视频生成模型排行榜上,PixVerse V6 更是处在第一梯队。

不过如果 V6 只是「更快了一点、画质更好了一些」,那它只是一次常规迭代,不值得单独拿出来聊。

V6 做的事情,是把「快」从一个技术参数,变成了一种创作层面的结构性优势。指令理解强了,提示词不用反复打磨;画质也更稳了,这些环节省下来的时间叠在一起,比单纯的生成速度提升值钱得多。

换句话说,当出片质量够稳定、速度够快,创作者的瓶颈就不再是工具,而是想法本身 。AI 没有让创作者贬值,它反而让好想法比以前更值钱了。

不只是快,每一帧也经得起放大看

PixVerse V6 的操作本身没有任何门槛,新手也能轻松上手。

打开拍我 AI(网页端地址:https://pai.video),在输入框里用自己的话描述想要的画面,选好分辨率、画面比例和时长,点生成就行。支持 360P 到 1080P 输出,横屏竖屏都能选,单次生成时长可以自己控制。

V6在指令理解上有了肉眼可见的进步,只需简单描述创作意图就足够,无需堆砌专业术语,它明白你要的是什么光线、什么氛围、什么景别,这也导致省下的不仅是时间,还有反复推敲提示词的精力。

也支持上传参考图。想还原某个风格、想锁定角色长相,把图扔进去就行,模型会参照着生成。

▲演示生成过程

V6 最让我意外的进步在于物理仿真。

我试了一段微距镜头。金黄色蜂蜜缓慢滴落,拉出晶莹的丝线,落在松饼上缓缓散开。丝线被重力拉细,接触面的扩散速度也和蜂蜜的黏度匹配。

它有重量,有重力,有因果。

▲提示词:微距镜头。高粘度的金黄色蜂蜜正缓慢地从木质搅拌棒上滴落,拉出长长的、晶莹剔透的丝线,最后重重地落在下方刚出炉的松饼上,蜂蜜在接触面缓缓散开。画面具有极强的真实物理运动逻辑。

以前 AI 视频里的物理世界是「会动的像素」,V6 里的物体在遵守物理定律。这一点的意义超出视觉层面。我们判断一个画面真不真,靠的是一种直觉:这杯水倒出来的方式对不对?这滴蜂蜜落下的轨迹合不合理?V6 在这个层面上交出了一份像样的答卷。

物理仿真解决的是世界真不真实,而人像质感解决的是人的质感对不对。

这是 AI 视频最容易翻车的科目。稍有不慎就是恐怖谷。五官精致但表情僵硬,皮肤光滑但质感像硅胶,眼睛很亮但眼神没焦点。你能认出这是一张脸,但直觉会告诉你,这不是一个人。

V6 在这方面让我重新有了新的审视。一些圈内创作者拿它和 Seedance 放在一起比,结论基本是:两者互有胜负,很难说谁压过谁。

我试了一段中年男性演员的面部特写,他正努力克制哭泣的冲动,浅景深,柔和侧光。出来的结果很难让人移开视线。鼻翼轻微颤动,眼角湿润,这几个动作之间有时间差,有层次,有内在逻辑。

这种微表情的层次感,让人物开始有了一种 AI 演员的即视感。对比之下,以前 AI 人像的情绪更接近「状态切换」,V6 里的情绪有了过程。皮肤质感的取向也值得单说——肌理,毛孔、细纹、光线下的皮肤色差都保留。

打斗戏是 AI 视频的体能测试。

拳头要打在正确位置,被打的人要有合理反应,身体运动惯性要连贯,多角色空间关系不能穿模。任何一个环节崩了,就变成搞笑视频。许多 AI 视频模型的生成结果要么是两个人在做体操,要么挥拳的手臂穿过了对方的脸。

在体验 V6 的过程中,我生成了一段大雨滂沱的泥泞小巷里,两名武术高手正在激烈近身肉搏的场景。一记重拳击中对方下颚,雨水和汗水随冲击飞溅,受击者的面部肌肉因冲击力产生真实的震颤。

画质之外,真正让我兴奋的是 V6 补齐了一套镜头语言能力。

变身特效方面,我生成了一台科技感极强的机械无人机在空中急速飞行,随后快速从金属形态幻化为一条由流动墨水和水墨线条组成的、散发幽蓝光芒的水墨神龙。

▲提示词:中国风动漫风格,无人机在飞行过程中快速从金属形态幻化为一条由流动的墨水、墨点和水墨线条组成的、散发着幽蓝光芒的水墨神龙。

过渡自然,没有常见的像素闪烁和边缘残影。金属的硬度和水墨的流动之间有一个过渡状态,两种质感都没有被粗暴切断,整个变身过程更接近融合,而非替换。

运镜能力同样有惊喜。电影级航拍视角下,一台无人机在废弃的、生锈的工业厂房内部急速穿行。厂房的空间感、金属质感的光线处理、高速运镜时画面的稳定性,三件事同时做到位,没有出现 AI 常见的那种「不知道该看哪」的混乱感。

▲提示词:电影级航拍视角,现实主义风格。一台无人机在废弃的、生锈的工业厂房内部急速飞行。

还有一个方向是子弹时间。黑客帝国式的视角旋转,主体定格,背景动态延续。这类镜头对时间感的控制要求很高,稍有偏差就会变成慢放,V6 处理得比较克制,速度分层是有的,没有用力过猛。

我还试了两个对空间穿越要求更高的场景。第一个是课堂。无人机视角从走廊切入教室,镜头跟着这股气流穿出教室,拉到整个校园上空。试卷和白纸被气流卷起,满天都是,运镜轨迹却没有断。

第二个是蜜蜂从窗缝挤进来,穿过卧室、客厅,找到厨房里的蜂蜜罐再飞出。每个房间光线和景深都不同,换场时蜜蜂飞行惯性有轻微滞后,和真实昆虫的节律对得上。

多镜头切镜可能是对实际工作流贡献最大的能力。一段时尚女装广告短片,三个镜头的衔接流畅,色调温暖统一,没有 AI 的拼凑感。

还有三个我比较喜欢的运镜和场景调度的测试。

比如一架纸飞机在维多利亚式书架间起飞,书本跟着腾空排成隧道,随后场景切进脑内微观世界,神经元在半透明星云状组织里闪着荧光,像缩小版的银河系。

同样是纸飞机在图书馆迷宫里做非线性飞行,俯冲、侧滑、擦边过障碍,镜头紧紧跟随,转弯时有强烈的侧滑感,没有糊掉。

前脚还是琥珀暖色的图书馆,进入脑内世界后立刻切成深蓝和深紫,但因为运镜没有断,切换反而变成了一种视觉冲击,并不突兀。

这些能力单拿出来每一项都是加分项。组合在一起,意味着 V6 开始具备完整的镜头语言能力了。

最后一个让我印象深刻的点,不是画面,是声音。

V6 在开启 Audio 之后,音频适配有了明显增强。我试了一段微缩模型视角的场景:远处火山正在喷发,小人国村民四散奔逃,一只巨大的手拿着透明碗从天而降,将整个村庄罩住,透明碗落下的瞬间带着空气被压缩的细微震动。

特别是 ASMR 类场景。下雨天的窗户、篝火噼啪声、书页翻动。这些画面本身就追求沉浸感,音频质量直接决定你是在看视频还是沉浸在场景里。

一个人暴力出片叫效率,一群人暴力出片叫生产力

如果 V6 只是一个更快更好的 AI 视频模型,故事到这里可以收尾了。但 PixVerse 显然不打算只讲到这里。

据了解,这次同步上线了两个东西:Team Plan 和 Mini Apps。

Team Plan 是给 2 到 15 人的工作室用的。核心机制很简单,团队共享一个积分池。

不再是每人一个账号各算各的,而是整个团队统一消耗,按角色分配权限。老板看全局,创意总监管项目分组,剪辑师专注出片。个人空间的素材和模板一键同步到团队空间,不用在群里来回传文件。

听起来不复杂,但解决的问题很真实。以前工作室用 AI 视频工具,就是每人开各自的账号,出了好素材在群里互传,版本管理靠文件命名加日期。这跟十年前用 U 盘传 PPT 没什么本质区别。

Team Plan 做的事情,就是把 AI 视频从个人工具升级成了团队生产线。一个人连出十条挑最好的叫个人效率,五个人各出十条,五十条里挑一条炸裂的,叫团队生产力。

Mini Apps 走的是另一条路。使用方式简单到不需要解释:上传几张商品图,系统自动帮你剪成一条完整的广告视频。不用懂剪辑,不用知道什么叫镜头语言。

一个淘宝店主、一个小红书博主、一个街边奶茶店老板,都能在几分钟内拿到一条可以直接发的产品视频。

V6 模型是给创作者的武器,Mini Apps 是给所有人的傻瓜相机。当创作门槛被压到零,暴力出片就不只是创作者的方法论了,它变成了人人能用的基础设施。

快,才是最贵的画质

画质够好,速度够快,成本这道关也值得单独说一说。

720p 分辨率常态成本大概为每秒 0.04 美元,放在当前市场里已属低位,对应的却是第一梯队的生成质量,4 月 7 日前购买会员至高打七折,生成时积分消耗再减免 30%,进一步把规模化出片的成本压了下来。

这让我想到摄影从胶卷到数码的变化。

胶卷时代一卷 36 张,按一次快门前得在脑子里构图三分钟,因为每一张都有成本,但快门本身的质量没有区别。数码时代的摄影师怎么拍?因为每一张都清晰、都够用,所以可以连拍 200 张,事后选构图最好的那张。没人会说这「不严肃」,因为最终给观众看的永远是那张最好的。

V6 让 AI 视频创作进入了这种「数码时代」。

而 PixVerse 对「快」的理解,也早已超出了生成速度本身。

从早期的高速生成,到 R1 的实时交互,到 V6 的强指令理解让描述变得更自然,再到 Team Plan 把协作效率拉到团队量级,这条线串起来,体现的是 PixVerse 在多个维度上同时提速:生成速度快、指令理解准确、协作效率提升。

支撑这一切的,是PixVerse扎实的模型迭代能力。

能在排行榜上持续保持第一梯队,靠的是每一代产品都在扎实啃硬骨头,物理仿真、人像质感、镜头语言,每一项都是难而正确的方向。V6 的初衷很纯粹:让创作者把精力放在创意上,其余的交给工具。

当一个工具把高质量的生成变成了触手可及的日常,又把使用门槛压到零、把协作效率拉到团队级别,它就不再只是一个「模型」了。它正在变成内容时代的基础设施。

PixVerse V6 开启了 AI 视频的暴力出片时代,快到不讲道理,好到能直接交片。

这个时代才刚开始。

作者:李超凡、莫崇宇

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

vivo X300 Ultra 影像评测:影像手机,终于成为相机

作者 周奕旨
2026年3月30日 20:30

今天,vivo 一口气交出了两份旗舰手机的答卷:除了主打全能的 X300s,更重磅的看点,是当家影像旗舰 X300 Ultra。

在移动影像卷生卷死的时代,一台被官方冠以「影像灭霸」和「V 单」称号的手机,拿出了它打磨三代后的版本答案:两颗 2 亿像素摄像头,翻倍到 400mm 的增距镜,和前所未有的专业视频模式。

过去一段时间里,爱范儿深度体验了 vivo X300 Ultra,我们试图从一个摄影师的视角,去理解 vivo 关于移动影像的最新答案。

比 2 亿像素更好的,是 2 亿像素加倍

一台设备能不能拍好照片,首先取决于你愿不愿意带出家门,上手 vivo X300 Ultra 的第一时间,我们照例看看它的外观设计。

总得来说,X300 Ultra 基本延续了一贯的家族式设计,但在小细节上有所不同——手机中框采用四曲包边设计,手感比较柔和;手机背部的影像 Deco 增加了一个比边缘略小一圈的火山口过渡,在视觉上起到收拢作用;刻度纹依旧保留,为 Deco 保持精致。

在凸起的影像 Deco 中,vivo X300 Ultra 搭载了以 14mm 超广角、35mm 主摄以及 85mm 长焦,基本保持前代的焦段方案,彻底夯实「手机大三元」战略。

维持住经典焦段组合的同时,这套「大三元」迎来了本次最核心的升级:主摄与长焦双双跨入了 2 亿像素大关——这也是 vivo 自 X100 系列首次采用 2 亿像素镜头后,又一次加码押注 2 亿像素。

在手机刚搭载上亿像素的传感器时,有一个「像素陷阱」——

在当时的语境里,画面质量更多取决于传感器大小,单纯堆砌像素只会被视作糊弄外行的数字游戏。

但当手机内部空间已经极大让渡给影像,传感器尺寸大到足以支撑高像素时,用高像素换高画质,就成了唯一行得通的路径。

对于日常拍照来说,高像素最核心的意义,就是给了你后期随意裁切的物理底气。 35mm 1/1.12 英寸主摄和 85mm 1/1.4 英寸长焦的超高像素为传感器提供了宽裕的画面保留空间,就算你拍完之后只截取画面中心的一小部分,细节依然扎实。

不过,2 亿像素更多还是象征意义,毕竟日常出门很少有人愿意顶着 2 亿像素的巨大文件体积连续按快门。

因此,vivo 设定了更实用的输出逻辑:系统默认拍摄 1200 万像素,同时开放 2500 万和 5000 万像素的档位供你手动选择。

更高像素带来的增益是明显的,用 5000 万像素拍下的照片,画面的清晰度会跟 1200 万像素拉开肉眼可见的差距。

抛开高像素的硬指标,色彩是这台机器的另一大看点。

新加入的「浓郁」与「追光」风格,色彩逻辑分别脱胎于理光的正片与负片。这两套风格极具辨识度,配合高像素的扎实细节,实拍质感相当抓人。




之前几代产品,2 亿像素传感器依然存在一些优化问题——虽然解析力高,但处理画面所需的等待时间长,很打断拍摄的流畅度。

在这一代上,vivo 优化了体验上的问题,将处理管线放在了相册后台中,拍摄时不会再有阻塞感。

除了两颗 2 亿像素外,vivo X300 Ultra 的焦段还得到了进一步拓展——前代,vivo 专门设计了一颗外挂增距镜,将手机的光学焦段拓展到 200mm,而在这一代上,vivo 首先是将 200mm 的增距镜瘦身到比一管口红还小,与此同时,加入了一枚堪称疯狂的 400mm 增距镜。

用起来怎么样?

实话说,非常挑,也非常好——

400mm 增距镜的主要场景,还是聚焦在演唱会等特殊环境。如果你打算带着它去扫街,很抱歉,在高楼密布的街道里,400mm 的焦段会让画面非常逼仄,几乎没有用武之地。

而如果你将它带去打鸟,面对真实的生态场景它也稍显局促,若是在复杂环境中,将焦段裁切到 800mm 的话,很容易失焦——无论是对手机,还是对摄影师的手,都提出了更高的要求。

但从成像效果来看,400mm 的增距镜也确实带来了更极致的长焦表现,尤其是在演唱会这样的特化场景里:

顺带一提,即便在挂上增距镜的极限状态下,实况照片功能也并没有被阉割。这让你在演唱会等特殊场景中,多了一种更鲜活的记录手段。

除了实况照片,我们还非常推荐在使用 400mm 增距镜时打开 2500 万、5000 万甚至 2 亿像素档位,会让解析力更进一步。

话说回来,虽然目前体验尚有瑕疵,但我还是想肯定 400mm 的意义——常话说「拍到比拍好更重要」。影像最基础的底线是记录,在「彻底拍不到」和「画质有点糙但拍到了」之间,答案根本不需要犹豫。

相机交互更好了,但没到最好

相机交互设计,是所有影像旗舰手机都面临的老大难问题——相机功能太多、但屏幕位置太少。

对于把影像能力推到极致的 vivo X300 Ultra 而言更是如此。

在这一代上,vivo 重新设计了整个相机 UI,二级菜单逻辑变化尤为明显。

在往代机型上,二级菜单(与拍摄相关的设置)都放在屏幕顶部中。而在 vivo X300 Ultra 上,二级菜单图标放到了取景框的右下角,也就是焦段选择的右边,图片比例、倒计时、原生光影和抓拍等设置都在其中,而顶部则保留了闪光灯、实况照片、微距、两亿像素开关这类与实时拍摄关联性更强的设置,方便用户快捷操作。

不过,表面的重构没能理顺底层的臃肿。新 UI 里依然充斥着逻辑冗余:取景框右下角已经常驻了「抓拍」和「风格」按钮,滑开二级菜单,它俩居然还在占位置。

为了应对这种混乱,vivo 开放了自定义权限。通过二级菜单最末尾的「编辑」功能,你可以手动增减、重排各个区域的快捷键,借此来适配自己的拍摄习惯。

iPhone 的诞生,让手机一举迈向智能机时代。此后,所有的交互都逐渐搬移到屏幕上。这对影像而言,这其实不算好事。

专业相机功能繁杂,作为应对,厂家用花样繁多的物理按键来给多样化的功能安家——按键、旋钮、拨杆……不一而足。但对于手机而言,物理按键的消失是既定趋势,日益复杂的功能被塞进了一块玻璃屏幕里,只能靠一层层的二三级菜单承载五花八门的设置。

更何况,这一代 X300 Ultra 还砍掉了普通用户风评不算好的操作按钮和相机控制按钮,实体按键更少了,屏幕操作空间也更局促了。

但交互上的冲突并非没有办法解决,在分析 iOS 26 的 UI 设计中,我们就找到一个不错的方案:https://mp.weixin.qq.com/s/6hM-gYyafpdEOzDK_1gFKQ

相较静态照片来说,vivo 为视频专门设计的「专业录像 Pro 模式」,显得自洽很多。

在录像模式的录制键右侧,出现了一个写着「Pro」的录像机图标,点击这个图标,就进入了专业录像 Pro 模式。

将手机横置后,这套专业界面的排布逻辑显得非常清晰。 左手边主要负责全局控制,依次是模式设置、预览切换、增距镜开关及退出键;

右手边则完全留给了核心操作,集中排布着视频规格、曝光补偿(EV)、焦段、对焦以及二级设置入口。

视线回到取景框,顶部干净地罗列着分辨率、帧率、快门、ISO 与色温等关键参数;底部两侧则留给了监看工具——左下角实时显示麦克风收音电平与剩余存储空间,右下角则是直方图与电量状态。各功能区互不干扰,井井有条。

实际体验下来,专业录像 Pro 模式的完成度相当高。快门、ISO 与白平衡均支持自动与手动双轨控制,防抖与画幅等基础功能一应俱全,内置的峰值对焦也极大降低了手动跟焦的门槛。

右侧菜单顶部预留了 Log 与 Rec.709 的快捷切换键,不仅支持官方 LUT 实时监看,还能直接导入你个人常用的 LUT 文件预览最终成色。

可以说,在专业录像 Pro 模式下,vivo X300 Ultra 已经具备了一定的生产力。

这几年打磨下来,靠着高像素和生猛的外挂长焦,vivo 在静态拍照上确实稳住了基本盘。

而随着专业录像 Pro 模式的加入,意味着 vivo 开始向视频生产工具探路。除了最高 8K 的录制规格,这台机器放开了全焦段的 4K 120 帧 Log 选项,为后期留足了明暗拉扯的宽容度。

至于它的实际表现如何,后续我们还会有一条体现 vivo X300 Ultra 视频性能的短片,大家可以一见分晓。

影像手机,终于成了相机

在文章的最后,我想提一个手机之外的有趣事情。

拿到这台 vivo X300 Ultra 时,编辑部里的人不少。每一个拿起手机的人,第一反应总是看看增距镜、拿在手上体验体验、拍一拍,没人再去纠结配置。

看待影像旗舰手机的视角,已经出现了微妙的转变。

过去几年的手机影像评测,大家习惯性死磕几个数字:底有多大、单像素面积多少、进光量提升了多少。

但发展到今天,物理限制促成了一种共识:手机内部的空间见顶了,在厚度与重量的死局里,传感器很难再变出违背物理法则的戏法。

这种不再纠结参数的心态,和我平时拿起一台真正的相机时如出一辙。作为一个影像创作者,当我摸到一台新的全画幅或 APS-C 微单时,根本不会去查阅它的 CMOS 规格表。

我心里很清楚,全画幅就是全画幅,半画幅就是半画幅,它的基础画质上限就在那里,不会突然跳出一个颠覆认知的奇迹。

相对的,拿到相机后,我只关心「干活」的体验:机身握持是否扎实?菜单逻辑符不符合直觉?配套的镜头群到底好不好用?

毕竟相机从来不是一块孤立的 CMOS,而是由镜头群、色彩科学和专业工作流构成的完整系统,而这恰恰是 vivo X300 Ultra 的发力方向——用 400mm 增距镜丰富物理焦段、用克制的算法取代粗暴的暗部提亮,再加上电影机规格的录像界面。

vivo X300 Ultra,正试图从单纯的硬件堆砌,进化成一套能打硬仗的影像系统。

也正是因为如此,我看待这台手机的逻辑也有了变化——全新的 UI 界面,在拍摄时会不会让我手忙脚乱?系统各项高频功能,呼出够不够顺手?400 毫米增距镜,能不能帮我在复杂环境里带回有用的画面?

vivo X300 Ultra 并不完美——

作为一台相机,它的交互依然有繁冗之处,极端焦段的体验也还在打磨。

作为一台手机,它的硬件配置已经不再让人纠结,取而代之的,是摄影师挑剔的眼光。

当我们以相机的要求,去审视一部手机的操控逻辑、镜头搭配和界面自洽时,事情就已经悄然发生变化——

手机摄影在我们都没察觉的时候,已然跨过靠参数搏杀的门槛。

让我有个美满旅程

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

内置小米澎湃秒充协议,为米粉而来!制糖工厂正式发布 2026 款硬糖 C³ Pro

作者 制糖工厂
2026年3月30日 14:23
2026 年 3 月 30 日,制糖工厂正式发布了 2026 款硬糖 C³ Pro。作为制糖工厂彻底研究过用户困扰与麻烦后打造的最新力作,这款被誉为「懂行之选」的充电器集极致便携、智能调度与高性能输出及全面协议于一体,将三口充电器做到了极致。

专为米粉升级:内置澎湃秒充,打破协议壁垒

一直以来,第三方充电器对私有快充协议的支持是用户的痛点所在。针对这一困扰,2026 款硬糖 C³ Pro 特别内置了小米澎湃秒充协议,真正“为米粉而来”。

这意味着,小米用户在享受多口充电器带来的便携与高效时,终于不用再向充电速度妥协。硬糖 C³ Pro 真正打破了市面上常见的「鸡血头」模式,能够做到以一抵三,轻松搞定包含小米手机在内的数码全家桶,提供满血快充体验。

长期主义之选:支持 OTW 云配置

买充电器最怕协议过时。2026 款硬糖 C³ Pro 是继硬糖 A 充、硬糖 C³ 之后,又一台可通过制糖工厂原创 OTW(Over-The-Wire)云配置进行无网升级的硬糖充电器。

它不仅可以独家定制包括小米、华为、三星等在内的多设备专属充电模式,还能在未来持续升级如 UFCS 2.0 等新兴充电协议。真正做到「一次购买,长久省心」,是践行长期主义的绝佳选择。

你可以通过 AI 小电拼,或使用 OTW 快充助手搭配电脑,对 2026 款硬糖 C³ Pro 进行云配置。

拒绝“伪智能”:自研 TimiC 2.0 时序调度

为了追求更快、更稳、更省心的充电体验,2026 款硬糖 C³ Pro 依旧搭载着自研的 TimiC(Timing intelligent Charge)时序调度 2.0 充电方案。

  • 打破常规: 彻底改变了传统充电器“仅在拔插时按功率分配表分配”的死板逻辑。
  • 毫秒级响应: 当新设备插入时,系统能实现毫秒级的快速响应。
  • 全程动态优化: 在整个充电过程中,实施全程时序调度,每 60 秒进行一次动态功率分配策略优化,带来真正高效、精准的多设备调度体验。

 

极致小巧与性能怪兽的完美结合

除了强大的内核,2026 款硬糖 C³ Pro 依然保持了制糖工厂一贯的复古美学与硬核性能:

  • 极致便携的“颜霸”: 致敬经典博朗风格,机身尺寸仅与 AirPods 相当。配合可折叠插脚与独特的垂直力学结构,轻松放入口袋,不仅插墙稳固不松脱,更是差旅出行的最优解。
  • 三口持续满载: 采用三路独立电路设计,支持最大 68W 总输出,手机、电脑、平板同时充。
  • 双核快充,冷酷输出: 支持两档 PPS 快充(67W/55W),并且是当下少有的支持 AVS 低温动态快充的多口充电器,实现 AVS+PPS 双核快充,苹果安卓设备都不掉链。
  • 硬核安全指标: 领先同级的 0.918 W/cm³ 功率密度;并搭载全新散热架构 2.0,将温控保持在远低于国际安全限值的水平,悉心保护设备电池健康。

 

选购指南:硬糖 C³ 系列怎么选?

随着 C³ Pro 的发布,硬糖 C³ 系列现提供两款精细化选择,皆配备 3 个 USB-C 接口、支持笔记本 68W MAX 快充,且 C2 口均支持 OTW 云配置持续进化。用户可根据自身的主力设备进行挑选:

  • 硬糖 C³ Pro —— 小米用户的更优选择
      • 适用人群: 小米主力机用户。
      • 核心优势: C2 口特别搭载小米澎湃秒充协议,完美握手小米/Redmi 全系 67W 快充,充电时可触发 67W MAX 金标动画,充电速度媲美小米原装充电器。
      • 兼容生态: 在澎湃秒充的基础上,仍支持 PD 协议,苹果手机快充可达 40W MAX(可通过 OTW 配置为 AVS 模式),PPS 与小米澎湃秒充双核双持,一个充电头即可搞定跨品牌全家桶。
  • 硬糖 C³(标准版) —— 苹果/安卓省心之选
    • 适用人群: 适合手持 Apple、三星、华为、OPPO、vivo 等多品牌设备的“全家桶”用户。
    • 核心优势: C2 口原生支持 AVS / UFCS 等快充协议,苹果手机快充 40W MAX 且支持 AVS 低温动态快充,兼容市面绝大多数苹果/安卓机型,充电不掉链。
    • 注意事项: 小米手机用户使用此款时支持 PD 协议(24-55W),但不支持小米澎湃秒充。

 

2026 款硬糖 C³ Pro 已于今日正式开售,首发价 ¥229,可于制糖工厂各大官方渠道购买。

关于制糖工厂

制糖工厂CANDYSIGN 是一个专注极致美感和灵活多用电能产品的先锋品牌。秉承「好产品就是一颗糖」的理念,我们融合科技、艺术与时尚,服务全球最具创造力和生产力的个体,打造兼具审美与人文关怀的「明日产品」。以灵活技术与前瞻设计为驱动,我们专注于可持续发展,持续探索数字电能的无限可能。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

❌
❌