普通视图

发现新文章,点击刷新页面。
昨天 — 2026年4月14日首页

数字排毒,我们这代人的赎罪券|硬哲学

作者 杜晨
2026年4月14日 10:52

很少有 MacBook Neo 评价两极化这么夸张的苹果产品。

有人说它性能完全不够,靠 logo 骗预算不够的小白;有人却说它是近年来苹果最务实的诚意之作。

剥离掉对跑分性能和极致的生产力上限的执念,你会发现,已经很久没有一款科技产品,剔除冗余的性能溢价,也不做不切实际的承诺。你不应该买它,除非你真的需要。

在 MacBook Neo 的身上,有一种真正的「极简主义科技」意味,因为它回应了用户真实需求,也没有人为阉割来制造所谓的极简感。

今天爱范儿这篇专栏文章,想要探讨真正的「极简主义科技」究竟是什么。

我在 Reddit 上看到了很多帖子,描述想象中的极简主义科技生活:主力机是 Light Phone 3 代,这台「笨手机」(dumb phone) 售价 699 美元;一台 iPod Classic 用来听歌;一台十年前的数码相机用来拍照;当有灵感需要记录的时候,他会从自己的「离线包」里掏出手账本……以此类推。

每一个智能手机具备且经常使用的功能,都被分散到一台单独的设备或道具上。日常出街的家伙事,足足三斤重。

帖主给这种状态起了个名字:Inconvenient Maximalism,不方便的极繁主义。

对了,这个「离线包」(analog bag) 也是前段时间洋抖 (TikTok) 上爆红的最新趋势,成千上万的视频,巨大的流量。它指的是一个装满「离线物品」的包:胶片机/CCD、随身听、有线耳机、毛线针和线团、手账本与纸质书……大意是说,当你出门时完全可以把手机扔下,用这包东西打发时间。

我很喜欢的一个「反消费主义者」YouTube 博主 Levi Hildebrand,是这么评价「离线包」的:

手机能做一百件事。所以你不带手机就需要一百样东西来替代它,结果就是你的包包越装越重。

然而更讽刺的是,这些博主明明带着手机,背着包包到处跑,几十个场景机位来回切换,拍出视频……就是为了发到网上,再忽悠他们用自己的返佣链接下单去买这些 CCD、随身听、耳机、毛线针、手账本?

如今的消费主义,已经堕落到这种程度了?为什么这些热衷于「极简主义科技」「数字排毒」的人,如此抽象?

数字排毒,活成了自己的笑话

每当某种注意力收割工具令人厌倦了、过时了,马上就会有新东西,以反抗者、革命者的姿态出现,承诺将你解脱出来……

不消时日,这个新东西就会马上演化成下一轮的收割工具,往复循环。

今天,这个新东西就是「数字排毒」的概念,以及打着这个概念旗号,企图笼络人心的极简主义科技产品们。

2017 年,第一代 Light Phone 上市,只能打电话;2019 年,Light Phone 二代加入了短信、音乐播放器和闹钟。去年,乘上了「笨手机」春风的 Light Phone 三代终于发布,售价 699 美元。

海外媒体是这么评价 Light Phone 三代的:「极简主义被拉伸到令人沮丧的程度」,「一台越来越像智能机的傻瓜手机」。也不能怪他们:AMOLED 屏幕、摄像头、NFC 支付、指纹解锁……只看参数表的话,你很容易以为这就是一台智能机。

从开始到现在,Light Phone 已然进入了两难。如果卖点是「少」,就必须砍功能。但功能少了,用户反而不敢买单;把功能加回来,尺度很微妙。

除了产品设计之外,Light Phone 还面临商业模式的问题。

它最初是从众筹平台上起飞的,但公司随后不得不拿了风投的钱。谈投资的时候可能聊的是「数字排毒」的趋势,投后要看的却是销量、增长、财务……本质上,这套逻辑和极简主义/反消费主义「希望用户少用产品」的美好愿景是完全错位的。

结果就是为了卖货,这台「笨手机」高也不成低也不就,离它最初承诺的东西越来越远,却越来越像它本来要取代的东西……

消费主义的本质,是不断创造新的欲望来消化过剩的产能,而注意力经济是创造消费欲望的最有效手段之一。

哥大法学院的吴修铭教授认为,教授注意力经济也已有百年多的历史。从 19 世纪的廉价报纸 (penny press),到 20 世纪的广播电视,再到今天的短视频、小游戏、短剧,其实注意力经济从来没有变过:用免费内容交换人的时间,再把这些时间通过各种方式(广告、数据等)变现。

哈佛商学院荣休教授苏珊娜·祖博夫在《监控资本主义时代》一书中提出了一个新的概念:「行为剩余」(behavioral surplus),指的是科技公司从用户行为里提取数据,例如你点击了什么、在哪里停留了多久、在哪里犹豫了,然后把它们转化为「行为预测产品」,打包卖给广告商。

但为了让预测更准确,平台需要主动去「塑造」用户行为——无限算法流、消息红点、间歇性的点赞通知,都会服务这个目的。

前几年曾经有个社交产品 BeReal 爆火,每天随机弹出通知,用户必须在两分钟内打开应用拍照并分享,没时间准备,也不给修图滤镜,鼓励展现未修饰的日常样貌,消除社交产品的使用焦虑。

2024 年,以高频成瘾的垃圾手游闻名的法国公司 Voodoo,斥资 5 亿欧元收购了 BeReal。

一款以「反注意力收割」为卖点的产品,反倒被注意力收割机吞并了。这大概就是活成了自己的笑话、屠龙者终成恶龙、逻辑闭环了吧……

这些科技产品的设计理念,本质上和老虎机没什么区别。让人上瘾最有效的方式不是每次都给奖励,而是随机给。你不知道这次下拉会看到什么,正是这个不确定性让你停不下来。

互联网是通讯工具,是知识系统……它可以是很多东西。但大部分时候,它实际上是一台重新引导、无情收割一切注意力的机器。它侵蚀的不只是你的时间,是你的掌握自己注意力的自主性。

买一台「笨手机」,解决不了结构性问题

乔治城大学计算机教授卡尔·纽波特是「数字极简主义」这一概念最重要的推广者。2019 年他出版了《数字极简主义:在喧嚣世界中选择专注的生活》一书,认为电子邮件、聊天、短视频等等助长了「过度活跃的蜂群思维」(the hyperactive hive mind)。

纽波特认为,智能手机应该像一把瑞士军刀,大体上有通话、地图、相机、音乐这些核心功能就够了——这个愿望有点不切实际,他自己也清楚。

于是他转而提倡一种「非暴力」式的戒网方法:在你的手机上关闭非紧急通知,删除社交软件,手机调成单色模式,给自己设定一个数字宵禁的时间。从他的角度,把手机放在家里不带出门,已经是最极端的排毒行为了。

你可以看出来,纽波特的方案本来是零成本的。他从来没说过,你应该花数千块钱购置任何额外的设备。在他的方法论当中,甚至没有「数字排毒产品」这个品类的存在。

然而冥冥之中,提出了数字排毒概念的纽波特,反而成了另一群人,将之商品化的共谋:

  • 首先,有人带着真诚的初衷发现了一个真实问题,触碰到了更多人内心深处某种真实的渴望;
  • 接着,另一群人看到了营销机会,开始兜售一套你必须拥有的东西,来证明你属于这场运动。
  • 结果是,这群人接管、掌握、统治、最终定义了整个运动,直到它的信仰破灭。

类似的剧本一再上演。

1986 年,意大利的第一家麦当劳,在罗马的西班牙广场开业。作家 Carlo Petrini 召集了一群同事朋友去抗议,而这次抗议后来演化成了慢食运动 (Slow Food)。

这场运动的立场,既回归传统又标新立异:反对工业化快餐对饮食的侵蚀,在农民和消费者之间建立更直接的连接。

然而现如今,「农场到餐桌」(farm to table) 早已成了高端食品的标签,慢食运动最初所代表的理念,早已被消费主义完全消化,逐渐退化成了高档餐厅和有机超市溢价的理由。

十多年前,源自于佛教等宗教里的正念/灵修/内观,成为了社交网络上最 in 的潮流之一。然而当这种非主流爱好演变为潮流之后,也成了新的商业收割机。一群科技创业者趁势而上,开发出了市场规模高达数十亿美元的正念产业。

学者 Ronald Purser 在 2019 年出了一本书,书名就叫《麦正念》(McMindfulness,一个很有趣的双关),批评「正念」早已变成让打工人在高压环境里更好适应的减压技术。正念产业们忽略了真正的问题在于结构性的工作压力,却把责任塞还给了个人,让用户去管理自己的内心。

热潮过后,行业两大巨头 Headspace、Calm 的下载量纷纷暴跌(-74%、-61%)。

和「农场到餐桌」「正念」等概念一样,数字排毒也正经历概念破产的加速期。

数字排毒产品许诺的是:用一次性的消费行为,解决一个持续性的行为问题。但如果你看过各种电影电视剧里强制戒酒、戒毒之后的复饮、复吸情节,应该知道这种强硬限制的反效果有多强。

2025 年《BMC Medicine》刊登了一项为期三周的手机使用干预试验,要求上百名参与者每天使用时间不超过两小时。干预期间,测试组的平均屏幕时间从每天 285 分钟降至 129 分钟,压力和睡眠质量也同步改善。

然而 6 周后回访数据显示,他们的屏幕时间又反弹回了 226 分钟,心理健康睡眠指标也降回去了。又过了一周,反弹情况已经和测试的对照组基线水平无异。

强制、短期的「戒网」,是没有效果的。

为什么这种限制注定会失败?上世纪 60 年代,心理学家 Jack Brehm 提出「心理抗拒理论」:当一个人感知到自己的自由选择被外部力量限制时,他会产生强烈的动机来恢复这种自由。

约束越强硬,被禁止的行为就越有吸引力。这解释了为什么很多「笨手机」用户最终把那台手机放进了抽屉,然后换回了 iPhone 和安卓机。

数字排毒产品赖以存在的心理前提,可能本身就是错的。

用消费,反抗消费

回到文章开头提到的「离线包」案例。

如果你去刷相关话题的视频,会发现这些博主,各种书哐哐往家买,却没几个真的去博物馆借书的;这群人的视频里一定有个漂漂亮亮的手账本,里面到底记了啥你是不太可能看到的。

用户在博主们的影响下,花了成百上千块钱,买了各种各样的产品。然而,却形成了「意识到问题了」「在行动了」,就等于题被解决了的错觉。

这种行为其实很像中世纪西方大受欢迎的「赎罪券」。信徒不用改变自己的行为,甚至不需要告解和悔改,只需要支付金钱就能获得「罪已得赦」的心理确认。钱花出去,药到病除,非常方便。

⬆17 世纪的赎罪券(后世复刻)

这种现象在行为经济学上叫做「道德许可效应」。当人们完成了一件感觉道德的事情之后,更容易在其他方面放纵自己。比如购买 Patagonia 等环保品牌,很容易让你误以为自己真为地球环保做了多大贡献——其实从个体角度,你的不仅助长了消费主义,甚至制造了更多的垃圾。

我们为什么执迷于用消费行为来反抗消费主义,却以为自己还挺聪明?其实,这里面有人格方面的深层原因。

人是注意力动物。无论是手机,还是离线包里装的各种各样的东西,其存在目的都是牵制住人的注意力,帮我们杀掉时间。如果没有这些东西占据注意力,我们会变得极度无聊。

究其根本,在人人都有智能手机、人人都随时在线的时代,我们已经不知道一个人不刷手机该怎么呆着了。如果注意力充裕却没有地方可放,我们甚至会恐慌。所以我们需要一种「干扰」。

而这些数字排毒产品,其实是在利用你的不安全感,来赚你的钱。他们真的解决了什么痛点吗?恐怕没有。

不只是数字排毒产品,所有的消费陷阱,都是同一套底层逻辑。

如果你要用消费行为来反抗消费主义,恐怕只有资本最后成为赢家。

真正有用的方法,免费但无聊

2024 年,斯坦福大学社交媒体实验室让 80 多名学生用「笨手机」替代智能手机使用一周,初步发现受试者的头脑更清晰,更专注,更活在当下。

但进一步调研发现,主要归因并不是「笨手机」,而是那些报名参加了这项研究的学生,原本就有「数字排毒」的动机。

其实真正有效的方法是完全免费的,只是有点无聊。

豆瓣上有个「数字极简主义者」小组,有 3.3 万成员,我们分析总结了里面的很多帖子,发现最主流和有效的方法,就是少用、不用手机。

比如和家人约定晚饭时间不看手机,比如睡前把手机放到卧室,用真的闹钟来定闹铃;非要用的话,可以巧用,比如把社媒 App 移到手机的第三屏,增加「找到它」的摩擦成本;使用的时候大量点击与兴趣无关的内容,故意污染平台「千人千面」的推荐算法。

是的,实现数字排毒,不需要购买任何新的产品,你唯一需要支付的成本,不应该是金钱,而是心智。但你可以一点一点来,比如先从躺到床上就不再用手机开始。

究其根本,你要承受戒断反应,学会与无聊做朋友。

在注意力高度碎片化的今天,其实「无聊」是件很好的事。如果你能领悟无聊的意义,开始享受无聊,进而换种方式利用无聊的时间,「数字排毒」才能真正开始。

无论如何,都不要再买赎罪券了,那都是骗子发明出来骗傻子的。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

昨天以前首页

专访 OPPO 影像算法总监罗俊:好的计算摄影,就是让你忘掉计算摄影

作者 肖钦鹏
2026年4月9日 11:00

即将发布的 OPPO Find X9 Ultra,换掉了全部七颗镜头——主摄、广角、两颗长焦、丹霞色彩镜头、前置、增距镜……

没有一颗是祖传的。

OPPO 成立二十多年,极少有一代产品把影像硬件全部推翻重做。罗俊说:

这种革命式升级,好像真的没做过。

罗俊是 OPPO 影像算法总监,主导了从 Find X6 Pro 到 Find X9 Ultra 四代产品中的影像算法方向,还有那个已经成为 OPPO 影像标志的「大师模式」。

在 Find X9 Ultra 发布前夕,爱范儿采访了罗俊。我们聊了全新设计的「大师模式」、聊了还没上市的新手机,也聊了 OPPO 影像的过去、现在和未来。

我们试图找到一个答案:什么是计算摄影的「真实感」?

大师模式,用算法对抗算法

「大师模式」是什么?

简单来说,它是 OPPO 相机里独立于普通拍照模式的一套影像管线。

普通模式追求的是明亮、讨喜、一拍就好看——系统会自动拉高亮度、增强色彩饱和、做较强的锐化和降噪处理。这些操作让照片第一眼很抓人,但代价是:照片看起来,总是多了一些略显特意的「精良」。

这就是今天手机影像行业最普遍的争议:「算法味」。

算法味不是某一家厂商的问题,而是整个计算摄影发展到今天的结构性副产品。

当手机用越来越重的算法,去弥补小机身的物理局限时——多帧合成、AI 降噪、HDR 堆栈、超分辨率重建——每一次处理都在往照片里添加计算的痕迹:暗部被提亮,高光被压制,噪声被涂抹成油画质感,锐化制造出更多的「细节」。

结果就是,拍什么都好看,但拍什么都少了点纯粹。

「大师模式」走的是另一条路。

它用更克制的色调映射、更自然的锐化策略、更接近光学相机的影调逻辑来处理画面。该暗的地方留下暗部,有噪点的地方保留颗粒,不追求每一张都「亮白美」,转而追求照片的真实质感。

手机行业有一条不成文的规律:一个功能如果连续两代争议不断,第三代大概率就会被砍掉。

「大师模式」曾完美符合这个画像。

Find X7 Ultra 时代,用户对它的评价两极分明。喜欢的人说它「相机味」「高级感」;不喜欢的人说它「画面暗」「不锐利」,我甚至还遇到过,把大师模式的照片发给朋友看,对方第一反应是:你这张是不是拍糊了?

但大师模式活了下来。

从专业用户的小众工具,变成了连大学生都会主动选择的拍照模式。

更值得琢磨的是,用户喜欢大师模式,理由几乎一致——没有算法味。

事实上,大师模式跑的恰恰是整个影像系统里最先进、计算量最大的算法管线。

这种反差感,正是当下 OPPO 影像的缩影,也是过去十年,罗俊对计算摄影的全部理解。

传统影像的大师,做了大师模式

罗俊是影像算法专业出身,校招就进了索尼。

2000 年代初,日本影像行业就是世界影像行业的天花板。他做过 Handycam 录像机,做过 Alpha 单反,也经历了 NEX 微单系列从零到一的过程。

但真正让他看到行业拐点的,是索尼黑卡 RX100。

当时日元卖二十多万,一般的卡片机一台五六万日元。它一搞出来就卖一万多(人民币),但确实挺革新的。

索尼把一英寸底和蔡司镜头塞进上衣口袋大小的机身。这是影像小型化浪潮的发端。今天回头看,黑卡和后来的手机影像走的是同一条路:在极其有限的物理空间里,把画质做到极致。

只不过,手机走得更远。

在索尼的十几年,罗俊做的所有影像算法都跑在 ASIC 专用芯片上。一颗芯片两年一代,覆盖多条产品线,追求稳定可靠。

但他慢慢觉察到一个根本性的错位:

算法的迭代是很快的,但 ASIC 两年一代。整个算力和架构跟计算摄影、跟 AI 的研究思路有点不匹配——它太慢了。

后来他看到了 NPU——一种专门用来处理神经网络计算的处理单元。算法可以跑在软件层,迭代速度陡然提升。

但 NPU 最好的载体不在相机,而在手机。

2017 年初,罗俊在 MWC 上见到了 OPPO 展示的潜望式长焦技术演示——10 倍混合变焦,在当时的手机行业里没有人做过。他一眼认定这家公司有潜力,决定加入 OPPO。

有意思的是,十年后的今天,他主导的 Find X9 Ultra 搭载了一颗更好用的 10 倍光学长焦,但这是后话。

这段从传统影像到手机影像的迁移,决定了他做大师模式的底层逻辑。很多人觉得大师模式「没有算法味,像相机直出」,罗俊听到这种评价觉得有意思:

其实专业相机也有算法,ISP pipeline 还挺重的,全是用芯片实现的。只不过效果跟我们大师模式很类似,用户的参照系就变成了——我用手机的算法,也能得到一个像相机的效果。

在他看来,「相机没有算法」本身就是一种错觉。相机的算法只是固化在芯片里,用户看不见而已。

大师模式的设计起点,正是从这个认知长出来的。目标从来不是「去掉算法」,而是让算法像专业相机的 ISP 一样——做了很多事,但你浑然不觉。

OPPO 内部的说法叫「用计算去计算」

罗俊说,如果你的目标是「让算法不可见」,那你就不能去追某个单一参数的提升。你需要一套系统性的标准,来定义什么叫「好」。

他用四个字总结这套标准:真实还原。

三年,重构 OPPO 影像

2021 年底,罗俊从日本调回国内,全面主导 OPPO 影像算法的迭代方向。

对所有手机厂商来说,影像算法全面转向自研,都是个长期高投入,但短期低收益的决策。

但为了让影像——而非仅仅美颜——成为OPPO 旗舰手机的核心竞争力,罗俊重组起了一支数百人的影像算法团队。

「真实还原」是个相对务虚的概念:什么样的影像称得上真实,又该用什么手段去还原?

罗俊把它拆解成三个具体的维度——光影、细节和色彩。 他心里有个三年计划,希望用三代产品来重构 OPPO 影像。

Find X6 Pro 是在罗俊这个理念下,堪称转折点的一款影像手机,当时首先解决的是光影问题。

OPPO 影像认知总监程卓在接受爱范儿采访时曾说过,Find X6 系列的目标,是建立「正确的影调关系」——将扭曲的光影曲线拨乱反正。

这一代 Find 搭载了当时行业唯一的大底长焦——1/1.56 英寸 CMOS、等效 70mm 镜头,并配合全新的超光影图像引擎。

这套系统第一次让手机有能力在像素级别标定亮度信息,计算被摄物体、光线和环境之间的光影关系。罗俊说:

亮而不耀,暗而不黑,这就是我们对光影的基本要求。

罗俊还将一个面向专业用户、可以充分发挥手机影像能力的模式引入到 OPPO 的影像系统当中,他们将其命名为「哈苏专业模式」——这就是「大师模式」的雏形。

紧接着,罗俊团队要解决的是细节。

Find X7 Ultra 带来了行业首个双潜望四主摄影像系统,加入了支持 6 倍光学变焦的长焦镜头。

焦段的增加不只是「拍得更远」。在罗俊的理解里,它有更本质的意义:

有更多焦段,就有更多的参考系。你能用不同的视角记录世界,系统能还原的信息就更完整。

参考系——这是罗俊理解「真实还原」的核心概念。

真实不是一个绝对的客观标准,它依赖于你拿什么去做参照。取景框是一种参考系,人眼所见是另一种,用户脑子里想象的「好照片」又是一种。

焦段越多、细节越多,系统捕获的参考信息就越完整,离用户心里的「真实」就越近。

Find X7 Ultra 还进一步提升了光影的质感,尤其是中间调。

日常照片里最大量的明暗信息集中在中间调区域——不是最亮也不是最暗的过渡地带。中间调如果粗糙,照片就缺少实感。

也是在这一代影像系统里,OPPO 正式推出了「大师模式」。在罗俊看来,大师模式并非专属于摄影师,而是把调教相机的权力交回到用户手里——就像相机的拨杆和旋钮那样。

但第一代的大师模式的泛化能力有限,场景兼容性不够,导致用户评价褒贬不一,喜欢的人非常喜欢,玩不明白的也大有人在。

对罗俊来说,技术上的问题总归能解决,但怎么把理念坚持下来、传递出去,是一个巨大的挑战:

大师模式能坚持下来,也许就是因为我们没有妥协。

光影和细节都有了,色彩是最后一块短板。

计算摄影高度依赖统计学,在复杂光线下,白平衡不准、肤色偏移、环境色失真,是统计方法的固有局限。

Find X8 Ultra 加入了一颗新镜头——丹霞原彩镜头,专门做分区色温感知。它能识别画面中不同区域的色温分布,分辨自然光和人造光源,对肤色和环境色分别做独立还原。

色彩链路说到底做两件事,白平衡和色彩映射。白平衡是统计方法,有些场景就是算不准。有了丹霞之后,因为它是绝对信息量,在干扰色场景下就有机会把偏差修回来。

丹霞的作用并非让颜色更好看,而是给色彩计算管线提供一个物理锚点——一个不依赖统计猜测的客观参照基准。

你看,又是参考系。

到 Find X8 Ultra,还有一个不容易被注意到的技术整合完成了:大师模式和照片模式在 RAW 域的处理算法实现了统一。

两个模式出来的 RAW 片是一样的,差异只在后端——照片模式走更明亮讨喜的色调映射,大师模式走更克制的光影层次和锐化策略。

这意味着,「大师模式」不再是一个独立的功能分支,它的底层能力已经成为整个影像系统的内核。

在罗俊看来,到了 Find X8 Ultra 这一代,终于实现了他最初的设想——光影、细节、色彩,三个维度第一次集合为完全体。

于是,全新的 OPPO 影像品牌「凝光影像(LUMO)」 诞生了。

罗俊团队对好影像的评判标准,在历经三代产品迭代后也逐步成形——其中一个基准,就是照片的「连续性」

专业相机拍的照片也有噪点,但它的噪声、它的颗粒是连续的,看起来很舒服。我宁愿放出一些连续的噪声,也不要让画面清晰一块、模糊一块。

这些标准并不是在某一代产品研发过程中突然冒出来的,它们源自罗俊骨子里传统影像的基因——信噪比、连续性、色彩映射——只不过换了个载体,从相机到手机,从传统光学到计算摄影。

随着新的影像算法系统逐步成型,罗俊也面临一个新的局面:软件侧能做的,做得差不多了。算法迭代的边际收益在递减。

接下来怎么办?

Find X9 Ultra:十年回声

答案是再来一遍。

罗俊把手机影像的发展分为三个阶段:

第一阶段从 2015 年前后开始,核心是器件小型化——把大 sensor 塞进手机,从 1/3 英寸一路堆到一英寸;

第二阶段从 2021 年前后开始,AI 和计算摄影的算法能力上来了,不追求一英寸大底也能通过算法补强,得到画质不错的照片;

第三阶段则是现在:

你不是靠器件,不是只靠算法就可以。它一定是软硬结合、端到端的创新,才有机会把效果再往前推。

Find X9 Ultra 就是第三阶段的产物——为此,OPPO的影像团队不惜换了全部的七个镜头——

主摄从 5000 万像素一英寸换成 2 亿像素 1/1.2 英寸,广角从 1/2.5 英寸升级到 1/1.95 英寸,第一颗长焦镜头换成了更大底的传感器,而第二颗长焦镜头从 6 倍光学拓展到 10 倍光学,丹霞色彩还原镜头升级,前置从 3200 万升到 5000 万,连增距镜都从 200 换到了 300。

其中设计难度最高的,无疑是那颗 10 倍光变的长焦镜头。

罗俊向爱范儿展示了 Find X9 Ultra 的10 倍长焦镜头——1/2.8 英寸传感器搭配 230mm 的镜组,但整个模组只有 29 毫米长,其中棱镜的长度,约等于半个小拇指。

更妙的是,这块棱镜并不是一体成型的,而是由三块棱镜拼接在一起,还在中间封了一层空气用来消除杂光。这个工艺在产业链里没有先例——没有人把棱镜切成三块再粘,也没有人在棱镜中间封过空气层,当然也没有人搭建过这样的产线。

于是,一切都要从头做起。

罗俊把这颗 10 倍长焦定位为「口袋增距镜」——OPPO Find X9 Pro 的增距镜长十几厘米,而 X9 Ultra 的「内置增距镜」只有 29 毫米,但成像的素质并无二致。

正因如此,你在 OPPO Find X9 Ultra 里,能找到 14mm-230mm 的所有主流焦段,这就是相机经典的「大三元」配置。

2016 年,罗俊在 MWC 上被 OPPO 的十倍潜望长焦技术演示打动,决定加入。十年后,他和他的团队在手机里嵌入了一颗迄今为止最好 10 倍光学长焦——对罗俊来说,这是一声跨越十年的回响。

有了 10 倍长焦之后,大师模式的创作空间一下子就打开了:视频可以用 10 倍、20 倍拍,人像模式也新增了 10 倍焦段,这是罗俊三年前没想到的:

以前可能都没考虑过用 10 倍拍这些东西,突然发现素材空间又变大了,这个感觉还挺有意思。

新一代的大师模式也变得更易用、更好分享了。

罗俊说,他私心最喜欢的就是这个「配方分享」功能,用户在大师模式里调好拍摄参数、拍出照片,配方就已经被嵌在照片水印里了。

别人看到这张照片,用 ColorOS 的一键闪记功能,就能快速导入同样的配方一键出片——对喜欢打卡的小红书姐妹,可真是太友好了。

而这个功能成立的前提,恰恰是前三代把大师模式的底层管线做到了足够稳定。如果管线不成熟,配方分享出去换个场景就失效了。

好的计算摄影,就是让你忘掉计算摄影

采访快结束时,我们聊到了一个稍微务虚的问题:什么叫计算摄影的「真实」?

罗俊的回答就两句话:

一个叫所见即所得,一个叫所得即所想。

所见即所得是基础——取景框里看到什么拍出来就是什么。但他认为真正重要的是后半句:用户脑子里对一张好照片是有预期的,影像系统的工作就是尽可能贴近那个预期。

你拍一张照片的时候,是有想象一张照片效果的。不管是你看到的还是你想的,这时候是脑子在后期。

你按下快门之前,脑子里已经有了一个画面。那个画面就是你的参考系。

这让我想起,之前去悉尼旅游时的经历。那时,我专程去一个有名的打卡机位,但遇到阴雨天,人很多,拍完之后,我也对照片不太满意。

于是,我想到用豆包修图——我加了夕照,去掉了人影,修完,我觉得这就是我想要的,但,这还算摄影吗?

罗俊告诉我:

它一定是摄影。但你脑子里想的画面和你眼睛看到的之间,到底有多少比例是记录的,有多少是生成的?这个比例在不同工具、不同场景下是变化的。我们做影像系统的价值,就是把真实记录的那部分做到极致。要不然的话,咱们都靠豆包就完事儿了。

从大师模式,到重构 OPPO 影像,再到 Find X9 Ultra——在罗俊看来,这一切从来都指向同一个目标:

把脑子里想的那张照片,和手机拍出来的那张照片之间的距离,缩到最短。

真实还原,还原的不仅是现实本身,更是心里的参考系。

罗俊说,在未来,影像交互对于用户而言必须简洁——用户拿起来就拍,不再纠结,因为系统已经理解了你想要什么。

我想那时候,真实还原的理念,就已经渗透到整个 OPPO 凝光影像系统的脉络里了。

好的计算摄影,就是让你忘掉计算摄影。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

十年时间,移动影像抵达「入海口」

作者 周奕旨
2026年4月2日 12:00

1975 年的冬天,柯达应用电子研究中心的工程师 Steven Sasson,在实验室里拼凑出了一台古怪机器。

它重达 8 磅、仅 1 万像素,按下快门后,需听着沉闷的机器运转声等待漫长的 23 秒,才能将一张黑白照片写入到飞利浦卡式磁带里。

面对极低的像素和数据存储速度,Steven Sasson 认为这玩意还需要 15 到 20 年才能真正和胶卷竞争。

之后二十年,影像行业沧海桑田。影像载体加速数字化,并在二十一世纪的头一个十年,终于如 Steven Sasson 所愿,终结了胶卷时代。但那时,相机依旧属于「家庭重资产」,人类还没法随心所欲地拍照,更遑论视频创作。

直到移动影像时代来临。

刚刚发布的 vivo X300 Ultra,搭载第五代骁龙 8 至尊版,抛出了一个令人侧目的规格:全焦段 4K 120 帧 10-bit Log 视频。

此时回头看去,才发现人类用五十年的时间,建造了一条数字大运河,并让每个人都能行船其上。

底层扩容,鲸吞光影

这条运河里奔涌的河水,本质上就是海量的「密集影像信号」。

这个听起来颇为学术、有些距离的词,实际与每个举起手机按快门的人息息相关——

回想一下早年的智能手机,你一定对这样的画面不陌生:高光死白、暗部死黑、色彩断层、帧数不高,还伴随着挥之不去的噪点。

▲ iPhone 4s 拍摄的夜景画面,图片来自@PhoneArena

视觉上的灾难,本质上都是因为底层图像信号处理器(也就是我们更熟悉的 ISP)「咽不下」庞大的信号。

那时的手机只有 8-bit 的量化精度。一旦环境光比超过传感器的承载极限,高光区域的电平就会发生不可逆溢出,变成一片死白;而信号的暗部,则会被 ISP 粗暴地抹平成一团带有噪点的死黑。并且物理级的信息丢失,任何后期软件都无力回天。

这个痛点,比我们想象中更持久。

厂商曾试图用增大传感器面积换取更大的动态范围解决这个问题。但时至今日,在极度受限的机身内部,单纯堆叠物理尺寸的路径已逼近极限,后端 ISP 变得愈发重要。

▲ 手机内部空间已经被影像模组与电池瓜分,图片来自@Notebookcheck

过去很长一段时间,受限于物理规格,手机的算力中枢停留在 14-bit 双 ISP 阶段,随着传感器捕捉的信息愈发庞大,ISP 的数据管道必须随之拓宽。

从 2020 年骁龙 888 引入 14-bit 三 ISP 以应对并发数据,到后来 Spectra ISP 迭代至 18-bit,移动平台将影像数据的处理带宽扩容了 4096 倍。如今,为了承载更密集的影像信号,vivo X300 Ultra 搭载的第五代骁龙 8 至尊版 Qualcomm Spectra ISP 顺理成章地迈入了 20-bit AI 三 ISP 时代。

别小看这区区 2-bit。在数字底层,这个单位的任何变化都呈指数级海啸:单通道色彩的量化层级从 26 万平稳过渡到了 104 万级,为底层数据提供了 4 倍的动态范围余量。

依托这层宽裕的物理基底,vivo 与高通在底层影像管线上,完成了深度的联合调优。

结果也很生猛:X300 Ultra 实现了全焦段 14EV 的动态范围覆盖。

这股庞大的数据余量,被悉数灌注进了两个极其考验底层的专业规格中——Log 格式,与杜比视界。

在 Log 模式下,20-bit AI 三 ISP 负责将传感器捕捉到的线性信号,实时映射为对数曲线。由于底层采样精度的提升,手机保留了更丰富的原始信息,从而在后期调色时能有效抑制色阶断层,扩展了后期处理的边界;而在杜比视界标准下,算力则体现为对动态元数据(Dynamic Metadata)的封装精度。它能够更准确地对准每一帧的亮度与对比度信息,使高光与暗部的 HDR 层次得到如实呈现。

落实到实际体验上,效果也很明显——我们带着 X300 Ultra 去拍摄了一场「热带极光」,凭借 Log 格式极其优秀的动态范围与宽容度,我们在夜半时分记录到离岛的渔船照亮了天际。

经过后期还原后,渐变的天空过渡自然柔和,没有出现色彩断层,噪点抑制表现堪称优秀。

至此,原本属于影视工业的宽容度规格被集成进移动芯片,在底层凿出一条数字运河的航道。普通人也就能随时随地、以手机拍摄出更高规格且具备后期空间的视频,进而有了更多的创作可能。

多摄并发,变焦丝滑

解决了单颗镜头的明暗宽容度,只是完成了静态画面的重构。

但视频的核心在于叙事的连贯性,这就引出了移动影像长久以来的另一个痛点:变焦卡顿。

在拍摄视频时,我们常需要推拉镜头来切换视角。但滑动变焦环时,画面往往会伴随一阵不易察觉的跳动,色彩和白平衡也会发生突兀的偏转。

影像的叙事感,就这样被硬件的迟钝瞬间撕裂。

症结在于手机内部的镜头各自为战。它们素质各异且受控于独立时钟,传统 ISP 的「冷启动」策略只能在变焦瞬间仓促切换。时间戳一旦错位,画面的跳帧与色彩断层便注定发生。

▲ 传统专业摄影中,时间戳的对齐需要参照全球时间

要在移动设备上实现顺滑的变焦推拉,就必须在底层强行打通这些相互独立的硬件。

在 vivo X300 Ultra 实现全焦段高规格视频录制的背后,第五代骁龙 8 至尊版用两套相互咬合的底层机制将硬件扣合起来——

20-bit AI 三 ISP 撑起庞大数据吞吐,让三颗镜头得以在后台保持热并发状态。即使当前只用主摄录制,超广角和长焦的 ISP 通道也已经在后台同步运行着 3A(自动对焦、自动曝光、自动白平衡)算法,为随时上场热好身。

与此同时,第五代骁龙 8 至尊版的高通多摄同步系统(MSCC),扎进最底层的硬件总线,给这些原本各自为战的镜头,强制下发了一个统一的「全局时钟」。

广角、超广角、长焦。

无论它们的物理位置有多远,传感器素质有多大差异,底层的死命令只有一个:

在同一个微秒,同时曝光;在同一个瞬间,读取数据。

时间轴,被彻底锁死。

两套机制并发运行,以此换取 vivo X300 Ultra 跨镜头推拉时,不同传感器之间的数据交接平稳过渡,从而缓解了跳帧与白平衡漂移的痼疾。

专业影像领域如河流般暗流涌动,如果没有坚固巨舰为依托、严密的团队做协同,不得逐浪其中。

如今,底层芯片的算力在小小的机身内部,用数字逻辑管控物理秩序,让没有资金与团队的创作者,也能泛舟而行。

编解码,与算力双向奔赴

在影像领域,长期存在着一个反直觉的「算力悖论」:

在普遍认知中,相机处理器并非性能怪兽,却能吞吐洪流般的超高规格视频数据;我们手中搭载着强悍 SoC、能够高帧渲染游戏大作的智能手机,但在持续的极致影像记录时捉襟见肘。

究其根本,相机的处理器(ASIC)生来只为影像服务;而手机作为复杂的数字枢纽,真正留给影像的算力其实并不富裕。

算力的拮据,逼迫过去的手机不得不向存储空间妥协——普遍采用 H.264 或 H.265 等帧间压缩(Long GOP)格式,只记录关键帧和差异信息。这种做法极大地压缩了体积,却也彻底破坏了画面的物理空间信息。

▲ H.264 编解码原理,图片来自@ResearchGate

没有后期的底气,所有的前期快门都不过是碰运气。

一旦将这种素材导入剪辑软件进行二级调色,哪怕只是轻微拉扯一下阴影或高光曲线,画面立刻会暴露出大面积的马赛克色块与严重的色彩断层。

后期的调色空间被死死锁住,创意的落地、创作的可行,都无从谈起。

随着 vivo X300 Ultra 上市,长期以来的固有认知正在失效,4K 120fps Log 这类专业格式,来到手掌的方寸之间。

除了 20-bit AI 三 ISP 的持续发力,让有着高后期空间、创意可能的格式来到我们手上,此外,编解码器也功不可没——在 vivo X300 Ultra 上,vivo 与高通互相协作,成为国内首个落地 APV 422 编码的智能手机。

APV 采用的是专为非线性编辑(NLE)打造的「帧内压缩」,将每一帧画面的色彩深度与亮度信息独立、完整地封存起来。将 APV 422 格式的素材在达芬奇中调色,画面会展现出相当强的韧性,在应对节点式操作或复杂的 LUT 映射时,也能有效支撑起暗部细节与高光过渡,大幅减少了以往手机视频一拉曲线就出现马赛克与色阶断层的尴尬。

更友好的是,在提供与影视标杆 ProRes 几乎同等极致画质的前提下,APV 的底层编码机制让文件体积进一步降低了约 10%。

在内存价格飞涨的大环境下,编码效率提升有助于创作者开源节流,能省下不少钱。

性能与编解码器技术的双向奔赴,为这条大运河打造了高规格的「数字集装箱」,将信号完整且顺畅地运送到后期工作流,手机得以拥有与专业数字电影机全链路闭环无二的创作潜力。

移动影像抵达入海口

2014 年,vivo 推出 Xshot 拍照旗舰,与 X 超薄、Xplay 大屏两台机型一起组成三位一体产品线。

这台手机搭载 1300 万像素的索尼第二代堆栈式传感器、F1.8 的大光圈、光学防抖和双色温补光灯。而另一个没那么引人注目的配置,是 Xshot 配备的骁龙 801 处理器引入了双 ISP 架构,用以解决快门迟滞问题,并为高频作用的 OIS 光学防抖计算补偿角度,提供算力支持。

▲ vivo Xshot,图片来自@vivo

用底层算力辅助物理防抖的工程雏形,在今天演变为第五代骁龙 8 至尊版上 OIS 与 EIS 极高频数据握手的全焦段防抖链路。

非常巧妙的呼应。

此后十余年,手机影像能力一路狂奔,所产生的数据从溪流汇聚成洪流。 承载汹涌信息的河道,也持续扩容。

回溯至 X100 Ultra,行业首次将 2 亿像素长焦塞入受限的机身时,瞬间快门带来庞大数据拥堵。高通引入认知 ISP(Cognitive ISP),在底层提供了硬件级的实时语义分割与算力冗余,让高像素的数据吞吐不再伴随漫长的处理黑屏,干净利落。

到了确立专业影像基调的 X200 Ultra,战线被推进至更为严苛的暗光 4K 视频。面对极低信噪比的环境,依托骁龙底层的异构计算平台,影像架构完成了从传统 ISP 向 NPU(神经网络处理器)的深度交接。通过将 AI 算力前置到 RAW 域进行帧级降噪,手机终于跨越了小尺寸传感器在夜景视频中的进光量枷锁,实现了干净、可用的动态记录。

每一次前端模组与传感器的激进探索,都在对底层的吞吐能力发出严苛拷问。

如今,在 X300 Ultra 上,这场向底层索要宽容度的漫长工程,终于触碰到了工业级影像标准的边界。

回头,移动影像从「拍到」到「拍好」的河道蜿蜒漫长;前眺,从「记录」迈向「创作」的汪洋近在眼前。

数据洪流激荡交汇,骁龙筑起的河床向宽而行。

移动影像,终于在此刻抵达入海口。

让我有个美满旅程

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

vivo X300 Ultra 影像评测:影像手机,终于成为相机

作者 周奕旨
2026年3月30日 20:30

今天,vivo 一口气交出了两份旗舰手机的答卷:除了主打全能的 X300s,更重磅的看点,是当家影像旗舰 X300 Ultra。

在移动影像卷生卷死的时代,一台被官方冠以「影像灭霸」和「V 单」称号的手机,拿出了它打磨三代后的版本答案:两颗 2 亿像素摄像头,翻倍到 400mm 的增距镜,和前所未有的专业视频模式。

过去一段时间里,爱范儿深度体验了 vivo X300 Ultra,我们试图从一个摄影师的视角,去理解 vivo 关于移动影像的最新答案。

比 2 亿像素更好的,是 2 亿像素加倍

一台设备能不能拍好照片,首先取决于你愿不愿意带出家门,上手 vivo X300 Ultra 的第一时间,我们照例看看它的外观设计。

总得来说,X300 Ultra 基本延续了一贯的家族式设计,但在小细节上有所不同——手机中框采用四曲包边设计,手感比较柔和;手机背部的影像 Deco 增加了一个比边缘略小一圈的火山口过渡,在视觉上起到收拢作用;刻度纹依旧保留,为 Deco 保持精致。

在凸起的影像 Deco 中,vivo X300 Ultra 搭载了以 14mm 超广角、35mm 主摄以及 85mm 长焦,基本保持前代的焦段方案,彻底夯实「手机大三元」战略。

维持住经典焦段组合的同时,这套「大三元」迎来了本次最核心的升级:主摄与长焦双双跨入了 2 亿像素大关——这也是 vivo 自 X100 系列首次采用 2 亿像素镜头后,又一次加码押注 2 亿像素。

在手机刚搭载上亿像素的传感器时,有一个「像素陷阱」——

在当时的语境里,画面质量更多取决于传感器大小,单纯堆砌像素只会被视作糊弄外行的数字游戏。

但当手机内部空间已经极大让渡给影像,传感器尺寸大到足以支撑高像素时,用高像素换高画质,就成了唯一行得通的路径。

对于日常拍照来说,高像素最核心的意义,就是给了你后期随意裁切的物理底气。 35mm 1/1.12 英寸主摄和 85mm 1/1.4 英寸长焦的超高像素为传感器提供了宽裕的画面保留空间,就算你拍完之后只截取画面中心的一小部分,细节依然扎实。

不过,2 亿像素更多还是象征意义,毕竟日常出门很少有人愿意顶着 2 亿像素的巨大文件体积连续按快门。

因此,vivo 设定了更实用的输出逻辑:系统默认拍摄 1200 万像素,同时开放 2500 万和 5000 万像素的档位供你手动选择。

更高像素带来的增益是明显的,用 5000 万像素拍下的照片,画面的清晰度会跟 1200 万像素拉开肉眼可见的差距。

抛开高像素的硬指标,色彩是这台机器的另一大看点。

新加入的「浓郁」与「追光」风格,色彩逻辑分别脱胎于理光的正片与负片。这两套风格极具辨识度,配合高像素的扎实细节,实拍质感相当抓人。




之前几代产品,2 亿像素传感器依然存在一些优化问题——虽然解析力高,但处理画面所需的等待时间长,很打断拍摄的流畅度。

在这一代上,vivo 优化了体验上的问题,将处理管线放在了相册后台中,拍摄时不会再有阻塞感。

除了两颗 2 亿像素外,vivo X300 Ultra 的焦段还得到了进一步拓展——前代,vivo 专门设计了一颗外挂增距镜,将手机的光学焦段拓展到 200mm,而在这一代上,vivo 首先是将 200mm 的增距镜瘦身到比一管口红还小,与此同时,加入了一枚堪称疯狂的 400mm 增距镜。

用起来怎么样?

实话说,非常挑,也非常好——

400mm 增距镜的主要场景,还是聚焦在演唱会等特殊环境。如果你打算带着它去扫街,很抱歉,在高楼密布的街道里,400mm 的焦段会让画面非常逼仄,几乎没有用武之地。

而如果你将它带去打鸟,面对真实的生态场景它也稍显局促,若是在复杂环境中,将焦段裁切到 800mm 的话,很容易失焦——无论是对手机,还是对摄影师的手,都提出了更高的要求。

但从成像效果来看,400mm 的增距镜也确实带来了更极致的长焦表现,尤其是在演唱会这样的特化场景里:

顺带一提,即便在挂上增距镜的极限状态下,实况照片功能也并没有被阉割。这让你在演唱会等特殊场景中,多了一种更鲜活的记录手段。

除了实况照片,我们还非常推荐在使用 400mm 增距镜时打开 2500 万、5000 万甚至 2 亿像素档位,会让解析力更进一步。

话说回来,虽然目前体验尚有瑕疵,但我还是想肯定 400mm 的意义——常话说「拍到比拍好更重要」。影像最基础的底线是记录,在「彻底拍不到」和「画质有点糙但拍到了」之间,答案根本不需要犹豫。

相机交互更好了,但没到最好

相机交互设计,是所有影像旗舰手机都面临的老大难问题——相机功能太多、但屏幕位置太少。

对于把影像能力推到极致的 vivo X300 Ultra 而言更是如此。

在这一代上,vivo 重新设计了整个相机 UI,二级菜单逻辑变化尤为明显。

在往代机型上,二级菜单(与拍摄相关的设置)都放在屏幕顶部中。而在 vivo X300 Ultra 上,二级菜单图标放到了取景框的右下角,也就是焦段选择的右边,图片比例、倒计时、原生光影和抓拍等设置都在其中,而顶部则保留了闪光灯、实况照片、微距、两亿像素开关这类与实时拍摄关联性更强的设置,方便用户快捷操作。

不过,表面的重构没能理顺底层的臃肿。新 UI 里依然充斥着逻辑冗余:取景框右下角已经常驻了「抓拍」和「风格」按钮,滑开二级菜单,它俩居然还在占位置。

为了应对这种混乱,vivo 开放了自定义权限。通过二级菜单最末尾的「编辑」功能,你可以手动增减、重排各个区域的快捷键,借此来适配自己的拍摄习惯。

iPhone 的诞生,让手机一举迈向智能机时代。此后,所有的交互都逐渐搬移到屏幕上。这对影像而言,这其实不算好事。

专业相机功能繁杂,作为应对,厂家用花样繁多的物理按键来给多样化的功能安家——按键、旋钮、拨杆……不一而足。但对于手机而言,物理按键的消失是既定趋势,日益复杂的功能被塞进了一块玻璃屏幕里,只能靠一层层的二三级菜单承载五花八门的设置。

更何况,这一代 X300 Ultra 还砍掉了普通用户风评不算好的操作按钮和相机控制按钮,实体按键更少了,屏幕操作空间也更局促了。

但交互上的冲突并非没有办法解决,在分析 iOS 26 的 UI 设计中,我们就找到一个不错的方案:https://mp.weixin.qq.com/s/6hM-gYyafpdEOzDK_1gFKQ

相较静态照片来说,vivo 为视频专门设计的「专业录像 Pro 模式」,显得自洽很多。

在录像模式的录制键右侧,出现了一个写着「Pro」的录像机图标,点击这个图标,就进入了专业录像 Pro 模式。

将手机横置后,这套专业界面的排布逻辑显得非常清晰。 左手边主要负责全局控制,依次是模式设置、预览切换、增距镜开关及退出键;

右手边则完全留给了核心操作,集中排布着视频规格、曝光补偿(EV)、焦段、对焦以及二级设置入口。

视线回到取景框,顶部干净地罗列着分辨率、帧率、快门、ISO 与色温等关键参数;底部两侧则留给了监看工具——左下角实时显示麦克风收音电平与剩余存储空间,右下角则是直方图与电量状态。各功能区互不干扰,井井有条。

实际体验下来,专业录像 Pro 模式的完成度相当高。快门、ISO 与白平衡均支持自动与手动双轨控制,防抖与画幅等基础功能一应俱全,内置的峰值对焦也极大降低了手动跟焦的门槛。

右侧菜单顶部预留了 Log 与 Rec.709 的快捷切换键,不仅支持官方 LUT 实时监看,还能直接导入你个人常用的 LUT 文件预览最终成色。

可以说,在专业录像 Pro 模式下,vivo X300 Ultra 已经具备了一定的生产力。

这几年打磨下来,靠着高像素和生猛的外挂长焦,vivo 在静态拍照上确实稳住了基本盘。

而随着专业录像 Pro 模式的加入,意味着 vivo 开始向视频生产工具探路。除了最高 8K 的录制规格,这台机器放开了全焦段的 4K 120 帧 Log 选项,为后期留足了明暗拉扯的宽容度。

至于它的实际表现如何,后续我们还会有一条体现 vivo X300 Ultra 视频性能的短片,大家可以一见分晓。

影像手机,终于成了相机

在文章的最后,我想提一个手机之外的有趣事情。

拿到这台 vivo X300 Ultra 时,编辑部里的人不少。每一个拿起手机的人,第一反应总是看看增距镜、拿在手上体验体验、拍一拍,没人再去纠结配置。

看待影像旗舰手机的视角,已经出现了微妙的转变。

过去几年的手机影像评测,大家习惯性死磕几个数字:底有多大、单像素面积多少、进光量提升了多少。

但发展到今天,物理限制促成了一种共识:手机内部的空间见顶了,在厚度与重量的死局里,传感器很难再变出违背物理法则的戏法。

这种不再纠结参数的心态,和我平时拿起一台真正的相机时如出一辙。作为一个影像创作者,当我摸到一台新的全画幅或 APS-C 微单时,根本不会去查阅它的 CMOS 规格表。

我心里很清楚,全画幅就是全画幅,半画幅就是半画幅,它的基础画质上限就在那里,不会突然跳出一个颠覆认知的奇迹。

相对的,拿到相机后,我只关心「干活」的体验:机身握持是否扎实?菜单逻辑符不符合直觉?配套的镜头群到底好不好用?

毕竟相机从来不是一块孤立的 CMOS,而是由镜头群、色彩科学和专业工作流构成的完整系统,而这恰恰是 vivo X300 Ultra 的发力方向——用 400mm 增距镜丰富物理焦段、用克制的算法取代粗暴的暗部提亮,再加上电影机规格的录像界面。

vivo X300 Ultra,正试图从单纯的硬件堆砌,进化成一套能打硬仗的影像系统。

也正是因为如此,我看待这台手机的逻辑也有了变化——全新的 UI 界面,在拍摄时会不会让我手忙脚乱?系统各项高频功能,呼出够不够顺手?400 毫米增距镜,能不能帮我在复杂环境里带回有用的画面?

vivo X300 Ultra 并不完美——

作为一台相机,它的交互依然有繁冗之处,极端焦段的体验也还在打磨。

作为一台手机,它的硬件配置已经不再让人纠结,取而代之的,是摄影师挑剔的眼光。

当我们以相机的要求,去审视一部手机的操控逻辑、镜头搭配和界面自洽时,事情就已经悄然发生变化——

手机摄影在我们都没察觉的时候,已然跨过靠参数搏杀的门槛。

让我有个美满旅程

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

专访 vivo 总裁胡柏山:AI 已经很聪明了,vivo 要让它真正看懂世界

作者 杜晨
2026年3月27日 12:00

今年春节,OpenClaw 火了。短短两个月不到,它又冷下去了——又一场 AI 应用层面的热闹。

热闹散了,没人知道下一个 OpenClaw 是谁,也没人知道这些东西究竟在解决什么问题。

用影像旗舰手机拍下一张夜景当中的人脸,细节清晰到能看见眼眶里的水光。但手机可能并不清楚,主角刚才是否哭泣,也就无法理解这张佳作的情绪背景;再用长焦技能把数百米外的一个路人拉到面前,细节纤毫毕现。但你问手机:这个人是着急赶路,还是在找什么东西?手机仍然不知道。

今天的 agent 能写代码、能操控网页、能把一份 PDF 整理成会议纪要。这些它都做得不错。但这些事情有一个共同点:处理的全是人类已经事先转好格式的信息。文件、数据库、网页,都是数字化过的世界。一旦面对物理世界,一扇门、一段动作、一个表情,它们是失明的。

从今天的大模型,到能真正读懂物理世界的所谓「具身智能」,中间有一道鸿沟,现在没有人说得清楚怎么填。

这道鸿沟,是胡柏山在博鳌亚洲论坛上花了最多时间讲的一件事。

胡柏山是 vivo 总裁兼首席运营官。在博鳌亚洲论坛,他告诉爱范儿,自己有一个很直接的判断:「在明确的物理大模型没有出来之前,要有好的体验,就要把物理世界的信息转化到数字世界。」

他相信,这件事,不仅手机可以做,而且应该用手机去做。甚至在未来十年里,其它设备都很难替代。

拼大脑,没有护城河

过去两年,几乎所有手机厂商都在说「AI 手机」。大模型接入、智能助手升级、端侧算力提升,这些能力以肉眼可见的速度在普及。

去年 DeepSeek 横空出世,今年 OpenClaw 引爆讨论,各家都在抢着把最新的模型能力塞进自己的产品。

这场军备竞赛,有一个必然的结局:大模型的高度商品化、同质化、可替代化。

拼模型能力,没有护城河。

你比友商快三个月上线某大模型,以及大模型驱动的 agent 功能;友商六个月后跟上,用的模型和 agent 能力都比你更强。时间上的领先、花费的金钱和精力,卷出的工时和损耗的员工健康,价值又是什么?

于是,真正的差异化只能在别处找。

vivo 给出的答案是「感知」。

感知,是 vivo 刚刚成立的新技术赛道。

中外互联网公司和手机品牌纷纷加速进军「AI 手机」。行业一度以为模型能力会成为手机厂商的护城河。

在胡柏山看来,实际并非如此。「相比模型而言,积累下来的场景数据才最有差异化。」紧接着他补了一句:「当然,该做还是要做,要做就找适合我们的,可以做慢一点,晚一点也 ok。」

当被问及「如果不看好大语言模型,vivo 会否发力世界模型」时,他的回答更加保守却又直接:「世界模型也很大。我们还是找适合我们的技术路径。我们先把手机模型搞好,小模型搞好。」

当今 AI / 互联网科技巨头大打人才争夺战,顶级研究精英如 NBA 巨星般抢手,转会费一再突破新高。但胡柏山并不认为 vivo 应该为这团火再添柴。他告诉爱范儿,先想清楚思路,看清方向,定好技术平台,再发力,完全不迟。

在这个所有人都在比拼模型能力和 AI 人才储备的时间点上,掌门人直接把 vivo 的优劣势与行动纲领展开在媒体面前。这种坦诚令人印象深刻:vivo 的稳健、谨慎, 究竟有何用意?

胡柏山回应称,vivo 从不回避竞争。相比模型、算力,未来最大的差异化是来自于场景数据。

场景数据,是跟着使用行为逐渐积累的,不能批发,不能抄近路——影像数据尤其如此。经过十年光学硬件积累、用真实场景训练出来的感知判断,没有捷径。

而这些积累与判断,构成了 vivo 接下来押注的「感知」的底层。这些东西,其他人(无论友商还是互联网/AI 公司)想要,也只能自己去积累。

这就回到了刚才那道鸿沟。大模型的训练数据是互联网信息,而这些信息已经被数字化。但现实世界里大多数有价值的信息,还没被数字化。那些无法或很难被转化,或者转化起来成本极高的数据,成为了 AI 走向现实世界的障碍。

光线、空间、人脸、动作、情绪,这些东西存在于物理世界,需要被感知、被转化,才能成为模型可以处理的输入。谁的感知做得好,谁就控制了大模型进入现实世界的那扇门。

现在,没有人知道这扇门后面是什么,也没有人知道最后会是谁站在那里。

押注「感知」

感知不只是「更好的相机」,这一点 vivo 很清楚。

胡柏山说,相机是记录工具,它等你按下快门。但感知是另一件事:持续观察、理解正在发生什么,把这些信息转化成设备可以直接使用的输入。7×24 小时,不需要你触发。

从「记录」到「感知」,中间隔着一个系统架构的重建。

胡柏山给这件事起了个名字:「感知一体」。字面意思,是感知到的信息和设备的决策系统要即时打通。这一点,现在还做不到。

难点在于,原始的感知场景数据,比如一段视频、一张图、麦克风收到的声音,体量巨大,格式混乱,里面大部分是噪声。把这些原始信号转化成手机真正「读得懂」的结构化信息,需要一整套专门的处理链路。

「怎么把场景数据转换成手机能够读懂的数据,是最难的。这个领域开源资源少,需要自主探索,」他说。

这也是为什么 vivo 在内部把感知设为一级技术赛道。

「一级」意味着感知不再是影像部门下面的一个子方向,它会统揽包括视、听、嗅、触等多种感官种类,和感知方向。

不过,vivo 的感知研究与研发工作仍处在初期阶段。胡柏山用 vivo 的通信研究院做了一个类比:大约 200 人的团队,从 4G 开始持续投入,走过 5G,现在在做 6G,已经十几年了。

对于感知赛道,他的预期是相似的节奏:小团队作战,先构建认知。认知清晰了,开始加油门;等待软硬件生态成熟了后,油门再往下踩。「有一种渐进式加速、螺旋上升的感觉。我们拒绝一脚油门一脚刹车。」

胡柏山不希望 vivo 做感知计算,以及做任何事情,出现拍脑门、砸大钱的做法。他认为,感知是一个天花板很高,但今天没人能说清楚正确的技术演进路线是什么的东西。「我们准备好用五年、十年的周期来持续投入。但我们对这件事的认知获取,要循序渐进。认知没到,砸钱都是烂尾工程。」

感知赛道是一个判断,但判断要落地,需要现成的积累。

vivo 的底牌是十年影像。具体看,这十年沉淀的东西有两层。 

第一层是硬件。与蔡司的合作,如今已经走到了联合研发的深水阶段,传感器尺寸这一轮 X300 Ultra 的主摄升到了 1/1.12 英寸,和索尼的合作在往提升半导体转化效率的方向走——他提到了感官技术方面的「雪崩效应」,一种可以把感光元件的进光转化率,从 90% 推到 110% 以上甚至更高的新技术路径。

在硬件层面,胡柏山的判断和行业观察者及媒体大致相同,传感器尺寸已经卷到了边际收益递减的阶段,接下来更大的空间在转化效率和外挂形态——在 X300 Ultra 上,vivo 已经做了 200mm、400mm 定焦增距镜,还有更多在路上。

第二层是算法和认知。

vivo 三年前提出长焦大底,两年后全行业跟上。但跟上硬件很容易,「为什么是那个时间点做这件事」,这个判断很难。vivo 为什么选择在那个时间点上做这件事,动机来自于在影像上多年领跑的经验所形成的认知——没有可以搬运和复制的捷径。

「算法跟认知强相关——认知知道要什么方向,算法匹配,这是需求和技术的有机结合,对手很难快速跟上。」

这个逻辑延伸到端侧 AI 上同样成立。在 X300 Ultra 上,vivo 首次提出了一种「多 agent」理念,也即:

你举起手机拍一张照片,有个 agent 在判断你在拍什么、用多远的焦段、在什么光线下——这个判断,以前需要用户自己去做。而另一个 agent 在整理你的相册,根据你过去的修图习惯推荐或自动添加滤镜,又或者它能自动把几段素材剪成一条可以直接发的短视频。

这不是那种统一的「超级 agent」,比如 Gemini 或豆包手机助手那样的,而是每个场景一个专项 agent,既互通有无,又各干各的。

胡柏山的理由很实际:现有的硬件算力撑不起一个什么都管的大 agent,手机AI的发展要结合硬件的能力上限来推进。

这些工作仰仗 vivo 在端侧 AI 推理上的持续投入。据爱范儿了解,vivo 是手机厂商当中目前在算力购买上花钱最多的——不仅是云端算力,接下来的押注方向,是在旗舰机上嵌入专用的算力芯片。

vivo 的节奏是:先把不要求实时响应的 agent 做好,影像和相册是当前优先级;全域感知是五到十年的目标,always-on、全时段在线、所有感官打通,这是最终的方向。

一切交给时间

今后十年的 vivo,会去往什么方向?

胡柏山给了一个大概的路线图:手机是现在用户的核心产品,往后至少 10 年也仍然不变;MR 需要三到四年;机器人是五年以上。

这三个方向不是各自独立的押注,底层是同一套感知能力在不同形态上的延伸。

vivo 去年成立了机器人 Lab,聚焦「大脑和眼睛」。当被问及目前进展如何,胡柏山很直接地摊牌:「2025年把阶段性目标梳理地更加清楚,2026年进入整个路径的清晰规划。」

但这对于 vivo 来说并不是问题。

在一个各家都在发布机器人样机、争相宣称「具身智能元年」的节点,承认自己还没手搓出实物,是一种不多见的坦诚。胡柏山说「手搓一个机器人不是我们要干的。」

vivo 的机器人逻辑,和感知赛道的投入逻辑是一套:先想清楚目标用户是谁,再定义场景,再识别核心技术控制点,再等技术成熟度到位。

胡柏山告诉爱范儿,目前 vivo 还在论证第一步。他们倾向于服务年轻人,这也正是 vivo 从旗舰到年轻系列产品线一直希望抢占心智的群体。vivo 的第一代家庭机器人,可能的起点,是照顾宠物和叠衣服也说不定。

但这个场景,会不会太小?胡柏山认为,不能一上来就做通用机器人,不可能刚一开始就把所有的场景都做好。如果你非要那么做,最终的结果也只能是每个场景都不及格。

诚然,今天的具身智能机器人,可能做预录制的舞蹈能做到一百分,其他场景都没有足够的说服力。特别是在家务场景,「就说打鸡蛋这件事,想要做到百分百成功率,人都不一定,机器人十年内也做不到。」

胡柏山希望,vivo 的机器人能够先把一件具体的事情做到 60-70 分,然后一代一代泛化,优化现有的场景,再获得新的能力。

喂好了宠物,场景数据就来了。场景数据够了,机器人就知道这只狗每天几点饿,进而知道这家人几点起床,进而知道这家人的生活节律。不需要一步到位,因为每一步都在为下一步备料。胡柏山管这叫「沿途下蛋」。

这个逻辑,和在手机端押注感知的逻辑,是统一的:先把影像 agent 做好,场景数据够了,感知能力才往外延伸。

但在机器人的旁边,手机扮演什么角色?「手机是最懂你的随身数字助理。你的行为习惯、偏好、你喜欢养什么宠物,都在手机里。」胡柏山说,机器人早期做不好的事,手机可以遥控介入补足。

就像自动驾驶的早期,人类一直在干预,干预产生数据,数据让系统越来越好。「手机和机器人之间,场景数据是打通的。」

当然,他也没有把话说满。感知这个赛道,其他人也在做。包括苹果、谷歌等在内都有自己的感知计算框架。vivo 在这个方向上的竞争空间,更多在手机端的小模型感知这个细分方向。这是除了苹果以外的大厂,暂时没有重点关注的地方。

今年,胡柏山给机器人 Lab 设的任务,是把路径图画出来:目标用户、核心场景、关键技术节点、以及「技术成熟到可以商业化」的时间预期。

vivo 叫停了 AI 眼镜项目。他算了一笔账:一年几十万台,不符合目标体量;两年内又做不出差异化;技术平台目前也撑不起 80 分以上的体验(超过 30g 戴在鼻子上会很累)——三个条件一个都没过,砍掉没毛病。

「三年后做也不着急,它不是关键品类。」

不过,这个决定放在今天的背景下,还是有点逆势。2025 年 AI 眼镜是行业里最热的新品类之一,这个事实有目共睹。Ray-Ban Meta 卖爆,国内跟进者一茬接一茬。

创始人兼 CEO 沈炜在年会上表示,vivo 今年的策略是「少押注,押重注」。vivo 选择给 AI 眼镜按下暂停键,但将感知赛道的存在地位升级,其实是统一的逻辑和筛选标准的一体两面:一个赛道的天花板够不够高、vivo 自身的差异化属性够不够、技术平台能不能支撑长期投入。

这种思路,与近期 OpenAI 等在内的硅谷巨头,摒弃「支线任务」,聚焦真正长板的思路不谋而合。

2026 年选定的道路,vivo 会走到哪,现在胡柏山也还给不出答案。感知一体化的技术难题还没有解,端侧专用芯片的落地有难度,机器人的路径图今年才刚开始画。

胡柏山知道这些,也没有回避。他说,认知到了加油门,认知没到宁可慢。

手机行业正在经历一个奇怪的时刻:换机周期拉长到四十个月,中国市场年销量从高峰期的五亿多部跌到现在约 2.5 亿部,存量市场的天花板清晰可见;但 AI 带来的能力跃升,又让所有人觉得什么地方似乎还藏着一点增量。

胡柏山的判断是,从 Smartphone(智能手机)到 Agent Phone(智能体手机),才是把存量市场变成增量市场的机会。而感知,是这个机会里他认为最难被复制的护城河。 

接下来交给时间。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

❌
❌