普通视图

发现新文章,点击刷新页面。
昨天以前首页

专访 OPPO 影像算法总监罗俊:好的计算摄影,就是让你忘掉计算摄影

作者 肖钦鹏
2026年4月9日 11:00

即将发布的 OPPO Find X9 Ultra,换掉了全部七颗镜头——主摄、广角、两颗长焦、丹霞色彩镜头、前置、增距镜……

没有一颗是祖传的。

OPPO 成立二十多年,极少有一代产品把影像硬件全部推翻重做。罗俊说:

这种革命式升级,好像真的没做过。

罗俊是 OPPO 影像算法总监,主导了从 Find X6 Pro 到 Find X9 Ultra 四代产品中的影像算法方向,还有那个已经成为 OPPO 影像标志的「大师模式」。

在 Find X9 Ultra 发布前夕,爱范儿采访了罗俊。我们聊了全新设计的「大师模式」、聊了还没上市的新手机,也聊了 OPPO 影像的过去、现在和未来。

我们试图找到一个答案:什么是计算摄影的「真实感」?

大师模式,用算法对抗算法

「大师模式」是什么?

简单来说,它是 OPPO 相机里独立于普通拍照模式的一套影像管线。

普通模式追求的是明亮、讨喜、一拍就好看——系统会自动拉高亮度、增强色彩饱和、做较强的锐化和降噪处理。这些操作让照片第一眼很抓人,但代价是:照片看起来,总是多了一些略显特意的「精良」。

这就是今天手机影像行业最普遍的争议:「算法味」。

算法味不是某一家厂商的问题,而是整个计算摄影发展到今天的结构性副产品。

当手机用越来越重的算法,去弥补小机身的物理局限时——多帧合成、AI 降噪、HDR 堆栈、超分辨率重建——每一次处理都在往照片里添加计算的痕迹:暗部被提亮,高光被压制,噪声被涂抹成油画质感,锐化制造出更多的「细节」。

结果就是,拍什么都好看,但拍什么都少了点纯粹。

「大师模式」走的是另一条路。

它用更克制的色调映射、更自然的锐化策略、更接近光学相机的影调逻辑来处理画面。该暗的地方留下暗部,有噪点的地方保留颗粒,不追求每一张都「亮白美」,转而追求照片的真实质感。

手机行业有一条不成文的规律:一个功能如果连续两代争议不断,第三代大概率就会被砍掉。

「大师模式」曾完美符合这个画像。

Find X7 Ultra 时代,用户对它的评价两极分明。喜欢的人说它「相机味」「高级感」;不喜欢的人说它「画面暗」「不锐利」,我甚至还遇到过,把大师模式的照片发给朋友看,对方第一反应是:你这张是不是拍糊了?

但大师模式活了下来。

从专业用户的小众工具,变成了连大学生都会主动选择的拍照模式。

更值得琢磨的是,用户喜欢大师模式,理由几乎一致——没有算法味。

事实上,大师模式跑的恰恰是整个影像系统里最先进、计算量最大的算法管线。

这种反差感,正是当下 OPPO 影像的缩影,也是过去十年,罗俊对计算摄影的全部理解。

传统影像的大师,做了大师模式

罗俊是影像算法专业出身,校招就进了索尼。

2000 年代初,日本影像行业就是世界影像行业的天花板。他做过 Handycam 录像机,做过 Alpha 单反,也经历了 NEX 微单系列从零到一的过程。

但真正让他看到行业拐点的,是索尼黑卡 RX100。

当时日元卖二十多万,一般的卡片机一台五六万日元。它一搞出来就卖一万多(人民币),但确实挺革新的。

索尼把一英寸底和蔡司镜头塞进上衣口袋大小的机身。这是影像小型化浪潮的发端。今天回头看,黑卡和后来的手机影像走的是同一条路:在极其有限的物理空间里,把画质做到极致。

只不过,手机走得更远。

在索尼的十几年,罗俊做的所有影像算法都跑在 ASIC 专用芯片上。一颗芯片两年一代,覆盖多条产品线,追求稳定可靠。

但他慢慢觉察到一个根本性的错位:

算法的迭代是很快的,但 ASIC 两年一代。整个算力和架构跟计算摄影、跟 AI 的研究思路有点不匹配——它太慢了。

后来他看到了 NPU——一种专门用来处理神经网络计算的处理单元。算法可以跑在软件层,迭代速度陡然提升。

但 NPU 最好的载体不在相机,而在手机。

2017 年初,罗俊在 MWC 上见到了 OPPO 展示的潜望式长焦技术演示——10 倍混合变焦,在当时的手机行业里没有人做过。他一眼认定这家公司有潜力,决定加入 OPPO。

有意思的是,十年后的今天,他主导的 Find X9 Ultra 搭载了一颗更好用的 10 倍光学长焦,但这是后话。

这段从传统影像到手机影像的迁移,决定了他做大师模式的底层逻辑。很多人觉得大师模式「没有算法味,像相机直出」,罗俊听到这种评价觉得有意思:

其实专业相机也有算法,ISP pipeline 还挺重的,全是用芯片实现的。只不过效果跟我们大师模式很类似,用户的参照系就变成了——我用手机的算法,也能得到一个像相机的效果。

在他看来,「相机没有算法」本身就是一种错觉。相机的算法只是固化在芯片里,用户看不见而已。

大师模式的设计起点,正是从这个认知长出来的。目标从来不是「去掉算法」,而是让算法像专业相机的 ISP 一样——做了很多事,但你浑然不觉。

OPPO 内部的说法叫「用计算去计算」

罗俊说,如果你的目标是「让算法不可见」,那你就不能去追某个单一参数的提升。你需要一套系统性的标准,来定义什么叫「好」。

他用四个字总结这套标准:真实还原。

三年,重构 OPPO 影像

2021 年底,罗俊从日本调回国内,全面主导 OPPO 影像算法的迭代方向。

对所有手机厂商来说,影像算法全面转向自研,都是个长期高投入,但短期低收益的决策。

但为了让影像——而非仅仅美颜——成为OPPO 旗舰手机的核心竞争力,罗俊重组起了一支数百人的影像算法团队。

「真实还原」是个相对务虚的概念:什么样的影像称得上真实,又该用什么手段去还原?

罗俊把它拆解成三个具体的维度——光影、细节和色彩。 他心里有个三年计划,希望用三代产品来重构 OPPO 影像。

Find X6 Pro 是在罗俊这个理念下,堪称转折点的一款影像手机,当时首先解决的是光影问题。

OPPO 影像认知总监程卓在接受爱范儿采访时曾说过,Find X6 系列的目标,是建立「正确的影调关系」——将扭曲的光影曲线拨乱反正。

这一代 Find 搭载了当时行业唯一的大底长焦——1/1.56 英寸 CMOS、等效 70mm 镜头,并配合全新的超光影图像引擎。

这套系统第一次让手机有能力在像素级别标定亮度信息,计算被摄物体、光线和环境之间的光影关系。罗俊说:

亮而不耀,暗而不黑,这就是我们对光影的基本要求。

罗俊还将一个面向专业用户、可以充分发挥手机影像能力的模式引入到 OPPO 的影像系统当中,他们将其命名为「哈苏专业模式」——这就是「大师模式」的雏形。

紧接着,罗俊团队要解决的是细节。

Find X7 Ultra 带来了行业首个双潜望四主摄影像系统,加入了支持 6 倍光学变焦的长焦镜头。

焦段的增加不只是「拍得更远」。在罗俊的理解里,它有更本质的意义:

有更多焦段,就有更多的参考系。你能用不同的视角记录世界,系统能还原的信息就更完整。

参考系——这是罗俊理解「真实还原」的核心概念。

真实不是一个绝对的客观标准,它依赖于你拿什么去做参照。取景框是一种参考系,人眼所见是另一种,用户脑子里想象的「好照片」又是一种。

焦段越多、细节越多,系统捕获的参考信息就越完整,离用户心里的「真实」就越近。

Find X7 Ultra 还进一步提升了光影的质感,尤其是中间调。

日常照片里最大量的明暗信息集中在中间调区域——不是最亮也不是最暗的过渡地带。中间调如果粗糙,照片就缺少实感。

也是在这一代影像系统里,OPPO 正式推出了「大师模式」。在罗俊看来,大师模式并非专属于摄影师,而是把调教相机的权力交回到用户手里——就像相机的拨杆和旋钮那样。

但第一代的大师模式的泛化能力有限,场景兼容性不够,导致用户评价褒贬不一,喜欢的人非常喜欢,玩不明白的也大有人在。

对罗俊来说,技术上的问题总归能解决,但怎么把理念坚持下来、传递出去,是一个巨大的挑战:

大师模式能坚持下来,也许就是因为我们没有妥协。

光影和细节都有了,色彩是最后一块短板。

计算摄影高度依赖统计学,在复杂光线下,白平衡不准、肤色偏移、环境色失真,是统计方法的固有局限。

Find X8 Ultra 加入了一颗新镜头——丹霞原彩镜头,专门做分区色温感知。它能识别画面中不同区域的色温分布,分辨自然光和人造光源,对肤色和环境色分别做独立还原。

色彩链路说到底做两件事,白平衡和色彩映射。白平衡是统计方法,有些场景就是算不准。有了丹霞之后,因为它是绝对信息量,在干扰色场景下就有机会把偏差修回来。

丹霞的作用并非让颜色更好看,而是给色彩计算管线提供一个物理锚点——一个不依赖统计猜测的客观参照基准。

你看,又是参考系。

到 Find X8 Ultra,还有一个不容易被注意到的技术整合完成了:大师模式和照片模式在 RAW 域的处理算法实现了统一。

两个模式出来的 RAW 片是一样的,差异只在后端——照片模式走更明亮讨喜的色调映射,大师模式走更克制的光影层次和锐化策略。

这意味着,「大师模式」不再是一个独立的功能分支,它的底层能力已经成为整个影像系统的内核。

在罗俊看来,到了 Find X8 Ultra 这一代,终于实现了他最初的设想——光影、细节、色彩,三个维度第一次集合为完全体。

于是,全新的 OPPO 影像品牌「凝光影像(LUMO)」 诞生了。

罗俊团队对好影像的评判标准,在历经三代产品迭代后也逐步成形——其中一个基准,就是照片的「连续性」

专业相机拍的照片也有噪点,但它的噪声、它的颗粒是连续的,看起来很舒服。我宁愿放出一些连续的噪声,也不要让画面清晰一块、模糊一块。

这些标准并不是在某一代产品研发过程中突然冒出来的,它们源自罗俊骨子里传统影像的基因——信噪比、连续性、色彩映射——只不过换了个载体,从相机到手机,从传统光学到计算摄影。

随着新的影像算法系统逐步成型,罗俊也面临一个新的局面:软件侧能做的,做得差不多了。算法迭代的边际收益在递减。

接下来怎么办?

Find X9 Ultra:十年回声

答案是再来一遍。

罗俊把手机影像的发展分为三个阶段:

第一阶段从 2015 年前后开始,核心是器件小型化——把大 sensor 塞进手机,从 1/3 英寸一路堆到一英寸;

第二阶段从 2021 年前后开始,AI 和计算摄影的算法能力上来了,不追求一英寸大底也能通过算法补强,得到画质不错的照片;

第三阶段则是现在:

你不是靠器件,不是只靠算法就可以。它一定是软硬结合、端到端的创新,才有机会把效果再往前推。

Find X9 Ultra 就是第三阶段的产物——为此,OPPO的影像团队不惜换了全部的七个镜头——

主摄从 5000 万像素一英寸换成 2 亿像素 1/1.2 英寸,广角从 1/2.5 英寸升级到 1/1.95 英寸,第一颗长焦镜头换成了更大底的传感器,而第二颗长焦镜头从 6 倍光学拓展到 10 倍光学,丹霞色彩还原镜头升级,前置从 3200 万升到 5000 万,连增距镜都从 200 换到了 300。

其中设计难度最高的,无疑是那颗 10 倍光变的长焦镜头。

罗俊向爱范儿展示了 Find X9 Ultra 的10 倍长焦镜头——1/2.8 英寸传感器搭配 230mm 的镜组,但整个模组只有 29 毫米长,其中棱镜的长度,约等于半个小拇指。

更妙的是,这块棱镜并不是一体成型的,而是由三块棱镜拼接在一起,还在中间封了一层空气用来消除杂光。这个工艺在产业链里没有先例——没有人把棱镜切成三块再粘,也没有人在棱镜中间封过空气层,当然也没有人搭建过这样的产线。

于是,一切都要从头做起。

罗俊把这颗 10 倍长焦定位为「口袋增距镜」——OPPO Find X9 Pro 的增距镜长十几厘米,而 X9 Ultra 的「内置增距镜」只有 29 毫米,但成像的素质并无二致。

正因如此,你在 OPPO Find X9 Ultra 里,能找到 14mm-230mm 的所有主流焦段,这就是相机经典的「大三元」配置。

2016 年,罗俊在 MWC 上被 OPPO 的十倍潜望长焦技术演示打动,决定加入。十年后,他和他的团队在手机里嵌入了一颗迄今为止最好 10 倍光学长焦——对罗俊来说,这是一声跨越十年的回响。

有了 10 倍长焦之后,大师模式的创作空间一下子就打开了:视频可以用 10 倍、20 倍拍,人像模式也新增了 10 倍焦段,这是罗俊三年前没想到的:

以前可能都没考虑过用 10 倍拍这些东西,突然发现素材空间又变大了,这个感觉还挺有意思。

新一代的大师模式也变得更易用、更好分享了。

罗俊说,他私心最喜欢的就是这个「配方分享」功能,用户在大师模式里调好拍摄参数、拍出照片,配方就已经被嵌在照片水印里了。

别人看到这张照片,用 ColorOS 的一键闪记功能,就能快速导入同样的配方一键出片——对喜欢打卡的小红书姐妹,可真是太友好了。

而这个功能成立的前提,恰恰是前三代把大师模式的底层管线做到了足够稳定。如果管线不成熟,配方分享出去换个场景就失效了。

好的计算摄影,就是让你忘掉计算摄影

采访快结束时,我们聊到了一个稍微务虚的问题:什么叫计算摄影的「真实」?

罗俊的回答就两句话:

一个叫所见即所得,一个叫所得即所想。

所见即所得是基础——取景框里看到什么拍出来就是什么。但他认为真正重要的是后半句:用户脑子里对一张好照片是有预期的,影像系统的工作就是尽可能贴近那个预期。

你拍一张照片的时候,是有想象一张照片效果的。不管是你看到的还是你想的,这时候是脑子在后期。

你按下快门之前,脑子里已经有了一个画面。那个画面就是你的参考系。

这让我想起,之前去悉尼旅游时的经历。那时,我专程去一个有名的打卡机位,但遇到阴雨天,人很多,拍完之后,我也对照片不太满意。

于是,我想到用豆包修图——我加了夕照,去掉了人影,修完,我觉得这就是我想要的,但,这还算摄影吗?

罗俊告诉我:

它一定是摄影。但你脑子里想的画面和你眼睛看到的之间,到底有多少比例是记录的,有多少是生成的?这个比例在不同工具、不同场景下是变化的。我们做影像系统的价值,就是把真实记录的那部分做到极致。要不然的话,咱们都靠豆包就完事儿了。

从大师模式,到重构 OPPO 影像,再到 Find X9 Ultra——在罗俊看来,这一切从来都指向同一个目标:

把脑子里想的那张照片,和手机拍出来的那张照片之间的距离,缩到最短。

真实还原,还原的不仅是现实本身,更是心里的参考系。

罗俊说,在未来,影像交互对于用户而言必须简洁——用户拿起来就拍,不再纠结,因为系统已经理解了你想要什么。

我想那时候,真实还原的理念,就已经渗透到整个 OPPO 凝光影像系统的脉络里了。

好的计算摄影,就是让你忘掉计算摄影。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

十年时间,移动影像抵达「入海口」

作者 周奕旨
2026年4月2日 12:00

1975 年的冬天,柯达应用电子研究中心的工程师 Steven Sasson,在实验室里拼凑出了一台古怪机器。

它重达 8 磅、仅 1 万像素,按下快门后,需听着沉闷的机器运转声等待漫长的 23 秒,才能将一张黑白照片写入到飞利浦卡式磁带里。

面对极低的像素和数据存储速度,Steven Sasson 认为这玩意还需要 15 到 20 年才能真正和胶卷竞争。

之后二十年,影像行业沧海桑田。影像载体加速数字化,并在二十一世纪的头一个十年,终于如 Steven Sasson 所愿,终结了胶卷时代。但那时,相机依旧属于「家庭重资产」,人类还没法随心所欲地拍照,更遑论视频创作。

直到移动影像时代来临。

刚刚发布的 vivo X300 Ultra,搭载第五代骁龙 8 至尊版,抛出了一个令人侧目的规格:全焦段 4K 120 帧 10-bit Log 视频。

此时回头看去,才发现人类用五十年的时间,建造了一条数字大运河,并让每个人都能行船其上。

底层扩容,鲸吞光影

这条运河里奔涌的河水,本质上就是海量的「密集影像信号」。

这个听起来颇为学术、有些距离的词,实际与每个举起手机按快门的人息息相关——

回想一下早年的智能手机,你一定对这样的画面不陌生:高光死白、暗部死黑、色彩断层、帧数不高,还伴随着挥之不去的噪点。

▲ iPhone 4s 拍摄的夜景画面,图片来自@PhoneArena

视觉上的灾难,本质上都是因为底层图像信号处理器(也就是我们更熟悉的 ISP)「咽不下」庞大的信号。

那时的手机只有 8-bit 的量化精度。一旦环境光比超过传感器的承载极限,高光区域的电平就会发生不可逆溢出,变成一片死白;而信号的暗部,则会被 ISP 粗暴地抹平成一团带有噪点的死黑。并且物理级的信息丢失,任何后期软件都无力回天。

这个痛点,比我们想象中更持久。

厂商曾试图用增大传感器面积换取更大的动态范围解决这个问题。但时至今日,在极度受限的机身内部,单纯堆叠物理尺寸的路径已逼近极限,后端 ISP 变得愈发重要。

▲ 手机内部空间已经被影像模组与电池瓜分,图片来自@Notebookcheck

过去很长一段时间,受限于物理规格,手机的算力中枢停留在 14-bit 双 ISP 阶段,随着传感器捕捉的信息愈发庞大,ISP 的数据管道必须随之拓宽。

从 2020 年骁龙 888 引入 14-bit 三 ISP 以应对并发数据,到后来 Spectra ISP 迭代至 18-bit,移动平台将影像数据的处理带宽扩容了 4096 倍。如今,为了承载更密集的影像信号,vivo X300 Ultra 搭载的第五代骁龙 8 至尊版 Qualcomm Spectra ISP 顺理成章地迈入了 20-bit AI 三 ISP 时代。

别小看这区区 2-bit。在数字底层,这个单位的任何变化都呈指数级海啸:单通道色彩的量化层级从 26 万平稳过渡到了 104 万级,为底层数据提供了 4 倍的动态范围余量。

依托这层宽裕的物理基底,vivo 与高通在底层影像管线上,完成了深度的联合调优。

结果也很生猛:X300 Ultra 实现了全焦段 14EV 的动态范围覆盖。

这股庞大的数据余量,被悉数灌注进了两个极其考验底层的专业规格中——Log 格式,与杜比视界。

在 Log 模式下,20-bit AI 三 ISP 负责将传感器捕捉到的线性信号,实时映射为对数曲线。由于底层采样精度的提升,手机保留了更丰富的原始信息,从而在后期调色时能有效抑制色阶断层,扩展了后期处理的边界;而在杜比视界标准下,算力则体现为对动态元数据(Dynamic Metadata)的封装精度。它能够更准确地对准每一帧的亮度与对比度信息,使高光与暗部的 HDR 层次得到如实呈现。

落实到实际体验上,效果也很明显——我们带着 X300 Ultra 去拍摄了一场「热带极光」,凭借 Log 格式极其优秀的动态范围与宽容度,我们在夜半时分记录到离岛的渔船照亮了天际。

经过后期还原后,渐变的天空过渡自然柔和,没有出现色彩断层,噪点抑制表现堪称优秀。

至此,原本属于影视工业的宽容度规格被集成进移动芯片,在底层凿出一条数字运河的航道。普通人也就能随时随地、以手机拍摄出更高规格且具备后期空间的视频,进而有了更多的创作可能。

多摄并发,变焦丝滑

解决了单颗镜头的明暗宽容度,只是完成了静态画面的重构。

但视频的核心在于叙事的连贯性,这就引出了移动影像长久以来的另一个痛点:变焦卡顿。

在拍摄视频时,我们常需要推拉镜头来切换视角。但滑动变焦环时,画面往往会伴随一阵不易察觉的跳动,色彩和白平衡也会发生突兀的偏转。

影像的叙事感,就这样被硬件的迟钝瞬间撕裂。

症结在于手机内部的镜头各自为战。它们素质各异且受控于独立时钟,传统 ISP 的「冷启动」策略只能在变焦瞬间仓促切换。时间戳一旦错位,画面的跳帧与色彩断层便注定发生。

▲ 传统专业摄影中,时间戳的对齐需要参照全球时间

要在移动设备上实现顺滑的变焦推拉,就必须在底层强行打通这些相互独立的硬件。

在 vivo X300 Ultra 实现全焦段高规格视频录制的背后,第五代骁龙 8 至尊版用两套相互咬合的底层机制将硬件扣合起来——

20-bit AI 三 ISP 撑起庞大数据吞吐,让三颗镜头得以在后台保持热并发状态。即使当前只用主摄录制,超广角和长焦的 ISP 通道也已经在后台同步运行着 3A(自动对焦、自动曝光、自动白平衡)算法,为随时上场热好身。

与此同时,第五代骁龙 8 至尊版的高通多摄同步系统(MSCC),扎进最底层的硬件总线,给这些原本各自为战的镜头,强制下发了一个统一的「全局时钟」。

广角、超广角、长焦。

无论它们的物理位置有多远,传感器素质有多大差异,底层的死命令只有一个:

在同一个微秒,同时曝光;在同一个瞬间,读取数据。

时间轴,被彻底锁死。

两套机制并发运行,以此换取 vivo X300 Ultra 跨镜头推拉时,不同传感器之间的数据交接平稳过渡,从而缓解了跳帧与白平衡漂移的痼疾。

专业影像领域如河流般暗流涌动,如果没有坚固巨舰为依托、严密的团队做协同,不得逐浪其中。

如今,底层芯片的算力在小小的机身内部,用数字逻辑管控物理秩序,让没有资金与团队的创作者,也能泛舟而行。

编解码,与算力双向奔赴

在影像领域,长期存在着一个反直觉的「算力悖论」:

在普遍认知中,相机处理器并非性能怪兽,却能吞吐洪流般的超高规格视频数据;我们手中搭载着强悍 SoC、能够高帧渲染游戏大作的智能手机,但在持续的极致影像记录时捉襟见肘。

究其根本,相机的处理器(ASIC)生来只为影像服务;而手机作为复杂的数字枢纽,真正留给影像的算力其实并不富裕。

算力的拮据,逼迫过去的手机不得不向存储空间妥协——普遍采用 H.264 或 H.265 等帧间压缩(Long GOP)格式,只记录关键帧和差异信息。这种做法极大地压缩了体积,却也彻底破坏了画面的物理空间信息。

▲ H.264 编解码原理,图片来自@ResearchGate

没有后期的底气,所有的前期快门都不过是碰运气。

一旦将这种素材导入剪辑软件进行二级调色,哪怕只是轻微拉扯一下阴影或高光曲线,画面立刻会暴露出大面积的马赛克色块与严重的色彩断层。

后期的调色空间被死死锁住,创意的落地、创作的可行,都无从谈起。

随着 vivo X300 Ultra 上市,长期以来的固有认知正在失效,4K 120fps Log 这类专业格式,来到手掌的方寸之间。

除了 20-bit AI 三 ISP 的持续发力,让有着高后期空间、创意可能的格式来到我们手上,此外,编解码器也功不可没——在 vivo X300 Ultra 上,vivo 与高通互相协作,成为国内首个落地 APV 422 编码的智能手机。

APV 采用的是专为非线性编辑(NLE)打造的「帧内压缩」,将每一帧画面的色彩深度与亮度信息独立、完整地封存起来。将 APV 422 格式的素材在达芬奇中调色,画面会展现出相当强的韧性,在应对节点式操作或复杂的 LUT 映射时,也能有效支撑起暗部细节与高光过渡,大幅减少了以往手机视频一拉曲线就出现马赛克与色阶断层的尴尬。

更友好的是,在提供与影视标杆 ProRes 几乎同等极致画质的前提下,APV 的底层编码机制让文件体积进一步降低了约 10%。

在内存价格飞涨的大环境下,编码效率提升有助于创作者开源节流,能省下不少钱。

性能与编解码器技术的双向奔赴,为这条大运河打造了高规格的「数字集装箱」,将信号完整且顺畅地运送到后期工作流,手机得以拥有与专业数字电影机全链路闭环无二的创作潜力。

移动影像抵达入海口

2014 年,vivo 推出 Xshot 拍照旗舰,与 X 超薄、Xplay 大屏两台机型一起组成三位一体产品线。

这台手机搭载 1300 万像素的索尼第二代堆栈式传感器、F1.8 的大光圈、光学防抖和双色温补光灯。而另一个没那么引人注目的配置,是 Xshot 配备的骁龙 801 处理器引入了双 ISP 架构,用以解决快门迟滞问题,并为高频作用的 OIS 光学防抖计算补偿角度,提供算力支持。

▲ vivo Xshot,图片来自@vivo

用底层算力辅助物理防抖的工程雏形,在今天演变为第五代骁龙 8 至尊版上 OIS 与 EIS 极高频数据握手的全焦段防抖链路。

非常巧妙的呼应。

此后十余年,手机影像能力一路狂奔,所产生的数据从溪流汇聚成洪流。 承载汹涌信息的河道,也持续扩容。

回溯至 X100 Ultra,行业首次将 2 亿像素长焦塞入受限的机身时,瞬间快门带来庞大数据拥堵。高通引入认知 ISP(Cognitive ISP),在底层提供了硬件级的实时语义分割与算力冗余,让高像素的数据吞吐不再伴随漫长的处理黑屏,干净利落。

到了确立专业影像基调的 X200 Ultra,战线被推进至更为严苛的暗光 4K 视频。面对极低信噪比的环境,依托骁龙底层的异构计算平台,影像架构完成了从传统 ISP 向 NPU(神经网络处理器)的深度交接。通过将 AI 算力前置到 RAW 域进行帧级降噪,手机终于跨越了小尺寸传感器在夜景视频中的进光量枷锁,实现了干净、可用的动态记录。

每一次前端模组与传感器的激进探索,都在对底层的吞吐能力发出严苛拷问。

如今,在 X300 Ultra 上,这场向底层索要宽容度的漫长工程,终于触碰到了工业级影像标准的边界。

回头,移动影像从「拍到」到「拍好」的河道蜿蜒漫长;前眺,从「记录」迈向「创作」的汪洋近在眼前。

数据洪流激荡交汇,骁龙筑起的河床向宽而行。

移动影像,终于在此刻抵达入海口。

让我有个美满旅程

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

❌
❌