阅读视图

发现新文章,点击刷新页面。

对话 vivo OS 产品副总裁:AI 不会产生新的需求,通往远方是马车还是蒸汽机是产品形式问题

如果说智能手机操作系统的上半场,是把功能装进一个个按钮、一个个 app,那么在今年 vivo 开发者大会亮相的 OriginOS 6 则再一次印证,AI 和 OS 不可逆转的融合趋势。

除了 PPT 上多模态、推理能力、长文本处理这些热词,AI 已经不甘于成为手机系统的「功能清单」。

vivo 提出要做 UI Agent,试图让 AI 真正理解用户意图,用一次自然的请求,完成跨 App 的整场协作。

巧合的是,几天前的 OpenAI DevDay 也在谈同一件事:宣布把 ChatGPT 变成一种「操作系统」。一句话,Spotify、Canva 在对话里自动唤起;一个面板,交互就地完成。对话即应用,应用即接口。

当 OS 学会理解人,当模型学会调度应用,AI 与 OS 的边界开始变得多余,是殊途同归,还是将分岔出全新的生态?

在开发者大会演讲后,爱范儿与媒体专访了 vivo OS 产品副总裁、AI 全球研究院院长 周围,以及 vivo AI 产品总经理 关岩冰 和 AI OS 产品总监黄梓勋。

AI 与操作系统:趋势与分歧

Q:今年各家厂商都在谈「AI 手机」,但概念众多——AI 原生、智能体、AI 操作系统。你怎么看当前行业在 AI 手机方向上的探索阶段?

周围: 其实 AI 和手机一直是三个问题要解决的。

第一,一定要有大模型的能力,而且我们比行业大模型还要多一个,就是一定能够端侧化,如果不能端侧化就跟行业里用云服务没有什么区别。而且你用云能力或者是端侧化能力一定要个人化,如果不能个人化就跟通用能力没什么区别。恰恰个性化和个人化还是有价值的,因为我们每个人希望这个手机在身边能不能做做助理,管管日程。所以你会发现一定要建模型相关的能力,这是第一层,vivo 在这方面做得很扎实。

第二,AI 和手机的结合,我以「理工男」的角度是做两件事情:1. 手机系统能力的 AI 化,去年我们也做了 Writing to Ask、Image 这些公共的能力(系统的能力),你一定要有这样的能力才能给上面做应用。2. 除了这个能力外,我们厂商能做很多部分,手机用户能够感受到的也有 100 多个模块,这些能力肯定要自己先做,我们把它做一个「通控设施组」(通知中心、控制中心)我们自己有一个口诀。但是用户用手机,手机厂商只占了 15% 的时长,还有 85% 的时长是由开发者给我们的服务和能力提供的,特别是头部的互联网厂商又在这 85% 中占了 80% 或者是 70%,他们的参与度还是非常重的。

所以,第三个问题是对于上层的服务中还有 85%,这些事情应该怎么做?我们在这里面要分两件事情来做:第一是愿意跟我们握手,一起的就坐下来商量来做。第二是 AI 时代到来了,是不是需要有一个全新的江湖地位和影响力,这个就留给时间晚一点来回答也可以。

我们觉得 AI 和手机的融合,我大概把它分成这三层:下面的是大模型和能力,中间的系统基础能力建设,基础能力建设。真正到上层的应用,我们做厂商的和三方的就分成两块来做,像阿里愿意做的就坐下来做,还有一些不愿意做的就留给时间。这些是 AI 和手机融合以及 Agent 相关的问题是这样来对待和处理的。

Q:前几天 OpenAI 宣布要做操作系统,一个很大的变化叫作「对话即应用」,我们可以直接在 ChatGPT 上调用 figma、spotify 这种应用的功能。我们知道手机是是互联网时代很重要的入口,现在大家就觉得未来会不会直接在巨大的 AI 对话中就成了一个关键入口,作为手机厂商 vivo 怎么看这个趋势?

黄梓勋: 我们作为手机厂商确实跟 ChatGPT 这样的公司有不同的角度,一方面我们有蓝心小 V 这样的 AI 助手,它确实是对话式的调用应用和能力,这方面要持续建设的。

另一方面是用户使用手机的时候,比如说该打电话的时候会打开电话应用,打车的时候会打开打车应用,这方面不会刻意的一定要用对话去解决,比如说整个系统的意图框架能够更快满足用户对于应用的调用,甚至是对于三方 Agent 的调用,这是我们认为最合适的方式。

比如说大家现在看到通过原子岛推荐出来的可能是一个服务的接口、服务的入口,但是也可能逐渐推荐出来是三方的 Agent,你要用对话去推进 Agent 吗?也不一定,因为现在对 OS 的使用上,用户比较依赖 GUI 的界面手势交互会比较多。所以在 OS 的角度上还是考虑用户在不同场景下怎么样更快、更便捷的获得服务,无论这个服务是接口式的服务直达还是 Agent 的服务推送。

确实我们在蓝心小 v 方面也会加强以对话式的方式,甚至是结合界面的主动交互的方式能够更快让用户获得。

关岩冰: 我认为国内外生态有一定的差异,ChatGPT 支持 COS、Spotify,包括还有 figma 这些作图软件,在海外有生态的基础,在国内确确实实有一点不一样。

第二,我认为它不是非此即彼的绝对的 0 或者是 1 的问题。举个例子,类似于蓝心小 v 这样的 AI 助手,早上发布会也讲,它善于解决的是用户个性化的需求,在传统的 APP 或者是互联网生态,比如说传统 APP 一个界面就是手机尺寸的大小,一个界面能放 10 个按钮或者是 15 个按钮,但总有大量的用户的需求不是这 10 个按钮或者是 15 个按钮,他找不到这些需求,其实这些需求是很长尾的很个性化的,这些需求适合用 AI 助手来解决。

今天上午有一个 demo 的例子是「你把这张图片转化成皮克斯风格,并且设置为壁纸」,这种长尾性的需求在传统的 APP 是不会做的,但是非常适合 AI 助手,因为非常个人化和非常个性化。

未来我们觉得这个生态可能有一个阶段,它不是说要不就是 APP 生态,要不就是流量入口,这不绝对。还是要回到用户需求,有一部分用户需求在这个阶段更适合用 AI 助手和 Chatbot 的方式来解决,对用户需求会更好。

周围: 其实用大模型做应用现在百花齐放,我们更关注的还是既要做能力的建设,同时也要很克制在面对这样的情况。我们不能避免的是在做用户习惯和服务的分发,接下来的策略可能是第一建好能力,第二是需要合作伙伴跟我们一起来做这件事情,对于有疑虑的服务的提供商可能还是希望大家观望一下,克制一下。

端侧模型与能力建设

Q:现在每个厂商都要做端侧大模型,也基本上每个厂商都说要做个人助理。vivo 提出的「UI Agent」概念,与其他厂商的 AI 助手有什么不同?

关岩冰: 今天上午讲到我们的选择是个人化智能,并不是所有的厂商都是个人化智能。我们觉得个人化智能就有几个特性:

第一,它像你身边的朋友或者是一个伙伴,所以我们有一个很核心的能力就是端侧,因为只有端侧才能无时无刻在分析你的数据、洞察你的需求、感知手机上的屏幕等等。其实并不是所有的手机厂商都具备端侧的能力,就像刚才周围总讲的我们在端侧的能力上还是比较出色的。

第二,真正多模态的自然交互,它包括语音上的交互,包括 UI Agent 所带来的我们对屏幕、图像感知上的交互,这也是一种交互,包括我们在文本上的交互。因为有多模态的交互所以才能保持交互会更自然,就像一个人一样跟你交互。这是我们两个核心的差异化的点或者是优势,相对于其他的厂商而言。这两个优势才能保证我们做的东西无时无刻在手机上,而且无时无刻给你提供符合你个人的个性化的服务。

Q:理想的 AI 智能体需要哪些条件?哪些已经具备?

周围: 以前手机是 APP 应用分发的渠道,其实整个行业对于软件商店的分发的权限在哪里,边界在哪里我们是很敏感的。其实智能体时代的分发也是同样敏感的问题,vivo 的企业文化是希望共赢共建的,所以对未来 AI 智能体的分发我们作为一个手机渠道,我们还是希望克制和共建。

哪些能做哪些不能做呢?第一,我们希望智能体对于手机本机的功能和系统能够做到的我们都做了。第二,同样这些智能体的 Agent 商店、包括个人化智能要搭载的框架,这是平台厂商要做的,所以这些工作都就绪了。

但是在跨 Agent,Agent 之间通信的时候是整个行业共建的事情,还有一个重要的参与者是「开发者」,主要是互联网的厂商。面对这个问题时,我们希望是一起商量着来建的,所以还有哪些做不到的就希望在互联网应用 Agent 的分发上,我们是希望「商量」着来、是共建的。不是说我们做不到,而是这件事情是行业共建利益的事情,vivo 还是有自己的本分需要坚守的。

Q:现在智能手机所谓 AI Agent 的能力,其实离广泛意义上定义的能力有点远,因为可能每个 app 的信息孤岛不会把底层数据给到手机厂商,有些厂商会通过无障碍功能识屏的方式曲线救国。这是主要障碍吗?

周围: 今天你的感受跟我们的感受是一样的,当智能体特别是手机的自动智能体要做任务的时候,我们只能做厂商自己的功能、自己的应用,比如说秀一下是否流畅、调一下亮度、连接一下 Wi-Fi 都没有问题,但是你想跨应用,对方目前是抓住安全授权的标准在和终端厂商有一个讨论的过程。

我们觉得作为一个终端厂商,第一是要积极推动行业标准的建立,第二是 AI 技术从现在到成熟还有几年的过程。今年我们也在大方宣布基于手机界面 UI 的自动识别和操作,这些能力会每年越来越成熟。而对于互联网行业他们哪天需要厂商一起服务用户的时候,我们自然就一拍即合。

我相信互联网行业里有很多这样的公司他们是很大方在做这样的事情,他们都在和我们做这样的事情。也有很多担心未来的界限在哪里搞不清楚的,有很多这样的公司,我们就觉得留给时间来回答。

Q:vivo 与国内大厂在 Agent 上的合作现状?

关岩冰: vivo 现在是以比较开放的心态跟很多大的厂商合作,包括高德、百度,包括蚂蚁的支付宝,我们今天已经有很多合作了,未来 OS6 在很多 Agent 在未来一个月内会逐步上线,我们以开放的心态来接受,我们认为不是非黑即白,不是说 Agent 做了之后传统业务就没法做了。

Q:去年 vivo 还在谈 175B 超大模型,如今重点转向 3B 的端侧 AI,为什么?

周围: 可以这么说,去年我们做了 13B 和 7B 的端侧模型的实现,最后发现其实只有 7B 堪堪能上线,但是 7B 的模型在手机上跑得不是太理想,它占的内存比较大。直到今年发现 3B 上得比较好。

为什么有这样的选择?因为我们没有打开这个盒子,我们要知道端侧模型在手机上要做哪些事情,先要把手机上做的事情识别出来。

第一,它一直在识别人在手机上做的各种操作,举个例子只有 vivo 手机能够做到的,如果你查一个图标,或者是滑动选择一行文字,或者在页面上做一个全选,你发现 vivo 的原子岛有一个东西下来接你,这就是意图识别,这是在端侧上能够做到的。而且只有我们在端侧上能够做到,因为我们有一个端侧模型实时分析你要做的事情,比如说这个地址存在便笺里是要做导航,还是做日程的添加呢?我们有端侧模型在实时识别你的意图。这意味着手机里有非常多的识别意图、拆解任务等一系列的工作在做。我们这个功能 2024 年对行业发布,我们希望有些事情是需要蹚过之后才有心得,才能做正确的选择。

今年我们旗帜鲜明做选择的时候,并不意味着 3B 是唯一做的,其实很多 1B 的模型其实也是一直在做的。刚才您的问题是不是 1750 的模型就不做了,1000 亿的模型就不做了,70B 的模型就不做了?NO,是因为当下今年的大模型比去年的大模型功能更强,去年的大模型比前年的大模型的功能也更强。我们发现云端的功能相对容易做,真正难的恰恰是端侧的能力比较难。

今年 70B(700 亿)参数的大模型比去年 175B(1750 亿)的参数还要强了,我们 3B 的模型比过去 10B 的模型还要强,已经比 2023 年 1000 多亿参数的模型还要强,已经能够满足今天端侧任务和复杂任务的拆解,不是因为我们放弃云端,而是分成了两个阶段,云端是云端,端侧是端侧,云端的能力已相对比较容易建立。

现在大模型有两个话题,一是满足日常推理和复杂任务的拆解;二是通用人工智能,现在媒体上吵的是通用人工智能时代还没有到来,其实复杂任务的拆解、知识的获取和提炼已经能够满足我们使用的。

作为手机厂商对于 AI 的探索和需求需要更前置一点点,就是需要在 1B、3B 对用户的意图和日常任务的拆解,中台、感知、执行都是用端侧模型在做。只是感觉今天外面的媒体在探讨大模型的时候很少触及这种归类,毕竟我们是制造终端厂商,很难在媒体上发起这样的探讨。

Q:3B 模型有哪些关键突破?

周围: 原来 7B 的时候最大的问题是需要 3.5G 的内存,8G 的手机是中高端机型的主要配置,包括旗舰机都有 8G 配置的,一个大模型端侧就占了 4 个 G,剩下也只有 4 个 G 的内存,4G 的配置是目前低端机的标准配置,它这样一下就把高端机变成了低端机。这是第一个要解决的问题。

第二个要解决的是 7B 模型只能做简单的任务拆解,不能做复杂的推理。比如说「帮我看一下今天下午 4 点北京到深圳的机票哪一个最便宜?」就这一句话你可能要下载 3-4 个卖机票的服务,还要去比价。

你会发现里面还有分析哪一个应用,查哪个 APP 的价格,还要看我坐哪个航司的习惯,这是一个复杂的问题。去年的 7B 就做不到。而今年的 3B 远超去年的 7B,而且所有的榜单里还有做 8B 的,8B 比 7B 强,我们几乎把全球能找到 8B 的推理模型做了评测,我们的 3B 要远超他的,从推理能力、归纳综合能力、复杂任务拆解能力都比它要强。

我们解决了两个问题:第一,3B 端侧模型内存只占 2G,其实不影响高端机的性能,我们解决这个第一号难题。第二,大幅度增强了推理能力,几乎可以把它放在手机做意图中控和任务拆解的中台,这两个问题都解决了

其实还有别的问题,比如说这次也非常在乎功能,今年做到 200 tokens,去年是做 80 几,今年直接做到 200 tokens,200 tokens 已经很厉害了,平时我们看一个屏幕吐词,基本上 26 左右你就觉得还行,我们直接干到 200 tokens,说明端侧的出词效能直接起飞的,这方面没有障碍了。

还有一个功能可能大家没有关注到的,其实是我们真正颠覆性的。在 DeepSeek 之前有一个月之暗面大模型,他最大的特点是长 tokens,我们这次也做到了。这个是巨大的突破,而且我们这一点也是做得极其优秀的,只是因为刚做出来,从做出来让用户感知到明显的利益可能还需要大半年来沉淀。所以您刚才的问题也问出了我们这一年做的一些东西,长 tokens 我们在端侧上做到了。内存直接把原来的 4G 做到现在的 2GB,出词速度做到 200 tokens,包括本身的推理能力也做得好,而且把它全部做到了手机上。所以 2025 年的原系统 6 给我们 3-6 个月的时间在功能体验上也许还有预期之外的意外的惊喜。

Q:DeepSeek 的开源对你们有影响吗?

周围: 对我们有影响。我们是 2024 年意识到这个问题的,当时我们做 1750 亿的模型,做出来之后往下卷,其实卷的是矩阵模式。但是我们马上就发现万卡集群都不够用了,我们要做两万卡以上的集群,两万卡和一万卡光设备就要加 20 几亿,而且这还远远不够。这样下去卷通用人工智能我觉得不太现实。

中国做大模型的行业,大家也知道很多创业公司也卷不动。因为募资几百亿,做个 4000 亿的参数,可能要花 50 亿买算力,而且这 50 亿里还要三分之一,差不多是 15 亿是电费,往后每年烧电还要烧这么多钱,所以就烧不起。

当 DeepSeek 出来之后,对于千亿大模型一下就把大家拉齐了,因为 DeepSeek 做了很了不起的事情是完全开源的,而且可以让我们满血部署。vivo 的蓝心小 v 中有深度思考的模式,其实它是一个满血版的 DeepSeek。这就让我们觉得可以一下拿到很好的大模型。

对于我们这种自己做模型的公司有什么好处呢?就是辅助我们的 7B 和 3B 蒸馏学习。我觉得 DeepSeek 对于我们这种又要做模型训练训练又要做优化的公司来说是极其巨大的帮助和提升。

Q:为什么还要做 1B?它在端侧体系中的角色是什么?

周围: 感谢 DeepSeek 这两年给行业的推理能力带来极大的提升,去年我们还做了一个 13B,是因为 7B 做不到很多复杂的推理,当时我们希望是 13B 上线。结果发现今年 3B 已经超过了原来我们对 13B 的定义,3B 能够实现很多过去对于稍大尺寸的端侧模型的预测。我们就想说拿 3B 努努力就够了。今天我也讲过文本的摘要、生成,3B 已经跟云端大概是 97%-98% 的能力,已经很难察觉到有太大的差别,这已经够用了。

为什么要用 1B 呢?我们发现手机里有很多是要常设的,端侧大模型对手机的应用远比我们想象要广得多,手机里永远有一个大模型一直在运行。

我前阵子去了国内几个知名的人形机器人的实验室,我们也做机器人,在具身智能方面有一个大模型永远在运行的,我上午也说 3B 的模型在运行时要 750 毫安(功耗),这其实是受不了的,用上这个之后还是耗电的。这怎么办呢?我们是脉冲式的,你一会儿用一会儿没用,用的时候把它唤醒,大部分时候是没有用,综合下来一天可能就个把小时完全能够耗得起,比打游戏和拍照要完全省得多。

但是还有一个 24 小时都在线的,比如说地址围栏、你的行为、系统的参数是永远都在线的,这就要 1B。这 1B 不是在于复杂的推理能力,而是对本机的实时监测和记忆,这是交给 1B 模型在做的。所以在 1B 我们做得也是比较激进的,只是这个东西只是为手机服务,很少「丢」出来或者是对外沟通。

体验与哲学

Q:X300 上云端的 AI 功能已经有一些开始收费的倾向了,云端 AI 收费会如何把握边界?

周围: 我们有一个原则现在 vivo 有大量的端侧化,图像识别、声音识别,包括未来的同传、方言识别全部都端侧化,端侧化肯定是免费的。但是端侧化有一个问题,就是平台的算力要够,内存配置要够,至少是 8G 以上的配置。马上就面临另外一个问题,如果只有 4G 的低端机器,如果用户也要用的话,这时候可能用的是云端的功能,云端的功能在某种意义上是要消耗大量的成本的,这时候就考虑可能在成本上要分担一下。我觉得大概有一个趋势。

Q:现在手机厂商做 AI 容易陷入成做 AI 功能清单,用户普遍反映 AI 功能太多、太复杂。vivo 如何判断一个功能是否真正有价值?

黄梓勋: 我们内部对于 AI 体验这件事情有一个名词叫「无感化」。因为现在 AI 看似很强大,但是现在 AI 在使用渗透上还不算特别全面,一定程度上比较考虑用户对于如何使用这个功能的认知有很大的挑战。所以,我们一定要尽量弱化一定要通过一个按钮才能激活 AI 的功能或者是使用到 AI,而是通过无感化的设计,比如说保存文件的时候,我开启了一个录音,这个录音暂停或者是掐断就能自动获取 AI 的能力生成一个命名,在我们的理解里就定义成「无感化 AI」。

它确实是调用了刚才周围总一直介绍的端侧 3B 的模型,我们也做了很多优化,让底层的性能调度也好,包括在工作过程中对功耗的调度也做了很好的调优。我们在设计上弱化了用户一定要通过必要性的交互才能获得这些能力,而是在原有的使用功能和任务操作流中自然而来到这个节点,用 AI 能力来替换它的它传统需要手动调用这个功能或者是手动编辑的过程。

去年提出了重构系统体验,我们重构系统体验并没有刻意改变业务逻辑,或者是重新教会用户怎么使用 AI OS 或者是 AI 手机,而是在用户原有的任务流中,到了某一个节点我们认为 AI 预判到用户到这个场景,需要用到这样的功能时,可以很自然而然完成这个结果,这是我们做 OS 设计时一直想要追求的是「无感化」AI。

因为我们也做过一些测试过,当有一个按钮上面显示了 AI 的功能,对绝大多数用户来说会陷入一个短暂性的猜想,到底这个功能是什么,它会不会抓我数据,会不会带来一些无预期的结果。所以,我们在这个过程中避免的是创造新功能,或者是打造新场景,做 AI 和 OS 融合的过程中尽量回归到用户原有的习惯,用户原有的任务流不变,用最自然的方式,无感化帮客户完成。这是我们在 OS 体验过程中坚持的「无感化」的基本原则。

Q:如何平衡操作系统的稳定性和 AI 的快速迭代性?

周 围: 大家都知道我们 AI 团队这么多年下来自然也会遇到公司内部管理层,包括交付的时候是有很大的压力的,沈炜总有一个对 AI 团队的指示我觉得做得非常对,他说:AI 它不会创造新的需求,像我们做手机的,就应该把用户怎么用手机通过 AI 把它做得更好用。如果回到这个初心去看,我们工作可能是比较好开展的。

回到团队,因为我们软件有两三千号人,AI 又有一千多号人,几千号人包括做认知和做规划的人,很多时候就认为进入到 AI 时代,在这个划时代的到来是不是要颠覆性搞一个全新的东西出来,我身边有很多朋友给我们的感觉就是 AI 要到来肯定是划时代的,跟蒸汽机和马车一样是划时代的。

我觉得系统的稳定性和 AI 的颠覆性,我觉得最大的问题是真正要回到坐马车到远方是一个交通工具,至于你用蒸汽机还是马车才是产品形式。

现在我们非常平常心是用 AI 和手机的结合,哪些是变的?哪些是不变的?不变的是 AI 和 OS 融合有一句话叫作「系统功能的 AI 化」,大量的打电话做电话秘书,我们看相册也好,做便签也好,原来的这些功能都会做 AI 化,这些是传统功能的增强。哪些是变的呢?我觉得也是原来要实现的需求的变更。

比如说查一段字、一个应用,为什么要去猜我们的意图,这个意图只会出现在原子岛,高德地图或者是便笺,是不是要传给我存,或者是存给拼多多或者是淘宝搜东西。你会发现原来用户的需求其实没有变化,我们只是通过 AI 做意图判断,做你行为的预测。假如你真的丢掉某个应用中,我们可能帮你直接跑了。我们只是通过 AI 让用户更便捷、更易用、更好用了。不变的还是原来的手机,没有新增任何的功能,变的是把原来的功能重新思考,做得更好用了。

这样思考之后,我觉得这两年我们的行为、思考和认知及产品规划都自洽了,2023 年我自洽,感觉全新的时代到来,我们要做一个划时代的颠覆性的东西,那时候极不自洽,无论是对外沟通还是对内沟通都是极不自洽的,我们迷糊了一年多,但从这一年以来我们是非常自洽的,非常清晰知道自己在做什么。

Q:你们整体的 AI 时代的战略怎么走,刚才您说战略重心往端侧转移,那么原有的云端这块的训力怎么拆解?

周围: 因为我们是做智能终端的,不是做一个通用人工智能的企业,我们的战略其实还是在做我们这个企业该做的事,AI 上的战略是符合我们企业的,还是要做个人智能。去年有一个品牌有一个完整的描述叫「蓝心智能」,蓝心智能就是个人智能,个人智能可能还是很迷糊和笼统,你可以想象成希望为用户做一个「VIP 的个人助理」。

要做助理的话,生活中可能有一个帮你管日程的助理,但是可能做不到法务助理、报税助理和炒股助理,这些人是谁在做?这其实是行业里的金融公司在做、法务公司在做。比如说专门写专利的助理,这些是「专属助理」。我们的定位是一定为大家把手机变成各位的专属助理,这个专属助理可能手机公司会帮你管跟你个人强相关的东西,但是一些「专属」的就要搭台子了。今天上午我也说希望给专属服务和用户之间做一个桥梁,把专属助理也和用户拉到身边,我们做通用助理那一部分。这是我们完整的战略。

Q:vivo 也在做 AR、VR 眼镜,MR/AR 与手机的 Agent 会不会打通?

周围: 说到 Agent 其实在行业内以前就有很多服务,不是今天才有的,为什么大模型来了之后突然把它叫成智能体了呢?是因为它能够感知到我们身边的变化、能够洞察我们的意图、能帮我们做决策,才能把服务自动连接起来,就是因为这个变化才把它叫作智能体。

原来的服务天然还在,是因为我们加了这 4 个环节的建设所以变成了智能体。但是这个智能体在整个行业目前已经很通俗化、很广泛应用了。为什么手机公司还要回答这个问题呢?因为手机公司是真正懂用户个人习惯的,把用户的这些个人化特征在用户的授权下给到三方的服务商,他们的智能体一下就会变得很强了。

所以手机厂商在这一点上是产生了价值的,我们在为行业做平台的建设和支撑框架的建设,只是手机厂商多了一个身份,既给行业提供服务,可能手机上面还有一些电话、日程、短信这样的功能,所以同时我们做这两件事情。

Q:所以咱们还会跟 MR 设备做一些跨设备打通的考虑吗?

周围: 其实 MR 设备和手机最大的区别就是你得用摄像头看真实的物理世界,还要把物理世界识别出来之后再和数字世界关联,这个应用其实跟现在推的 AR 眼镜是很类似的。看到什么要识别出来,这时候是要请求服务还是做介绍都有一个应对关系,因为也是 OS 团队做这些事情,我们把它统一归总起来做的。

Q:今年 AI 硬件这块很火,手机厂商在 AI 硬件上有非常强大的优势,vivo 未来有没有往这个方面布局的规划?

周围: 我们公司其实成立了人工智能终端事业部,他们也有新品的发布计划,但是时间不应该由我来公布,我们的确像 vision 这样的产品,眼镜,包括公司也正式对外公布家庭机器人,这些是在做的。我们准备的东西肯定比对外官宣的东西要多。

今天大家也看到了我们的蓝河操作系统,其实我们蓝河操作系统已经适配了很多的芯片,包 ARM 的芯片,有 5-6 个芯片的适配。我们自己私下也接到了电力行业的中国企业,包括做 AI 眼镜的企业也找到我们沟通。

从技术的旁观者与记录者,成为技术影响生活方式的实践者。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


OriginOS 6,系统即世界|硬哲学

爱范儿关注「明日产品」,硬哲学栏目试图剥离技术和参数的外衣,探求产品设计中人性的本源。

「真正认真对待软件的人,就应该自己做硬件」,图灵奖获得者亚伦·凯 (Alan Kay) 曾如是说。

这句话在当时是对软件思维的一种挑战——它要求开发者跨越边界,理解硬件的底层逻辑。凯本人在图形界面、面向对象编程等领域的开创性工作,深刻影响了后来的计算设备形态。但他留下的这句名言,并不是在谈技术本身,而是在提醒人们:软件的创造,离不开对承载它的硬件的深刻理解与掌控。

亚伦·凯  图|Aleksandra Szpunar / Netguru

亚伦·凯  图|Aleksandra Szpunar / Netguru

半个世纪之后,凯的观点几乎已成为常识。但如果我们做个思想实验,把这句话反转一下呢?「真正认真对待硬件的人,就应该自己做软件」。

软件与硬件,从来都是相互映照的两面。让人喜欢一款硬件的,往往不是它的参数或材质,而是那层赋予它连贯体验与生命感的软件。

然而,在智能设备硬件性能不断跃升的今天,真正投入心力打磨软件体验的厂商却并不多见。缺少结构紧密、体验优雅的软件,再出色的硬件也难以充分展现潜能。最终,它可能只是性能出众的零件集合,而不是一个有灵魂的整体。

四十多年后,有一家公司依然在践行亚伦·凯的理念——vivo。它持续思考着软硬件结合的边界与方式,而 OriginOS 6,正是这一思考的最新成果。

在 OriginOS 6 上,vivo 尝试以操作系统为媒介,让设备与用户之间的关系更接近「真实世界」。光线会随环境而变,图标坠入桌面会泛起细微的涟漪,界面元素似乎拥有呼吸的节奏。Android 与 iOS 这两种系统,在这里并非模仿或拼贴,而是获得了一种意料之外、情理之中的交融。

如果说 vivo 智能手机是「地球」,那么 OriginOS 6 便是孕育其上的有机世界。它并非为了炫技,而是在尝试回答一个更有趣的问题:当软件被赋予生命感时,硬件是否也能因此变得更有人性?

光影:给系统加上物理法则

Let there be light.

OriginOS 6 最显著的变化,是光进入了系统。不是比喻意义上的「光明」,而是真实可感的光线——环境光、弥散光、边缘光——兼具交互设计意图与视觉审美的综合表现。

系统控件因此更具通透感,按钮按下的瞬间会闪过一道细微的微光。输入锁屏密码时,数字键被瞬时点亮,那种明灭之间的反馈,让操作更有触感。一些重要控件,例如闹钟设置按钮,也在底部融入了弥散光效,以轻柔的方式暗示其在界面中的层级与重要性。

一些系统控件,如「浮动动作按钮」(FAB) 的浮动控件感更强,且呈现弥散光效,向周围界面晕染

一些系统控件,如「浮动动作按钮」(FAB) 的浮动控件感更强,且呈现弥散光效,向周围界面晕染

更巧妙的是,对「陀螺仪」这一早已习以为常的元器件,OriginOS 6 做出了新的利用:在不同界面中,随着手机轻轻摆动,屏幕会呈现出细微的明暗变化,仿佛光线也随视角而转。

在真实世界里,光的入射角决定了物体的质感。OriginOS 6 将这种物理规律引入屏幕世界,让图标、卡片和控件获得了厚度、层级与光感,成为具有真实存在感的「物体」。

随着手机转动,界面元素周围的光效入射角度发生变化,呈现出光影流转的视觉感受

随着手机转动,界面元素周围的光效入射角度发生变化,呈现出光影流转的视觉感受

最能体现这一点的,是全新的锁屏主题「趣味光栅」。

设置最多四张照片作为光栅壁纸后,左右摇晃手机,画面会随角度变化而流动——像小时候收藏的光栅卡片,从不同方向能看到不同图案。静态图片、Live Photo、视频等都可转化为互动壁纸。

我用相机的 AI 换天功能,生成同一场景下午后、傍晚、夜间的三个「版本」,设置为光栅壁纸。每当我轻轻转动手机,光影流转,仿佛时间在掌中缓缓移动。那不是炫技,而是一种把传感器数据转化为感知乐趣的尝试:屏幕里的世界,真的动了起来。

有了光之后,是空间。

OriginOS 6 在界面层级之间加入了渐进式模糊,让屏幕有了纵深感。下拉通知中心或右滑进入负一屏时,背景会自然虚化,焦点始终停留在当前操作上。清晰与朦胧之间的差异,让系统能更直观地区分内容与背景、主与次。

vivo 还重新设计了通知栏的堆叠方式,让来自同一应用的消息以层叠形式归拢,重要内容浮现,次要信息收束。新的控制中心将快捷开关与通知内容合并,减少层级切换,使操作路径更自然。

每一界面层级浮现时,都会为下一层级带来模糊效果,谓之「渐进式模糊」

每一界面层级浮现时,都会为下一层级带来模糊效果,谓之「渐进式模糊」

这些变化的底层逻辑,是一种对系统空间语言的重新定义——「空间体系 2.0」。过去的触屏界面多以灰阶与色彩来表达层级,而今天的硬件算力足以让界面拥有真实的光影、深度与材质。

当用户与系统交互时,屏幕中的元素不再是静态贴图,而是有厚度、有呼吸的对象。纵深、模糊与光影共同构成了新的空间规则,也让扁平化设计走向更立体的方向。

到头来,真实世界从不是光滑的二维界面。光线、层次、反射——这些自然法则在屏幕上重生的方式,不应是简单模拟,而是要找到「和而不同」的平衡:手指触碰即有反应,光线与角度自然呼应。

手指按下去,光亮起来;手机倾斜,画面随之流动;不重要的内容可以被堆叠、在需要时展开——这便是「系统即世界」的第一层含义:用户不再操作一个系统,而是在与一个世界互动。

 

交互:让界面可以韵律呼吸

系统有了基础的物理法则,也需要生命的节奏。真正的流畅并不只是「快」,而是「对」。

系统在动效优化上选择了「丝滑轻盈,自然舒适」的方向。每一次操作都符合现实世界的运动规律——有惯性、有回弹、有停顿。全局弹簧动效是其基础:拨动开关、拖动音量条、下拉刷新,界面都会「过冲」一点再回弹,像拉伸后的弹簧。

拖动桌面图标时的涟漪效果尤其有趣:图标落下后,周围图标微微外扩再回收,像是石子入水。涟漪范围不大,却让桌面有了生气。

图标拖拽的「涟漪」动效

图标拖拽的「涟漪」动效

这种「活性」延续自前代 OriginOS 的原子组件体系。现在,它被进一步扩展至全局,从指纹解锁、充电动画到窗口切换,都遵循同样的动态规律。界面不再是固态的平面,而像液体一样流动。

动效的统一性也更强。打开或退出应用时,图标与窗口会顺势放大、缩小、归位,动作起终点清晰对应,像从书架抽出一本书再放回原位。

比如在 OriginOS 6 上重新设计的原子岛收起展开效果,vivo 的设计理念是采用「帧形变」技术对界面元素的形态进行有机转换,从而表达出元素之间的逻辑关联。并且,物理法则的逻辑同样得到连续,元素之间的拉丝、融合、滴落等形变效果模拟出真实的物理连接。

原子岛展开、收回的动效,在 OriginOS 6 上通过「帧形变」技术重新设计

原子岛展开、收回的动效,在 OriginOS 6 上通过「帧形变」技术重新设计

而我觉得在界面交互上最体现设计团队用意的,莫过于小窗旋转效果。在 OriginOS 6 上,当手机当前处在同屏小窗/画中画模式下,切换横屏竖屏,小窗获得了一个自然移动的动效。

背后,这一新设计利用了视觉连续性原理,通过强调空间连贯性来消除视觉焦点的「断层」,帮助用户保持聚焦,显著提高沉浸感。

当开启小窗并旋转屏幕时,小窗动效会遵循设备旋转的方向

当开启小窗并旋转屏幕时,小窗动效会遵循设备旋转的方向

底层的「蓝河流畅引擎」和「超核计算」系统负责协调这一切,使视觉流畅与算力分配达成平衡。但这些技术存在于「无形」——用户不需理解它,只需感受到动作的呼吸感:滑动的阻尼、切换的节奏、回弹的柔韧。

OriginOS 6 在无数细节中让系统变得更有「活性」。这些细节微小,却在累积中构成生命感。流畅的体验能够触发用户潜在的愉悦舒适感——不是因为速度,而是因为节奏。

这是「系统即世界」的第二层含义:世界从不静止,而是「活着」的。

 

连接:对友好生态打开边界

一个世界如果只有自循环,终将走向封闭。

手机行业这些年的主旋律是「筑高墙」。从系统功能,到配件连接,到充电协议,各家都在修筑自己的生态,让设备之间的壁垒越来越厚,iOS 与 Android 成了两座平行宇宙,设备与设备之间形成孤岛。生态内部的体验顺滑,而跨越边界却步步受限。

这种封闭策略自有商业逻辑,但用户为此付出的代价也在增长——想要流畅体验,就必须被锁进单一生态,生活被技术的边界切割得支离破碎。

但生态和生态之间从来不应该是绝缘的。在真实世界中,我们反而会看到物种之间的交融,催生新的生命。当 iOS 和 Android 不再「强行兼容」,而是真正有机融合,那会是怎样一番图景?

OriginOS 6 选择了另一条路径:拆掉部分墙,让世界重新连通。

新版本的 vivo 互传 app,让此前所有同行所做的「生态破壁」努力都相形见绌。在 OriginOS 6 上,用户可以直接访问、编辑 iPhone 或 iPad 上的照片与视频,修改后自动同步回去。文件不再只是「传输」,而是在两个系统之间共享状态。

在相册应用中利用「跨端随心编」技术,直接对 iPhone 本地照片进行编辑

在相册应用中利用「跨端随心编」技术,直接对 iPhone 本地照片进行编辑

这已经不是简单的文件互传,而是让两个系统的数据层发生了交融。但其实所有的技术突破都不如带来的便捷体验更有说服力:你可以直接在一部 Android 手机上打开朋友的 iPhone 相册,为 ta 修图,无需额外应用或中转步骤。

进一步的尝试,是 OriginOS 6 引入的「摇一摇群组分享」功能。

当多个用户同时摇动手机,系统会自动创建一个共享群组——无需登录账号、无需数据流量。创建成功后,用户可在相册、互传或文件管理界面中选择任意数量的照片或视频进行分享,实现无损、极速的大批量传输。

vivo 手机之间可直接拖拽至原子岛发送;而跨系统的分享(如 iOS)则可通过安装「互传」应用实现同样的效果。这种方式的意义不仅在速度或便捷,而在于它将分享重新变成了一种自然的动作:几个人同处一地,轻轻一摇,设备之间就建立起短暂却高效的连接。

双系统打开互传并「摇一摇」,即可快速建群,无损收发文件

双系统打开互传并「摇一摇」,即可快速建群,无损收发文件

跨设备连接的终极形态,是 vivo 的 AI 助理「蓝心小 V」可以对各种智能家居生态实现统一控制。传统的智能家居体验是碎片化的:米家的设备要打开米家 app,HomeKit 的设备要用苹果「家庭」,其他品牌又各有各的入口。而 vivo 的 AI 助理「蓝心小 V」能识别用户的自然语言意图,跨品牌控制家电设备。无论是小米的台灯,还是飞利浦的灯泡,都能被同一句指令调度。

现实生活从不是单一生态的样板间:你可能经常用 iPhone 来拍视频,但用 Android 手机作为主力机;你的智能家居可能由两三种不同的「全家桶」分别组成;你的电脑平板是苹果,但汽车是小鹏……我们使用着不同品牌的设备,也更期待它们像一个整体协作。

按理来说,每个设备都应该主动为你服务,但在彼此封闭的生态下,要记住哪些设备能协同互联,哪些不能,反而成了用户的责任。

归根结底,生活不该迁就技术,而是技术应该服务生活。然而在现实中,商业权衡往往凌驾于用户体验至上,用户难免因为「生态站队」而受到体验和便利性的惩罚。

OriginOS 6 有着一个全然不同的「世界观」。这也是「系统即世界」第三层含义是:外部设备不应是敌人,而应成为可交互的邻居——世界的价值不在孤岛,而在连通。

这样的未来如果想要显化,觉悟不应该只属于 vivo 一家。

意识:当系统开始理解、自生

世界有它的运行规则,也有自我修正的能力。

在 OriginOS 6 上,人工智能将扮演一个更大的「意识」载体,它不只是响应指令,而是理解上下文、串联信息、记住习惯。系统因此从工具变为伙伴。

最直观的体现,就是升级后的全新「小V圈搜 2.0」。在此之前,移动操作系统更多基于截图识别理解内容,而在 OriginOS 6 上,它能识别整屏内容,根据用户圈选的文字或图像做出判断——地址会唤起导航,网购口令能直接跳转,会议信息可一键添加日程。

这个交互逻辑的合理之处在于:它把搜索从一步独立的操作,变成了与系统交互过程中的一种自然延伸。这就像是一个人在他的世界中不断探索,在每一次互动的过程中完成需要的目标,学到新的知识。

小V圈搜 2.0 版,能够根据屏幕上的内容智能推荐下一步操作

小V圈搜 2.0 版,能够根据屏幕上的内容智能推荐下一步操作

这是一种基于语境上下文的高级 AI 代理能力的体现,其实在前一代 OriginOS 5 那个无所不能的原子岛上就有所体现。但 vivo 发现「一键上岛」并没有被充分利用,用户可能更加习惯通过常规入口(例如电源键、长按底部指示条)唤起 AI 功能。于是在 OriginOS 6 上,vivo 继续采取原子岛和圈搜两种交互方式齐头并进的思路,确保在用户最习惯的地方,AI 总是能够准备好并迎接和理解他们。

这种理解能力,也被照片 AI 处理能力延伸到了 vivo 最引以为傲的影像层面。

对于 AI 消除这一早已不新鲜的能力, vivo 觉得还有潜力没有被挖掘。在 OriginOS 6 上,首次实现了对于 Live Photo 的路人消除能力。系统会理解画面元素的运动,以及背景的一致性;用户只需圈选一次,AI 便能自动追踪并生成纯净、且鲜活依旧的动态照片。

在 Live Photos 中智能消除路人和杂物

在 Live Photos 中智能消除路人和杂物

它还能学习用户的美颜习惯,观察并记录每次手动调整美颜参数的偏好,逐渐理解「你人为的理想自己」是什么样子。几次学习过后,美颜参数会自动匹配个人习惯,几秒钟就能替代长达 5-15分钟的手动精修,而且还能识别好兄弟好闺蜜,都能获得 ta 们的专属美颜效果,真正做到「千人千面」。

在 vivo 看来,AI 不需要替你决定「怎样好看」,而是应该更尊重和学习「你觉得怎样好看」。

其它 OriginOS 6 上的 AI 功能,比如小 V 记忆知识库、代接电话助手、文件智能重命名等等,都延续同一个逻辑:AI 的优势不在于替代,而是在于学习,学习你的使用模式,然后帮助你减少手动操作的步骤和精力耗费。这些功能单独看都不算革命性,但它们指出的方向不能更清晰:一个优秀的系统 AI 功能,不再被动等待指令,而是主动理解语境,并在合适的时候无缝嵌入。它的存在感轻微,却能在恰当的时刻伸出援手,如飞鸿踏雪泥。

这是「系统即世界」的第四层含义:世界的意识不在喧哗中诞生,而在持续的自我改进中显现。

在智能设备的漫长演化中,人们最终总会回到最质朴的问题:技术为何存在?

OriginOS 6 的答案是——让系统更像世界。

它用光影与空间重构了视觉秩序,用动效赋予系统生命节奏,用连接打破边界,用 AI 带来自我理解的可能。和前一代系统相比,它并不追求惊艳式的革新,而是保持了一种稳健的延续性,并在细节里让「系统即世界」的理念更加坚实。

OriginOS 6 的使用体验如果用两个字来形容,那就是「流畅」:解锁的起落有如呼吸, 界面之间井然有序的层次感,动效的连贯性,跨设备传输内容的「即拿即走」。这是一种「零思考成本」的秩序感——界面让路于注意力,让注意力让路于意图。

更重要的是,这套系统既不否认 iOS 的存在,也不盲从于「一切 iPhone 所做的都是对的」这一歪理。它所做的,是承认 iPhone 是个好手机,它的用户值得争取。vivo 选择与之对话,而不是对立,更不是镜像。

究其根本,一个世界不应该由一家厂商独筑。若想让「系统即世界」成为行业的常态而非个例,软硬件厂商需要共同向着开放的方向下注:减少无意义的差异化和封闭,允许并尊重跨生态的互通。唯有开放、互通与尊重,才能让软硬件共同构成一个有生命力的整体。

这也回应了亚伦·凯的那句话:真正的好系统,不只是运行在硬件上的软件,而是一个自洽、有秩序、有邻里的世界。

OriginOS 6 所指向的,是这样的起点——一个从掌中出发、延展向更大世界的系统。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


vivo 提前剧透 X300 系列 2 亿长焦主摄,但亮点其实是算法

vivo X300 系列定档 10 月 13 日发布,而今天 vivo 提前给新机的影像开了一场发布会,介绍了 X300 系列上的两颗「两亿镜头」:长焦和主摄。

比起硬件参数,vivo X 300 的影像升级,更多体现在算法上。

提起 vivo 影像,不少人的第一反应或许都是「长焦」——通过 vivo X100 Ultra、X200 Pro 以及 X200 Ultra 三次迭代,在市场和用户心中都构建了「vivo = 长焦好」的印象,而 X300 系列自然会继续在这颗镜头上加码。

vivo X300 系列将搭载一颗 2 亿像素 APO 长焦镜头,支持 CIPA 5.5 级别的光学防抖,并联合三星研发了「蓝图三星 HPB」传感器。

光学配置只是长焦摄影的下限,一些更复杂、极限的场景离不开算法加持,vivo 这次也着重强调了全新的「Magic-Cloud AI 算法」。

Magic-Cloud AI 算法在云端运行,也即要求手机联网,处理速度虽不如端侧,但胜在经过处理的照片,在清晰度上比端侧算法有显著提升,并且能够运用在文字、夜景、人像、花鸟等多类长焦。

长焦镜头的一个重度需求场景就是演唱会,这也是 vivo 这几年突破的重点。

得益于零延时多帧的「灵动人像算法」,vivo X300 系列的长焦抓拍能力进一步提升,长焦抓拍舞台上的歌手,画面更清晰,表情也能更好。

体育赛事则是一个更具挑战性的场景:距离远,运动员动作快,追焦成为一个难题,vivo 的解决方案则是「蓝图极限追焦引擎」,能实现毫秒级的精准锁定。

并且 vivo X300 系列支持 12 张一秒连续拍摄 36 张的无损画质高速连拍,运动员的动态能尽收镜头之下。

除了演唱会和赛场,「打鸟」也是近几年兴起的手机长焦长焦。

针对生态摄影,vivo X300 不仅能实现远距离更清晰的抓拍效果,还有全新「空气切割机」算法,其实就是一个针对动物的「人像模式」,能够更好识别动物羽毛毛发和杂乱背景之间的区别,做到只保留主体画面细节,并实现更精准的虚化效果。

值得一提的是,vivo 这次还带来了影像交互上的一个新体验:长焦算法提供三档调节,用户可以自己选择平日长焦拍摄的计算强度——画面纯净度与现场真实感之间,不再是二选一。

如果觉得 vivo X300 系列上的这颗长焦镜头还不够,长焦增距镜系统能进一步提升望远能力。

作为日常拍摄的最主力镜头,vivo X300 同样搭载了一颗 2 亿像素的主摄,主打旅拍人像摄影。

vivo X300 系列对人像的定调走「真实路线」,一张人像成片将由 80% 的真实和 20% 的美颜润色组成。

「真实」来自于这颗 2 亿像素的传感器,用 vivo X300 主摄拍人像会保留大量的细节,甚至皮肤上的毛孔,以及佩戴的饰品都能高清呈现。

并且,vivo X300 支持人像模式全焦段 5000 万像素成片,也是目前行业的独家水平。

人像摄影同样是一个更注重风格、审美和算法的赛道,并且不同的用户之间对「人像美」都有自己的定义和偏好。

vivo X300 系列搭载了多种人像摄影风格:透亮人像氧气美 、蔡司自然人像原生美等等。全新的「元气骨相重塑 」则是 AI 和人像摄影的结合,智能去除用户面部疲态,提亮该提亮的部分,调整面部结构和神态。

不仅 AI 不止赋能拍摄的过程,vivo X300 还将搭载「AI 定制美颜」的后期能力,大模型系统学习用户的修图偏好,然后批量运用于其他照片上。

针对光线复杂不好处理的夜景,vivo X300 系列的应对方式则是「电子柔光箱」算法,针对不同的顶光、逆光、暗光场景进行柔化,人物面部能保持干净、立体、肤色还原。

而像更具难度的闪光烟花场景,vivo X300 也准备了相应的算法进行应对,减少烟花重影毛边,人像也能保持清新透亮。

用户的需求也早已不止静态的人物照片,Live Photo 也是近几年大火的赛道。vivo 增强了 vivo X300 系列拍 Live Photo 封面画质和动态的一致性,还首发了 Live 图的路人 AI 消除功能。

自 vivo X100 Ultra 开始,vivo 的影像能力也不再局限于拍照,录制视频也成为了每一次迭代的重点。

vivo X300 系列搭载 LYT-828 传感器,还搭载了云台级别的防抖能力,防抖角度达到正负 2.6 度,防抖角度面积相较上代提升 56% 。

专业格式方面,vivo X300 系列能够实现多焦段 4K 120fps 杜比视界 HDR 视频录制,并支持拍摄 4K 120fps 10bit log,认证 ACES 工作流。

而在一些日常的演唱会或者旅游场景,vivo X300 支持「录拍双系统分时架构」,录制 4K 视频时可以通过独立通路拍摄真正的照片,而不是截下模糊的视频截图。

视频讲究「电影感」,vivo X300 系列和联发科联合开发了一个「智能分区影调引擎」,拍摄视频时可以智能识别拍摄主体,大幅改善影调层次。

总结一下这次发布会公开的 vivo X300 系列影像的重点新功能新特性:

  • 长焦:2 亿像素,蓝图三星 HPB 传感器,CIPA 5.5 级防抖
  • 主摄:2 亿像素,蓝图三星 HPB 传感器,CIPA 4.5 级防抖
  •  灵动人像算法,舞台抓拍更清晰
  •  蓝图极限追焦引擎,毫秒级追焦
  •  12 张每秒连续 36 张无损画质高速连拍
  •  Magic -Cloud AI 算法,远距离长焦清晰度增强
  •  全焦段 5000 万高像素人像模式
  •  多种人像摄影风格:透亮人像氧气美 、蔡司自然人像原生等
  •  元气骨相重塑,AI 调整面部结构和神态
  •  电子柔光箱算法,夜景复杂光源柔化
  •  闪光烟花人像算法,提升烟花人像清晰度
  •  AI 定制美颜,学习用户修图习惯批量 P 图
  •  Live Photo 封面动态一致性增强,支持 AI 去路人
  •  云台级防抖能力,防抖角度达到正负 2.6 度
  •  录拍双系统分时架构,录 4K 视频可独立摄影出片
  •  多焦段 4K 120fps 杜比视界 HDR 视频录制
  •  智能分区影调引擎,拍摄视频智能识别拍摄主体
  •  多焦段 4K 120fps 杜比视界 HDR 视频录制,并支持拍摄 4K 120fps 10bit log,认证 ACES 工作流

不知道是不是为了给半个月后的正式发布会留惊喜,这次影像发布会上,vivo 其实没有谈到太多 X300 系列的镜头配置,更多讲的还是算法。

并且,vivo 的算法具有很明显的「场景化」特征,针对日常摄影中的复杂又常见场景,都有一个专门的算法去解决现存问题。

对比起 Ultra 影像旗舰,主打平衡性的 vivo X300 系列堆料实现影像突破的空间有限,针对性的计算摄影调优,也是一种不错的解法。

至于 vivo X300 系列更全面的影像和其他体验,将于 10 月 13 日 19:00 的发布会正式揭晓,爱范儿也很快为大家带来真实体验,敬请期待。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌