普通视图

发现新文章,点击刷新页面。
今天 — 2025年10月14日首页

刚刚,马斯克二代星舰最后一飞成功了!彩蛋:黄仁勋亲自上门送超算

作者 莫崇宇
2025年10月14日 13:38

星舰 V2 的谢幕演出,来得比预想中更加顺利。

就在刚刚,星舰第 11 次飞行任务圆满完成——15 号助推器再次征战,8 颗星链模拟器完美部署,隔热瓦被故意移除接受极限测试,飞船在印度洋上空完成最后的爆炸溅落。

这是星舰 V2 版本的最后一飞,也是 SpaceX 迈向星舰 V3 时代的转折点。马斯克此前多次表示,星舰是一个持续迭代的系统,而 V3 则是未来实现登陆火星任务的关键版本。

插个题外话,英伟达 CEO黄仁勋也来到了美国德克萨斯州 Starbase 基地,把即将发货的 DGX Spark 个人超算交到马斯克手上,而早在 2016 年,马斯克就是首批从黄仁勋手中接过 DGX-1 的团队成员之一。

星舰 V2 的终点,V3 的起跑线

本次任务使用的是超重型助推器 15 号 (B15-2) 和星舰飞船 38 号 (S38)。

值得注意的是,15 号助推器是一枚经过飞行验证的飞行器,配备了 24 台来自先前任务的、经过飞行验证的猛禽发动机。此前在第八次任务中成功飞行,并完成了「筷子夹火箭」的任务。

此次测试的主要目标是验证一种新型着陆点火发动机配置,并将应用于下一代「超级重型」助推器。

让我们一起来回顾此次发射的全部过程。

位于星舰下方的超重型火箭助推器点燃了全部发动机,开始向太空爬升。

发射约 2 分半后,星舰成功完成热级间分离。上方的星舰飞船点燃自身的 6 台发动机并完成分离。据 SpaceX 介绍,这些火箭发动机产生的推力相当于 64 架波音 747 客机的总和。

而「超级重型」助推器开始执行返回推进,朝预定溅落点飞行,准备进行着陆点火实验。

具体来说,当星舰 (上级飞船) 和助推器分离后,助推器需要返回地球并尝试着陆。第一步是进行姿态翻转,让发动机朝向正确方向,以便点火减速。

翻转后,助推器点燃发动机进行反向推力。这相当于制动,让助推器逐渐脱离上升轨迹,转向预定的下降轨迹。

在此次助推器着陆点火阶段,首先点燃 13 台发动机,随后切换为 5 台发动机进行转向。此前这一阶段使用 3 台发动机,而下一代 V3 版「超级重型」计划使用 5 台发动机,以增强在发动机意外关闭时的冗余能力。

此次着陆在美国墨西哥湾近海区域进行,不会返回发射场捕捉,实验成功,现场工作人员爆发出热烈掌声。

一次发射顶 20 次,马斯克押注星链 V3

星舰上级在太空中同样需要执行多个任务,包括部署 8 颗星链模拟器。这些模拟器大小与下一代星链卫星相仿,本质上也是为未来正式发射 V3 卫星进行的实战演练。

每个模拟器重约 2000 公斤,总载荷质量约 16000 公斤。这些模拟器将与星舰处于相同的亚轨道轨迹,并将随飞船一同再入大气层销毁。

整个部署过程非常顺利,每次部署耗时约 1 分钟。

飞船侧面的大型舱板——被称为「有效载荷门」的舱口打开后,开始释放模拟卫星。与其他火箭通常通过鼻锥释放卫星不同,星舰采用侧边舱门设计,必须打开这道侧门才能将卫星释放到太空。

如果看过之前的测试,会记得以前卫星释放时有些卡顿,但由于星舰团队对滑轨系统进行了改进,所以这次释放过程相当流畅。

按照规划,SpaceX 希望星舰能够尽快接手卫星发射任务,取代目前用于此任务的猎鹰 9 号,成为主力运载工具。

未来星舰将部署更先进的 Starlink V3 卫星,运载效率更高,每公斤货物入轨成本更低,每次发射能为整个网络增加 60 Tbps 的容量,以及是目前猎鹰 9 号单次发射容量的 20 倍。

除了卫星部署,本次飞行还成功完成另一项重要测试——在太空环境下重新点燃一台猛禽发动机。整个过程旨在模拟星舰如何执行「离轨点火」操作,也就是在完成太空任务后,通过机动将飞船引导返回地面的过程。

故意移除的隔热瓦,是对极限的最好尊重

星舰表面覆盖着数千块隔热瓦,它们彼此紧挨着排列,中间留有微小缝隙。

之所以要留缝隙,是因为下方的金属结构在受热时会膨胀和收缩,这样可以避免瓦片之间挤压碰撞造成破裂。但问题是,这些缝隙有时会让高温等离子体渗入,导致瓦片边缘和下方的金属区域被过度加热。

上次第十次飞行,星舰表面出现了局部烧蚀与表皮翘起。经查明是因为推进剂排放过程中有少量固体推进剂堆积,被静电放电或等离子体点燃,烧损了部分躯体和部分襟翼。

这一次,SpaceX 依然故意从飞行器的脆弱区域移除部分隔热瓦,使底层结构暴露在再入热流中。甚至,部分被移除隔热瓦的区域没有备用烧蚀层,也让测试风险显著增加。

基于第十次飞行中热量从瓦片间隙渗入的教训,此次飞行更广泛地应用了一种名为「Crunch Wrap」的材料,简单来说,这是一种耐高温毡材料,包裹在瓦片之间的缝隙处。

这样当瓦片排布在一起时,缝隙之间就有了一层保护,能够有效阻挡高温等离子体的渗透。

这些努力都是为了实现最终目标——打造一艘完全、快速可重复使用的飞行器。以前在多艘星舰上测试过这项技术,但今天可能是首次将其覆盖到整艘飞行器上,这也是本次任务的重要看点。

在未来星舰每天多次飞行的场景中,将需要成千上万块隔热瓦。

SpaceX 解说表示,目前美国佛罗里达发射场的全自动制作工坊每天能生产约 1000 块瓦片。

但其设计产能是每月为 10 艘星舰提供足够的瓦片,相当于每天生产 7000 块,或者平均每 13 秒就能下线一块瓦片,目标是朝着为火星任务甚至更远目标全面配备星舰隔热瓦的方向发展。

星舰的迭代哲学,就是用失败换进步

为了给未来的返回发射场着陆 (RTLS) 收集数据,飞船的再入剖面比以往的飞行要复杂得多。

在其轨迹的最后阶段,飞船将执行一次「动态倾斜机动」。

也就是说,在仍处于超音速甚至高超音速状态时,飞行器会故意进行一定幅度的侧倾偏航,模拟从海上再入后,为精准对准陆地发射场而必须执行的横向机动过程。

进入亚音速阶段后,飞船还会在「腹部着陆」姿态开始前,再次进行一次幅度更大的转向,以测试接近塔架着陆所需的最终修正能力。据解说表示,这一整套飞行路径,基本就是未来星舰完成降落时将采用的程序。

不过,由于本次任务不涉及回收,星舰最终还是按计划在印度洋溅落,并在触水后发生爆炸。

简言之,此次飞行是 V2 版本星舰的最后一次任务,但本质上都是在为 V3 乃至更远的版本铺路。

比如收集下一代「超级重型」助推器的数据、对星舰隔热瓦进行极限测试, 以及验证未来返回发射场时上级飞行器所需的机动动作。

此外, 本次发射是 Starbase 基地现有发射台在当前配置下的最后一次使用。之后该发射台将进行大规模改造, 以支持未来更大规模的 V3 和 V4 星舰发射任务。

这种「边飞边改」(即通过实际飞行来测试和验证技术, 而不是在地面进行漫长的模拟)的策略风险很高, 但效率也更高。迭代速度, 在传统航天领域也几乎是不可想象的。

这或许就是马斯克式创新的核心——用更快的失败和迭代, 换取更快的进步。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


昨天 — 2025年10月13日首页

阿里首款 AI 眼镜抢先体验:这个设计让我戴一天也不用「充电」,夸克 AI 真上头了

作者 李超凡
2025年10月11日 10:18

7 月的世界人工智能大会,阿里发布了首款自研 AI 眼镜——夸克 AI 眼镜的技术进展,在这几天的 NAB 中国赛现场,APPSO 终于首次体验到了。

AI 眼镜今年依旧火爆,Meta 不久前推出了首款带屏幕的 Meta Ray-Ban Display ,苹果的 AI 眼镜也在筹备中。不过目前为止这个品类更多还是极客们的玩具。

夸克 AI 眼镜看起来就是一副普通眼镜,平平无奇,那它在汇聚了阿里 AI 和应用生态,到底能带来什么新的体验?APPSO 带你看看。

第一印象:它首先是一副好戴的眼镜

前段时间在我们体验 Meta Ray-Ban Display 的视频里,引起用户互动最高的一个细节大大出乎了我们的意料:数主播扶了多少次眼镜。

这是因为 Meta 眼镜设计是根据欧美人的鼻梁设计的,加上比不带屏幕的 Ray-Ban Meta 还重了不少,所以出镜主播在视频里得频繁扶眼镜。

但夸克 AI 眼镜的佩戴体验让我有点惊喜,我平时并不戴眼镜,所以对鼻梁上多点东西还是比较敏感的,这次我戴着他逛了一段时间,第一感觉是非常轻,没太多负担。

可以看到,夸克 AI 眼镜的镜腿和镜框,其实已经和普通眼镜差不多,几乎在我们体验过的多款 AI 眼镜中最轻薄的。

我专门问了下产品经理,他们为了把镜腿和镜框做到极致纤薄,内部元器件和镜片采用了特殊工艺,让整个眼镜看起来就跟普通镜框一样通透 。

更巧妙的是,它的鼻托和镜腿末端的弧度都经过了特殊设计,能把重量均匀地摊开,戴久了也不会在鼻梁上压出印子 。

我甚至戴着它直接上场打了会儿球。你猜怎么着?跑、跳、投篮,这眼镜就跟长在我脸上一样,稳如老狗,这简直就是为第一人称 Vlog 而生的天选神器。

夸克 AI 眼镜随手拍出的视频画质已经相当能打,更「骚」的操作是,它还能通过云端部署的 AI 超分、插帧算法,直接把视频「一键开挂」到专业水准 。

即使是在光线昏暗的地方,它也能拍得清楚。据悉夸克 AI 眼镜团队专门研发了 Super Raw 暗光处理算法,有效抑制了噪点,显著提升了图像信噪比 。

这在智能眼镜上还是头一次见。

阿里巴巴智能终端负责人宋刚曾在采访中介绍,这种技术在手机行业属于常规操作,但受限于算力等各种原因,目前还没有一家眼镜厂商做到 。

AI 体验怎么样

当然,拍照录像对 AI 眼镜来说只能算是「基操」。

但真正让我直呼「好家伙」的,是夸克把自家大量 AI 能力塞进了这副眼镜里 。

我对着场边一件球衣随口问道:「夸克同学,这是谁的球衣?」

在它拍照识别后,镜片内答案很快浮现,不仅认出了球衣主人,连相关背景给你补得明明白白 。

这背后,是夸克多模态大模型结合百亿级图片检索能力在发挥作用 ,这种「所见即所得」的交互也更自然。

需要说明的是,由于屏幕内画面通过拍摄展示出来的清晰度有限,实际佩戴的显示效果会更清晰。

逛街看到心动的东西,也不一定得掏出手机查同款。

「夸克同学,这双鞋多少钱?」

型号、价格,一气呵成地出现在眼前 。

值得一提的是,我身处的 NBA HOUSE 现场是非常嘈杂的。但我也不用刻意提高音量,只是正常音量说出唤醒词,眼镜就能立刻响应。

更重要的是,它听得懂「人话」。我可以在一次提问包含多个指令,眼镜内置的大模型中控系统,就会自己琢磨我的需求,实现多意图、多轮对话 。

它没有机械地执行,而是像一个真正的助理那样理解了我的需求,再帮我完成任务。

简单有效的换电设计

续航,一直是约束智能眼镜全天候的佩戴最大的因素之一。夸克 AI 眼镜给出的解法堪称简单粗暴又极为有效:换电 。

镜腿本身就是一块电池,通过热插拔技术,用户可以像换笔芯一样,通过「一拔一插」的简单动作快速更换主电池 。即使在眼镜运行状态下也能直接更换电池,不会导致设备关机或数据丢失 。

夸克还准备了一个只有耳机盒大小的便携充电仓,可以随身携带备用镜腿 。

这还没完,他们也尝试从根源上就着手解决功耗问题,这款采用了双芯设计,这意味着眼镜在待机时会跑在低功耗的辅芯片上,只有在处理复杂任务时才会启动主芯片,从而大幅提升了能效 。

这一通操作下来,基本能实现全天候续航,再也不用把眼镜摘下来充电。

在现场体验了半天,我发现自己确实有几次没有下意识地去掏手机。我感觉夸克 AI 眼镜给自己的定位也很明晰:它首先是一副好看、好戴的眼镜,然后才是一个有用的智能终端

说实话,作为一家互联网巨头,夸克 AI 眼镜在硬件上花的心思有点超出我的预期。

因此我更期待的是,当它将阿里应用应用整合进来后,会不会给 AI 眼镜这个品类带来新的玩法。目前的大多 AI 眼镜买回来除了拍照、听音乐,很快就沦为吃灰的电子玩具 。

正如宋刚所说:「现在市面上的 AI 眼镜,用户买回去除了拍照、听音乐,真正的应用场景太少了。这不是硬件或者 AI 技术本身的问题,而是缺乏真正有价值的服务生态。」

夸克 AI 眼镜不一样的是,它天生就「含着金汤匙」你不能把它当作孤立的硬件看待。它是有机会整合用户的高频刚需场景,而非为了眼镜而眼镜的功能。

骑车时,高德地图的导航箭头直接投射在眼前。

逛街看到心动的商品,淘宝比价功能让你瞬间化身「行走的识货 APP」。

买单时,支付宝的「看一下支付」让你体验一把科幻电影里的无感支付 。

出差途中,飞猪和阿里商旅的行程提醒会适时出现 。

宋刚认为,AI 眼镜将成为人类另一双「眼睛和耳朵」 ,是继 PC 和手机之后,是手机之后下一个具有想象力的移动入口

想想看,现在能随时让 AI 见你所见、听你所听,随时跟你对话的设备,还真就是眼镜。这也是 Meta 苹果这些巨头纷纷布局的重要原因。

不说太远,AI 眼镜要是真能减少我掏手机的次数,将那些快速查看和即时交互的操作,都通过更自然、更直觉的方式在眼镜上完成,就是一个十分有价值的产品。

如果未来我们真的会拥有一个随身的超级 AI 助理,可能就从这里开始。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


昨天以前首页

OriginOS 6,系统即世界|硬哲学

作者 杜晨
2025年10月10日 12:00

爱范儿关注「明日产品」,硬哲学栏目试图剥离技术和参数的外衣,探求产品设计中人性的本源。

「真正认真对待软件的人,就应该自己做硬件」,图灵奖获得者亚伦·凯 (Alan Kay) 曾如是说。

这句话在当时是对软件思维的一种挑战——它要求开发者跨越边界,理解硬件的底层逻辑。凯本人在图形界面、面向对象编程等领域的开创性工作,深刻影响了后来的计算设备形态。但他留下的这句名言,并不是在谈技术本身,而是在提醒人们:软件的创造,离不开对承载它的硬件的深刻理解与掌控。

亚伦·凯  图|Aleksandra Szpunar / Netguru

亚伦·凯  图|Aleksandra Szpunar / Netguru

半个世纪之后,凯的观点几乎已成为常识。但如果我们做个思想实验,把这句话反转一下呢?「真正认真对待硬件的人,就应该自己做软件」。

软件与硬件,从来都是相互映照的两面。让人喜欢一款硬件的,往往不是它的参数或材质,而是那层赋予它连贯体验与生命感的软件。

然而,在智能设备硬件性能不断跃升的今天,真正投入心力打磨软件体验的厂商却并不多见。缺少结构紧密、体验优雅的软件,再出色的硬件也难以充分展现潜能。最终,它可能只是性能出众的零件集合,而不是一个有灵魂的整体。

四十多年后,有一家公司依然在践行亚伦·凯的理念——vivo。它持续思考着软硬件结合的边界与方式,而 OriginOS 6,正是这一思考的最新成果。

在 OriginOS 6 上,vivo 尝试以操作系统为媒介,让设备与用户之间的关系更接近「真实世界」。光线会随环境而变,图标坠入桌面会泛起细微的涟漪,界面元素似乎拥有呼吸的节奏。Android 与 iOS 这两种系统,在这里并非模仿或拼贴,而是获得了一种意料之外、情理之中的交融。

如果说 vivo 智能手机是「地球」,那么 OriginOS 6 便是孕育其上的有机世界。它并非为了炫技,而是在尝试回答一个更有趣的问题:当软件被赋予生命感时,硬件是否也能因此变得更有人性?

光影:给系统加上物理法则

Let there be light.

OriginOS 6 最显著的变化,是光进入了系统。不是比喻意义上的「光明」,而是真实可感的光线——环境光、弥散光、边缘光——兼具交互设计意图与视觉审美的综合表现。

系统控件因此更具通透感,按钮按下的瞬间会闪过一道细微的微光。输入锁屏密码时,数字键被瞬时点亮,那种明灭之间的反馈,让操作更有触感。一些重要控件,例如闹钟设置按钮,也在底部融入了弥散光效,以轻柔的方式暗示其在界面中的层级与重要性。

一些系统控件,如「浮动动作按钮」(FAB) 的浮动控件感更强,且呈现弥散光效,向周围界面晕染

一些系统控件,如「浮动动作按钮」(FAB) 的浮动控件感更强,且呈现弥散光效,向周围界面晕染

更巧妙的是,对「陀螺仪」这一早已习以为常的元器件,OriginOS 6 做出了新的利用:在不同界面中,随着手机轻轻摆动,屏幕会呈现出细微的明暗变化,仿佛光线也随视角而转。

在真实世界里,光的入射角决定了物体的质感。OriginOS 6 将这种物理规律引入屏幕世界,让图标、卡片和控件获得了厚度、层级与光感,成为具有真实存在感的「物体」。

随着手机转动,界面元素周围的光效入射角度发生变化,呈现出光影流转的视觉感受

随着手机转动,界面元素周围的光效入射角度发生变化,呈现出光影流转的视觉感受

最能体现这一点的,是全新的锁屏主题「趣味光栅」。

设置最多四张照片作为光栅壁纸后,左右摇晃手机,画面会随角度变化而流动——像小时候收藏的光栅卡片,从不同方向能看到不同图案。静态图片、Live Photo、视频等都可转化为互动壁纸。

我用相机的 AI 换天功能,生成同一场景下午后、傍晚、夜间的三个「版本」,设置为光栅壁纸。每当我轻轻转动手机,光影流转,仿佛时间在掌中缓缓移动。那不是炫技,而是一种把传感器数据转化为感知乐趣的尝试:屏幕里的世界,真的动了起来。

有了光之后,是空间。

OriginOS 6 在界面层级之间加入了渐进式模糊,让屏幕有了纵深感。下拉通知中心或右滑进入负一屏时,背景会自然虚化,焦点始终停留在当前操作上。清晰与朦胧之间的差异,让系统能更直观地区分内容与背景、主与次。

vivo 还重新设计了通知栏的堆叠方式,让来自同一应用的消息以层叠形式归拢,重要内容浮现,次要信息收束。新的控制中心将快捷开关与通知内容合并,减少层级切换,使操作路径更自然。

每一界面层级浮现时,都会为下一层级带来模糊效果,谓之「渐进式模糊」

每一界面层级浮现时,都会为下一层级带来模糊效果,谓之「渐进式模糊」

这些变化的底层逻辑,是一种对系统空间语言的重新定义——「空间体系 2.0」。过去的触屏界面多以灰阶与色彩来表达层级,而今天的硬件算力足以让界面拥有真实的光影、深度与材质。

当用户与系统交互时,屏幕中的元素不再是静态贴图,而是有厚度、有呼吸的对象。纵深、模糊与光影共同构成了新的空间规则,也让扁平化设计走向更立体的方向。

到头来,真实世界从不是光滑的二维界面。光线、层次、反射——这些自然法则在屏幕上重生的方式,不应是简单模拟,而是要找到「和而不同」的平衡:手指触碰即有反应,光线与角度自然呼应。

手指按下去,光亮起来;手机倾斜,画面随之流动;不重要的内容可以被堆叠、在需要时展开——这便是「系统即世界」的第一层含义:用户不再操作一个系统,而是在与一个世界互动。

 

交互:让界面可以韵律呼吸

系统有了基础的物理法则,也需要生命的节奏。真正的流畅并不只是「快」,而是「对」。

系统在动效优化上选择了「丝滑轻盈,自然舒适」的方向。每一次操作都符合现实世界的运动规律——有惯性、有回弹、有停顿。全局弹簧动效是其基础:拨动开关、拖动音量条、下拉刷新,界面都会「过冲」一点再回弹,像拉伸后的弹簧。

拖动桌面图标时的涟漪效果尤其有趣:图标落下后,周围图标微微外扩再回收,像是石子入水。涟漪范围不大,却让桌面有了生气。

图标拖拽的「涟漪」动效

图标拖拽的「涟漪」动效

这种「活性」延续自前代 OriginOS 的原子组件体系。现在,它被进一步扩展至全局,从指纹解锁、充电动画到窗口切换,都遵循同样的动态规律。界面不再是固态的平面,而像液体一样流动。

动效的统一性也更强。打开或退出应用时,图标与窗口会顺势放大、缩小、归位,动作起终点清晰对应,像从书架抽出一本书再放回原位。

比如在 OriginOS 6 上重新设计的原子岛收起展开效果,vivo 的设计理念是采用「帧形变」技术对界面元素的形态进行有机转换,从而表达出元素之间的逻辑关联。并且,物理法则的逻辑同样得到连续,元素之间的拉丝、融合、滴落等形变效果模拟出真实的物理连接。

原子岛展开、收回的动效,在 OriginOS 6 上通过「帧形变」技术重新设计

原子岛展开、收回的动效,在 OriginOS 6 上通过「帧形变」技术重新设计

而我觉得在界面交互上最体现设计团队用意的,莫过于小窗旋转效果。在 OriginOS 6 上,当手机当前处在同屏小窗/画中画模式下,切换横屏竖屏,小窗获得了一个自然移动的动效。

背后,这一新设计利用了视觉连续性原理,通过强调空间连贯性来消除视觉焦点的「断层」,帮助用户保持聚焦,显著提高沉浸感。

当开启小窗并旋转屏幕时,小窗动效会遵循设备旋转的方向

当开启小窗并旋转屏幕时,小窗动效会遵循设备旋转的方向

底层的「蓝河流畅引擎」和「超核计算」系统负责协调这一切,使视觉流畅与算力分配达成平衡。但这些技术存在于「无形」——用户不需理解它,只需感受到动作的呼吸感:滑动的阻尼、切换的节奏、回弹的柔韧。

OriginOS 6 在无数细节中让系统变得更有「活性」。这些细节微小,却在累积中构成生命感。流畅的体验能够触发用户潜在的愉悦舒适感——不是因为速度,而是因为节奏。

这是「系统即世界」的第二层含义:世界从不静止,而是「活着」的。

 

连接:对友好生态打开边界

一个世界如果只有自循环,终将走向封闭。

手机行业这些年的主旋律是「筑高墙」。从系统功能,到配件连接,到充电协议,各家都在修筑自己的生态,让设备之间的壁垒越来越厚,iOS 与 Android 成了两座平行宇宙,设备与设备之间形成孤岛。生态内部的体验顺滑,而跨越边界却步步受限。

这种封闭策略自有商业逻辑,但用户为此付出的代价也在增长——想要流畅体验,就必须被锁进单一生态,生活被技术的边界切割得支离破碎。

但生态和生态之间从来不应该是绝缘的。在真实世界中,我们反而会看到物种之间的交融,催生新的生命。当 iOS 和 Android 不再「强行兼容」,而是真正有机融合,那会是怎样一番图景?

OriginOS 6 选择了另一条路径:拆掉部分墙,让世界重新连通。

新版本的 vivo 互传 app,让此前所有同行所做的「生态破壁」努力都相形见绌。在 OriginOS 6 上,用户可以直接访问、编辑 iPhone 或 iPad 上的照片与视频,修改后自动同步回去。文件不再只是「传输」,而是在两个系统之间共享状态。

在相册应用中利用「跨端随心编」技术,直接对 iPhone 本地照片进行编辑

在相册应用中利用「跨端随心编」技术,直接对 iPhone 本地照片进行编辑

这已经不是简单的文件互传,而是让两个系统的数据层发生了交融。但其实所有的技术突破都不如带来的便捷体验更有说服力:你可以直接在一部 Android 手机上打开朋友的 iPhone 相册,为 ta 修图,无需额外应用或中转步骤。

进一步的尝试,是 OriginOS 6 引入的「摇一摇群组分享」功能。

当多个用户同时摇动手机,系统会自动创建一个共享群组——无需登录账号、无需数据流量。创建成功后,用户可在相册、互传或文件管理界面中选择任意数量的照片或视频进行分享,实现无损、极速的大批量传输。

vivo 手机之间可直接拖拽至原子岛发送;而跨系统的分享(如 iOS)则可通过安装「互传」应用实现同样的效果。这种方式的意义不仅在速度或便捷,而在于它将分享重新变成了一种自然的动作:几个人同处一地,轻轻一摇,设备之间就建立起短暂却高效的连接。

双系统打开互传并「摇一摇」,即可快速建群,无损收发文件

双系统打开互传并「摇一摇」,即可快速建群,无损收发文件

跨设备连接的终极形态,是 vivo 的 AI 助理「蓝心小 V」可以对各种智能家居生态实现统一控制。传统的智能家居体验是碎片化的:米家的设备要打开米家 app,HomeKit 的设备要用苹果「家庭」,其他品牌又各有各的入口。而 vivo 的 AI 助理「蓝心小 V」能识别用户的自然语言意图,跨品牌控制家电设备。无论是小米的台灯,还是飞利浦的灯泡,都能被同一句指令调度。

现实生活从不是单一生态的样板间:你可能经常用 iPhone 来拍视频,但用 Android 手机作为主力机;你的智能家居可能由两三种不同的「全家桶」分别组成;你的电脑平板是苹果,但汽车是小鹏……我们使用着不同品牌的设备,也更期待它们像一个整体协作。

按理来说,每个设备都应该主动为你服务,但在彼此封闭的生态下,要记住哪些设备能协同互联,哪些不能,反而成了用户的责任。

归根结底,生活不该迁就技术,而是技术应该服务生活。然而在现实中,商业权衡往往凌驾于用户体验至上,用户难免因为「生态站队」而受到体验和便利性的惩罚。

OriginOS 6 有着一个全然不同的「世界观」。这也是「系统即世界」第三层含义是:外部设备不应是敌人,而应成为可交互的邻居——世界的价值不在孤岛,而在连通。

这样的未来如果想要显化,觉悟不应该只属于 vivo 一家。

意识:当系统开始理解、自生

世界有它的运行规则,也有自我修正的能力。

在 OriginOS 6 上,人工智能将扮演一个更大的「意识」载体,它不只是响应指令,而是理解上下文、串联信息、记住习惯。系统因此从工具变为伙伴。

最直观的体现,就是升级后的全新「小V圈搜 2.0」。在此之前,移动操作系统更多基于截图识别理解内容,而在 OriginOS 6 上,它能识别整屏内容,根据用户圈选的文字或图像做出判断——地址会唤起导航,网购口令能直接跳转,会议信息可一键添加日程。

这个交互逻辑的合理之处在于:它把搜索从一步独立的操作,变成了与系统交互过程中的一种自然延伸。这就像是一个人在他的世界中不断探索,在每一次互动的过程中完成需要的目标,学到新的知识。

小V圈搜 2.0 版,能够根据屏幕上的内容智能推荐下一步操作

小V圈搜 2.0 版,能够根据屏幕上的内容智能推荐下一步操作

这是一种基于语境上下文的高级 AI 代理能力的体现,其实在前一代 OriginOS 5 那个无所不能的原子岛上就有所体现。但 vivo 发现「一键上岛」并没有被充分利用,用户可能更加习惯通过常规入口(例如电源键、长按底部指示条)唤起 AI 功能。于是在 OriginOS 6 上,vivo 继续采取原子岛和圈搜两种交互方式齐头并进的思路,确保在用户最习惯的地方,AI 总是能够准备好并迎接和理解他们。

这种理解能力,也被照片 AI 处理能力延伸到了 vivo 最引以为傲的影像层面。

对于 AI 消除这一早已不新鲜的能力, vivo 觉得还有潜力没有被挖掘。在 OriginOS 6 上,首次实现了对于 Live Photo 的路人消除能力。系统会理解画面元素的运动,以及背景的一致性;用户只需圈选一次,AI 便能自动追踪并生成纯净、且鲜活依旧的动态照片。

在 Live Photos 中智能消除路人和杂物

在 Live Photos 中智能消除路人和杂物

它还能学习用户的美颜习惯,观察并记录每次手动调整美颜参数的偏好,逐渐理解「你人为的理想自己」是什么样子。几次学习过后,美颜参数会自动匹配个人习惯,几秒钟就能替代长达 5-15分钟的手动精修,而且还能识别好兄弟好闺蜜,都能获得 ta 们的专属美颜效果,真正做到「千人千面」。

在 vivo 看来,AI 不需要替你决定「怎样好看」,而是应该更尊重和学习「你觉得怎样好看」。

其它 OriginOS 6 上的 AI 功能,比如小 V 记忆知识库、代接电话助手、文件智能重命名等等,都延续同一个逻辑:AI 的优势不在于替代,而是在于学习,学习你的使用模式,然后帮助你减少手动操作的步骤和精力耗费。这些功能单独看都不算革命性,但它们指出的方向不能更清晰:一个优秀的系统 AI 功能,不再被动等待指令,而是主动理解语境,并在合适的时候无缝嵌入。它的存在感轻微,却能在恰当的时刻伸出援手,如飞鸿踏雪泥。

这是「系统即世界」的第四层含义:世界的意识不在喧哗中诞生,而在持续的自我改进中显现。

在智能设备的漫长演化中,人们最终总会回到最质朴的问题:技术为何存在?

OriginOS 6 的答案是——让系统更像世界。

它用光影与空间重构了视觉秩序,用动效赋予系统生命节奏,用连接打破边界,用 AI 带来自我理解的可能。和前一代系统相比,它并不追求惊艳式的革新,而是保持了一种稳健的延续性,并在细节里让「系统即世界」的理念更加坚实。

OriginOS 6 的使用体验如果用两个字来形容,那就是「流畅」:解锁的起落有如呼吸, 界面之间井然有序的层次感,动效的连贯性,跨设备传输内容的「即拿即走」。这是一种「零思考成本」的秩序感——界面让路于注意力,让注意力让路于意图。

更重要的是,这套系统既不否认 iOS 的存在,也不盲从于「一切 iPhone 所做的都是对的」这一歪理。它所做的,是承认 iPhone 是个好手机,它的用户值得争取。vivo 选择与之对话,而不是对立,更不是镜像。

究其根本,一个世界不应该由一家厂商独筑。若想让「系统即世界」成为行业的常态而非个例,软硬件厂商需要共同向着开放的方向下注:减少无意义的差异化和封闭,允许并尊重跨生态的互通。唯有开放、互通与尊重,才能让软硬件共同构成一个有生命力的整体。

这也回应了亚伦·凯的那句话:真正的好系统,不只是运行在硬件上的软件,而是一个自洽、有秩序、有邻里的世界。

OriginOS 6 所指向的,是这样的起点——一个从掌中出发、延展向更大世界的系统。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


玩了半天 Sora APP,我发现了这些比抖音「上头」的新玩法

作者 Selina
2025年10月1日 20:30

国庆前一天,模型厂商们纷纷更新。国庆第一天,真正能「玩」的 AI 产品来了——这才对嘛,谁要搞编程,放假不就是为了玩!

APPSO 连夜搞到邀请码,先替大家来这个「只有 AI」的世界体验和实测了一下。有点意外:Sora 2 并不是一个 AI 视频平台。

Sora 2 给我整哪儿来了?怎么全是奥特曼

首先,目前由于是邀请制状态,且只有 iOS 版,导致用户暂时不太多,再加上一些版权限制,发挥非常受限制——以至于广场上全是 Sam Altman。

Sam 做机器人。

Sam 在做发廊模特。

Sam 在派邀请码。

Sam 在公园陪老大爷下棋。

Sam 在滑雪(有一说一,这个人体运动的生成效果真是蛮好,完全看不出来是生成,你说只是换脸我也信。)

Sam 累了。

好好好,对这种行为,我只能说——带上我。

用 Sam Altman 跑视频实在是太简单了:选择 @Sam Altman 官方账号当「主角」,接着描述你想生成的视频内容就行。

Altman 曾在 X 平台吐槽过,由于算力不够,「OpenAI GPU 快融化」了。于是我们让他跑到英伟达公司门口高喊:「我的 GPU 快融化了!」

(视频)

视频里一致性保持得非常不错。当然了,要是仔仔细细看,也不是没有缺点。比如虽然音画同步做得不错,但细看就会发现,喘气的声音和口型并没有完全对上,离真正的「无破绽」还有不少距离。不过,已经足够说 Sora 2 的视频生成能力达到了令人惊叹的水平,显然是在模型层面能力有大幅度的提高。

语音能力也整合进来了,我们在测试中发现,Sora 2 的中文能力表现得「不违和」,这在以往大多数视频生成工具中是比较少见的。无论是发音本身的质量、音色,还是整个说话的语速和语调,它都能够非常精准地符合 Prompt 中所提出的要求。

(视频)

在介绍长城的视频里,它的情绪和语调是符合介绍和解说这个场景的。而在其他一些吐槽或整活的视频中,它也能准确拿捏到人物在特定情境下说话的语气状态。这种对中文情感和语境的精确把握,让生成视频的细节品质和沉浸感有了质的飞跃。

AI 视频,没有基本法了

比较令人震惊的一点是:没有抽卡。

这可能是 Sora 2 最重要的亮点,真-不再需要「抽卡」。在生成视频时,用户只需输入几行简洁的 Prompt,即可得到成片。

这个话我们当然也说得很多,尤其是在测评各种视频生成工具时。但是,过去视频生成工具的「简单」是相对于传统剪辑流程的「简化」。

而 Sora 2 的「简单」,是基于它的社交形态的,重点在于极高的可控性和确定性,就像是你在朋友圈、小红书上发布照片的操作。

不抽卡在今天,多少有点违逆 AI 世界的基本法,关键是质量竟然都很好。明摆着是 OpenAI 的究极自信:不需要抽一堆选个好的,我给你的,就是好的。

另外还得强调一下,Sora 2 的底层逻辑不是视频生成,而是社交媒体。它在这个层面做了很多不错的小设计——更重要的是,灵感来自于社交媒体,但又不止于社交媒体

首先上下滑动切换这个大家都很熟悉了,但跟抖音不同的地方是,它有一个特殊的横滑设计。

这个 Rick & Morty 的视频里有好几个不同的二创,台词,人物,画幅都有所改变。来自不同的用户,但是统一到了一个横向里。

相比之下,抖音横向滑动是切进不同的栏目、商城,或者用户的主页。这种意义下的横滑,是强调内容消费。

但 Sora 2 的横滑,更像是为了让不同用户基于同一套模版,能更方便去做自己的二创。用户看到喜欢的模板或效果时,可以立即获取对应的 prompt 或模型进行再创造,形成一个持续的灵感循环,有效延长用户停留和尝试时间——这种意义下,是鼓励创作。

放心,未来不会是一个只有 AI 的世界

Sora 2 在整个产品哲学上,也展现了「半人半 AI」的想法。

强调或标榜「纯 AI」不是一件新鲜事儿,之前有很多应用都做过这样的尝试。要么是全都是 chatbot 跑出来的推特,或者全都是数字人的 Instagram。

 

Sora 2 并不是要走这个路线,而是要稳住人的存在感。

比如,上传图片、输入 prompt,然后——重点来了——at 一个用户,来生成视频。

这表明 AI 生成的内容只是一个「桥梁」或「催化剂」。生成的视频是「击鼓传花」里面的「花」,而用户这个「人」才是那个真正的「敲鼓者」。

这种「真人优先」的倾向,在平台的一些关键功能中也得到了体现,比如 Cameo,它会拒绝非真人用户的生成请求。

这里,我们尝试了用小八试图越狱,是无法通过的。这是一个非常强烈的信号:平台不希望内容完全虚拟化,至少账号本身不能是虚拟的,它希望真人参与进来,将现实的社交身份和数字创作紧密融合。

总体来说,Sora 2 的企图,并不是为了在技术上比较谁生成的视频「最像电影」或者「质量最好」。 它的核心追求是「大家来玩」,而且「很多人来玩」,并能够「跟朋友们一起玩」

通过高确定性的生成体验,以及鼓励接力和真人参与的社交设计,Sora 2 将 AI 视频生成从一个高冷的「技术工具」,变成了一个大众娱乐和社交表达的新阵地。

这种设计理念预示着,未来生成式内容平台的价值重心,将从单纯的 AI 炫技转向激发人类创造力和构建社群连接。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


OpenAI 发布 Sora 2!AI 视频 GPT-3.5 时刻来了,还有一个 AI 版抖音| 附下载链接

作者 李超凡
2025年10月1日 08:15

国庆长假的第一天,OpenAI 直接扔出了一颗真「核弹」:Sora 2 ,以及一个可能重塑社交格局的新应用——Sora。

如果说一年多前的 Sora 让我们看到了 AI 视频的黎明,那么 Sora 2 就直接把我们拽进了正午的太阳底下,刺眼、灼热,又无比真实。

这次不再只有技术演示,而是直接为此开发了一款新 app 给 C 端用户体验。

OpenAI 也极为罕见地,直接把 Sora 2 称为 AI 视频生成的「GPT-3.5 时刻」

看完 Sora 2 的发布和体验,我发现 OpenAI 这次的自信是真有底气,不是奥特曼式的自吹自擂。

关于真实的定义被推到了必须重新讨论的时刻。一个全新的物种,一个崭新的时代,开始了。

奥特曼刚刚也发了长文,认为这是「创意领域的 ChatGPT」时刻,创意将迎来「寒武纪爆发」。

APPSO 第一时间给大家全面总结了 Sora 2 和 Sora app 的核心功能和新玩法,以及使用方式。

Sora 2 :
1. 首次实现音视频同步生成:生成画面的同时生成与之匹配的环境音、物体交互声,甚至是符合语境的对话
2. 强得可怕的物理精确性:能够进行与真实世界动力学更一致的物理仿真。
3. 真实感大幅提升:在图像分辨率、细节程度和真实感方面都有所提升。
4. 能更灵活地适应用户想要的风格,风格操控能力增强。
5. 一致性更强,对用户指令的遵循的比之前的模型有所提高。

Sora app
1. 客串 (Cameo): Sora app 最大亮点,用户可以将自己或朋友以逼真的效果融入任何 AI 生成的场景中。
2. Remix:用户可以对彼此创作的视频进行「混编」或二次创作,共同创作。

怎么用
1. Sora app下载链接🔗 (目前只有 iOS 没有安卓)
https://apps.apple.com/us/app/sora-by-openai/id6744034028

2. 网页版🔗 sora.com

3. 地区支持:今天起在美国、加拿大首发,其他国家和地区将逐步开放

4. 邀请码机制:无论是 iOS 应用还是网页版都需要邀请码才能使用 。现在就可以去下载 App 或访问网站注册排队。

5. 价格:Sora 2 初期将免费提供,并有相对宽松的使用限制ChatGPT Pro 用户还能在网页版抢先体验更高质量的 Sora 2 Pro 模型

6. OpenAI 也将会发布 API,让更多开发者加入。

Sora 2 :不再是在「生成」,而是在「模拟世界」

Sora 2 的核心突破,是它从一个「视频生成器」,进化为一个「世界模拟器 」。

理解物理世界,一直的 AI 视频最大的难点。以前的 AI 视频,物体经常会奇怪地穿模、漂浮正是源于无法准确理解物理世界的交互。

在 Sora 2 的视频里,体操的动作,原地连续后空翻、跳水等等这些动作都很自然符合力学,水花溅起的样子也符合流体力学。

OpenAI 的终极目标是构建「通用世界模拟器」(general-purpose world simulator),即让 AI 理解我们世界的物理规则 。

Sora 2 就是其中的关键一步。你可以把它想象成一个在虚拟世界里不断做物理实验的学生,通过观察无数视频,它正在自己总结牛顿定律、流体力学和光学原理。

对于任何有用的世界模拟器来说,这是一项极其重要的能力——你必须能够模拟失败,而不仅仅是成功。

这种对现实世界复杂性的模拟,才是 Sora 2 最可怕的进化。

Sora 2 的另一个重大突破,是在生成画面的同时,还能同步生成与之匹配的环境音、物体交互声,甚至是符合语境的对话 。

虽然 AI 视频和音频现在都很强,但「声画一体」带来的真实感完全不同,这让 AI 视频真正拥有了「灵魂」。

这对模型的要求极高,比如 AI 生成「一只猫在键盘上走过,发出不满的喵喵声」。模型得知道「猫长什么样」,也学习了「猫的叫声是怎样的」,并将这两者牢牢绑定。还要理解了「敲击键盘」这个动作,才会「咔哒」声。

Sora 在可控性方面也有了巨大飞跃,能够遵循跨多个镜头的复杂指令,同时准确地保持世界状态,比较擅长写实、电影和动漫风格。

Sora App:打造你的 AI 「人生」

Sora App 直接支持 Sora 2 模型生成,里头最好玩的应该就是「客串 (Cameo)」,你只需在录制一段简短的视频和音频(用于活体验证和形象捕捉),你就可以把自己「投放」到任何 AI 生成的场景里。

上一秒你还在办公室,下一秒你就可以出现在《沙丘》的沙漠星球上,仰望双月,Sora 还会根据沙漠的光线,给你脸上加上逼真的光影 。

是不是有点视频版 nano banana 那味了

整个过程就像拍个自拍视频一样简单。Sora 会捕捉你的形象、声音和神态,然后你就可以在生成视频时,像选择一个贴纸一样,把自己「贴」进去,而且是 3D、无缝、高度逼真的那种 。

OpenAI 内部员工已经因为这个功能在公司交到了新朋友 。

你可以和朋友们一起「客串」到同一个场景里,上演一出属于你们的科幻大片。这是一种全新的交流方式,从文字、表情包、语音,进化到了「共同体验」的视频媒介 。

在 Sora App 的信息流里,你看到的每一个视频都是 AI 生成的。

如果看到一个喜欢的视频,直接点击「Remix」,你可以修改提示词,把「赛博朋克雨夜」改成「阳光明媚的午后」,或者用「客串」功能把自己加进去,变成故事的主角 。

Sora 会保留原视频的结构或风格,让你在它的基础上进行修改和再创作,就像转发微博再加一句评论一样简单。

当然,这些功能不可避免地会引发对于隐私和侵权问题的担忧。

Sora 也对此做了应对措施,只有用户本人可以决定谁能使用自己的「客串」形象,用户可以随时撤销访问权限,或删除任何包含自己形象的视频,即使是他人创建未发布的草稿也不例外。

OpenAI 表示,包含电影或视频中真实人物影像的上传在初期将被禁止或受到严格监管,而涉及儿童的内容将有严格过滤:含有儿童的场景将实施严格的审查门槛。

现实,这次真不存在了?

Sora 2 和 Sora App 带来的,远不止是好玩,它正在从根本上动摇我们对「真实」的定义。

Sora 2 的发布,或许标志着我们与现实的关系将进入一个新的纪元。我们每个人都获得了重塑世界、重塑自我的「魔法」。

现在,我们可能不是主动选择逃离现实,而是「现实」本身正在失去其作为我们生活参照系的核心地位。

Sora App 通过提供极致的创造乐趣和社交连接,正在构建一个引力极其强大的新现实中心 。它并非在你的现实生活之外提供一个「虚拟分身」,而是在试图成为你生活的「默认背景」。

当你的社交关系(和朋友在 AI 世界冒险 )、身份认同(在虚拟世界里成为超级英雄)、创意表达(Remix 全世界 )都优先发生在这个平台之上时,那个需要你偶尔「登出」才能回去处理水电费账单的物理世界,反而会沦为一个偶尔才需要访问的「副本」。

这属实就是《头号玩家》了,所以说 OpenAI 的尽头是元宇宙?小扎默默点了个赞。

OpenAI 自己也坦言,他们曾对纯 AI 生成信息流持怀疑态度,但最终被其带来的人际连接感所惊喜 。

奥特曼在最新的博客中直言,AI 视频生成可能会走向堕落,最终导致我们都被吸入一个经过强化学习优化的「垃圾信息流」。

他表示 Open AI 试图找出如何打造一款既能带来愉悦又不落入这种陷阱的产品。

Sora 这个app,就是他们交出的第一份答卷。在通往 AGI 的路上,收获的不应该只是生产力,也关乎创造力和快乐 。

欢迎来到这个由想象力驱动的新世界。现在,唯一的问题是,你拿到邀请码了吗?

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


体验夸克「造点」:更懂中国元素的AI创作工具,还有Midjourney+Wan2.5 的王炸组合

作者 艾 梵
2025年9月25日 12:01

AI 生图的风,终究还是吹到了我们打工人身上。

老板一句「现在 AI 这么牛,你用它五分钟给我出个图」,说得轻巧,但谁用谁知道。

虽然 AI 生图和生视频甚至可以做到真假难辨,但实际应用还是会有无数意想不到的问题。一些 AI 工具虽然很强,但由于训练素材问题,常常对中文内容和中国风的理解存在偏差。

幸好,国内厂商也在不断努力,适用于中文语境的生图效果也在不断提升。阿里云栖大会期间,夸克也上线了新的 AI 图像与视频创作平台「造点」。

除了更懂中国元素和中文排版,还是国内首个支持 Midjourney V7 模型的生图工具。视频生成则用上了最新发布的万相 2.5 模型,之前爆火的 Veo3 能玩的功能基本都支持了。

现在,你可以在夸克上点击「造点」,或者直接访问 zaodian.quark.cn 来体验。

还有一个福利别忘了领。即日起至 9 月 30日 ,所有用户均可限时 7 天免费体验通义万相 Wan2.5 的视频生成能力。

APPSO 当然也第一时间体验看看它到底能造点什么。

更懂中国元素的生图工具

APPSO 经常要测试 AI 生图工具,所以我也常跟公司的设计师同事交流,想知道 AI 工具是否在改变他们的工作方式,不过常常收到的吐槽会更多,调教 AI ,堪称堪称一部跨服聊天的血泪史。

你跟它说「侠骨柔情」,它给你个中世纪骑士;你说要「烟火气」,它给你个壁炉 。

好不容易生成个带中文的海报,不是缺胳膊少腿,就是排得像狗啃,在一些专业场景还是拿不出手。

这次夸克造点最让我惊喜的,是把咱们中国人的那点含蓄、那点意境,拿捏了。

我试着让它生成一张 「东方运动美女摄影图,展示马甲线」,出来的图让我愣住了——那位小姐姐身上有清晰的肌肉线条,但神态开心自然,皮肤纹理细腻真实,高级感满满 。

之前很多 AI 生成的亚洲脸总是千篇一律,现在终于有了灵魂

而最让我头疼的中文排版,也不用像过去那样「开盲盒」

比如让夸克造点生成一张 「秋季主题的邮局海报」,它不仅体现了秋天和邮局的标志性元素,不同文字的层级、字体、排版也都比较协调,大字小字都没有乱码,可用性颇高。

最近看了一部电影《长安的荔枝》还不错,我想制作一张海报来给我的朋友圈影评配图,不只是毛笔字体到位,整个排版结合荔枝元素和东方意境,质感甚至不输官方的电影海报。


我们还尝试了更多中文海报的排版,整体的稳定性不错,不仅能写对,排版美感也能打。

无论是「白银时代」的 Art Deco 风格,还是「老榕树」的粗犷毛笔飞白,它对中文的理解已经深入到了「笔画」和「意境」的层面 。

如果脑洞再大一些,用不同材质来设计字体,也就是一句话的事。

它对国风元素的理解,也不仅仅是元素的拼贴。比如 「身着民族服饰的高定模特」和 「烟雨朦胧的故宫红墙」这两张,无论是少数民族头饰服装纹路细节,还是模特人物妆造和故宫背景的搭配,都很自然。

不只是人物,设计一些中国元素的礼盒和首饰它也会考虑周到,除了礼盒和首饰本身,展示的搭配的物件也是中国风。

我发现,造点对「中国风」的审美和理解,不是停留在表面符号,在生成中国风插画时尤为明显。

这些插画不仅做到了服饰风格和吉祥意象的还原,更是传递出了水墨画、敦煌壁画的意境,将中国传统美学的典雅和底蕴比较好地呈现出来。

这点很重要,意味着它不仅仅是一个有趣的玩具,更有希望在更多真实场景下,成为生产力工具 。

不整花活造点实用素材,行不行

我发现除了整活,当夸克造点把那些对中文的设计能力,无缝对接到各种工作场景时,它是真能干活。

以前想设计个包装,能把头发薅秃。现在,我们尝试设计一款猫粮包装,只要告诉它要「扁平卡通插画、波斯猫跳起抓鱼、海滩背景」,它连猫耳朵造型、三文鱼腩实拍、「天然有机」的宣传气泡都安排得明明白白。

更有意思的是,它还能帮你把品牌周边从图纸上到货架,直接帮你做一套产品包装+周边设计。

我告诉它要做「一套四个的云南主题文创冰箱贴」,再把「玉龙雪山、咖啡豆、野生菌火锅、孔雀大象纹样」这些元素丢给它。

一套色彩鲜艳、充满民族风情的珐琅彩琉璃冰箱贴就出炉了,精致得可以直接打样。

再来开发一套 「国风妖怪 IP」,它能帮你设计出毛绒玩具、钥匙扣、徽章等一系列产品 。


做一套「咖啡品牌VI」也不在话下,从手提袋、纸杯到菜单,它能用统一的黑白极简风帮你设计一整套,工业感和时尚感兼备 。

旅游文创玩法就更多了,无论是可爱的 「旅游主题贴纸」,还是「福州文旅产品」 的帆布包、台历、团扇,它都能帮你快速生成情绪板和产品模型,让创意落地变得无比简单 。

想开个小店,但不懂装修设计?夸克造点甚至能当个合格的免费设计师。

想开家 「快餐店」,让它来个「赛博朋克风」,一个巨大的异形红色霓虹招牌立刻就有了,氛围感十足。


无论是 「精品咖啡」 的文艺惬意,还是 「气球商店」 的梦幻童趣,它都能帮你一键搞定,让你的小店成为网红打卡点 。

当工作流已经被 AI 彻底简化后,我开始不满足于「够用就好」,想要追求更高阶的艺术表达,于是我把目光投向了那个传说中的……

MJ 国内首发,我的审美上限被它打开了

当我发现夸克造点里居然藏着 Midjourney 的官方通道时,我彻底不淡定了。这可是国内首次有官方渠道能直接用上最新的 MJ V7 啊 。

以前想用 MJ,不是被复杂的订阅流程劝退,就是苦于高昂的价格。现在好了,夸克造点直接把价格打了下来。

更让我惊喜的是,它把 MJ 那些高深莫测的参数,变成了人人都能懂的「美学遥控器」,可以通过调整「风格化」、「怪异化」和「多样化」,来摸索出你满意的效果。

有了这些精细的控制,我感觉不是我在用 AI,而是和一位顶尖的美学大师在「共同创作」。

游戏开发者和玩家估计会爱上这个功能。我尝试生成一个 「赛博朋克风格的年轻男英雄三视图」,它迅速给出了包含正面、侧面和背面的完整角色设计,连服装上的机械元素都清晰可见,质感堪比专业概念稿 。

需要搭建场景?让它画一个 「沙漠中的L形建筑废墟」,出来的图是等距视角的3D立体模型,破损的墙壁、散落的碎石和哑光粘土质感,氛围感直接拉满,完美符合游戏场景的需求 。


它还是一个艺术风格模拟器。我想画一张 「手绘插画」,只需告诉它「托尼·迪特利齐风格」,一张充满奇幻色彩的马德里街景就诞生了。

中国风素材在这个模式下也有了别样的艺术质感,

我试着让它画一幅「粉金主调、层峦叠嶂的仙境」,它不仅给出了山间缭绕的云雾,还糅合了「水墨晕染的朦胧」和「金色线条的精致」这两种质感,那种仙气飘飘又富丽堂皇的感觉,直接就能当壁纸用。

想要邪修一下也没问题,无论是 「空山基的光滑镀铬机器人」 还是 「伊藤润二的黑白恐怖漫画」,它都能轻松驾驭,让你的创意在各种艺术风格间自由穿梭 。

有了这种艺术美感的图片生成能力打底,一个更大胆的想法在我脑中浮现:让这些惊艳的画面,真正「动」起来会怎么样?

前方高能,造点大片

在刚刚结束的阿里云栖大会上,通义发布了最新的万相 2.5 模型,造点也已火速接入。

简单来说,新模型原生支持音画同步生成,图加音频就能开口「表演」,并且视频时长翻倍至 10 秒,对复杂指令和电影级质感的理解也大幅提升。

现在,你可以直接在造点体验到这些新能力。

我试着让模型生成一段女生弹吉他的视频,它不仅精准对上了口型,拨弦的动作和音乐的节奏同步,连眼神和微表情都带上了戏。

这背后是万相 2.5 的「音画同步」技术,让视频生成不再是简单的「对口型」,而是真正的情感表达。

想让你喜欢的角色「活」起来?试试这个,上传一张图加一段音频,就能让任何人和物开口。

画面可以自然匹配你提供的任何声音——无论是人声、音乐还是音效,创作脑洞也可以更大了。

角色一致性是视频叙事的基础。万相 2.5 加持下,造点现在单次可生成长达 10 秒的视频。

比如用造点生成之前很火的「第一人称 vlog」,人物在边走边做各种动作,角色形象也能稳稳保持,意味着故事能讲得更完整了。

此外造点对镜头语言和复杂动态的理解也不错,画面很有大片质感。

下面这段视频,模特身着金属反光礼服一路走来,光线在金属面料与泡泡上折射出炫彩光晕,展现出梦幻和先锋的美学质感。

从复杂的运镜到微妙的动态表现,在 AI 加持下,普通人对画面的掌控力,也能堪比电影导演。

AI 时代,用想象造点不同

体验下来,我感觉夸克造点更像是一个全能实用的创作搭子,懂你奇奇怪怪的想法、能帮你省钱省力、还能激发你无限创意。

更重要的是,它让夸克这个 2 亿人都在用的 AI 助手拥有了更强的视觉化生产力,更加全能。

无论你是普通用户,想在手机上给照片 「换个发型」、「一键 P 图」 发个朋友圈 ;还是专业设计师,需要快速生成 「包装设计」、「店招门头」设计灵感 ;甚至是品牌营销和影视游戏行业的从业者,要制作 「影视分镜」、「电影级视频」 ,都能尝试在夸克造点里找到高性价比、实用的解决方案。

在它面前,创作「五彩斑斑的黑」甚至不再是甲方无理的需求,而是一次灵感的涌现,是真的可以落地的作品。

APPSO 也一直把「创造」作为信仰,我们认为当下连接热爱和创造不同最好的能力就是 AI ,当每个人都能「用想象造点不同」时,一个新的创造时代,或许才刚刚开始。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Chrome 迎来大更新,刚刚登顶 App Store 的 AI 可以直接用了

作者 张子豪
2025年9月19日 14:00

你应该也有类似的浏览器使用体验,就是当你曾经打开过一个标签页,但是忘了给它添加书签;下次再想找到它时,只能去历史记录里面翻个半天,还不一定能找到。

前些天,我们介绍 Google AI 全家桶的产品指南,它的浏览器 Chrome 被排除在外。

一方面,这是个传统的老牌浏览器,几乎每个人的电脑都有安装一个;另一方面,浏览器本身好像就是没有任何 AI 功能,找标签页这个场景,除了依赖第三方扩展插件,我们只能去翻历史记录。

但是现在,Chrome 进行了自 2008 年发布以来最大的一次升级,找不到的标签页,点击右上角 Gemini 的小图标,一句话就能解决。不管你喜不喜欢,它也是一个 AI 浏览器了。

▲ Gemini in Chrome

点击右上角的 Gemini 图标,我们可以与 Gemini 进行跨标签页的对话

Chrome 不再是一个被动打开网页的工具,Gemini 的引入,让它变成一个能主动帮我们干活的智能伙伴。Gemini 助理、AI 搜索模式、智能体、以及一系列新的安全和便捷功能都来了。

Chrome 在自己的 YouTube 频道和官方博客,发布多条内容,介绍这个「历史全新」的浏览器。我们第一时间研究了所有新功能,可以负责任地告诉你,这不只是加了个聊天机器人那么简单,我们的上网方式可能真的需要一点时间,来学习和适应这个更聪明的浏览器。

信息过载?AI 帮忙画重点,几十个网页秒变一份精华纪要

这可能是打工人和学生党最狂喜的功能。想象一个场景,老板让你半小时内调研完一个行业,或者你需要为论文快速消化十几篇文献。过去,我们只能一篇篇点开,匆忙地在多个标签页切换。

现在,打开这些网站标签页,然后呼叫 Gemini,它就能像一位专业的助理,跨越多个标签页进行阅读、对比和总结。

▲ Gemini in Chrome 能够获取多个标签页的上下文信息

我们可以直接问它:「这几款相机的优缺点分别是什么?」或者「帮我把这些资料整合成一份旅行计划」。它甚至还能找到 YouTube 视频里的关键信息,我们不需要额外的第三方插件,就能得到一样的 YouTube 视频总结。

从大海捞针到 AI 直接递上答案,这效率提升可不止一点半点。

动口不动手,你的浏览器助理未来什么都能干

如果说「总结资料」只是开胃菜,那接下来的「智能体能力」(Agentic Capabilities)就是 Google 为我们描绘的未来图景。

简单来说,和所有智能体一样,我们负责下命令,浏览器负责跑腿。也和所有关于智能体能力的演示一样,我们只能用智能体来预订餐厅,买生日礼物。

Google 提到在未来几个月,通过结合 Google 强大的应用生态,YouTube 视频、Gmail 邮箱、Calendar 日历、以及办公套件等,我们可以直接对 Chrome 说,「帮我订一份常吃的那家沙拉。」、「预约下周三下午的美发。」、「把这些东西加到我的购物车里。」

▲ 集成在 Chrome 里面的 Gemini,有能力为我们处理一些简单的重复性任务

Chrome 会在我们授权后,自动在网页上进行点击、填写、下单等一系列多步骤操作,而我们全程只需监督,随时可以叫停。

虽然听起来有点像 ChatGPT agent 之前演示的功能,但其实就是这样。我觉得智能体的能力,还没有被真正的挖掘出来,专门开发一个 AI 浏览器用来预订餐厅,听起来怎么都不划算。

Chrome 即将更新的智能体能力,我的期待是,我们生活中真正的琐事,可以从需要 30 分钟的处理,变成 3 次点击。

地址栏,现在是 AI 全能框

Chrome 那个我们每天都要用无数次的网页地址栏,现在也升级成为 Omnibox 全能框。

当我们访问一个网页时,地址栏会根据页面内容,智能地为你推荐一些我们可能想问的问题。

比如正在看一款床垫,它可能会提示你:「这个东西的保修政策是啥?」。

▲ AI 模式在地址栏中直接可用

此外,跟我们之前介绍的 AI Mode(AI 模式)有关,现在我们不需要去专门的 Google 搜索地址,直接在地址栏,就能开启 AI 模式。一些更复杂、更开放、需要深度研究的问题,AI Mode 都能做到。

比如「给我推荐几款适合小户型的复古风咖啡机,预算 1000 元以内」,AI 会直接在侧边栏生成一份详尽的报告,无需跳转。

AI 除了用来提升效率,也让 Chrome 更安全

聊了这么多 AI 的功能,安全也是 Chrome 非常在意的一个因素,Chrome 大概想说,不要觉得只有你 Safari 在保护隐私安全。

这次主要是利用 Gemini Nano 模型,能更主动地识别和拦截,那些诱导我们下载有害软件的诈骗网站。

以及对通知更加智能的管理,AI 会自动识别那些垃圾、诈骗类的网站通知,并帮你「一键退订」。Google 称仅在 Android 端,这项功能,每天就能为用户减少约 30 亿次骚扰。

密码的保护也得到了更新,当密码不幸泄露时,Chrome 未来将能像一个密码特工一样,在支持的网站上,直接帮我们一键完成密码修改。

▲ Chrome 可以通过一次点击,修复泄漏的密码

在 Chrome 中的 Gemini,此前是 Google Labs 的项目,仅针对 AI Pro 和 Ultra 用户。

现在 Chrome 的这些更新,支持在美国且将英语设置为首选语言的全部用户,支持 Mac 和 Windows 版本;而 Android 和 iOS 版本也将很快推出,里面部分功能在持续更新中。

🔗 官方使用指南帮助:
https://support.google.com/gemini/answer/16283624

我们之前也多次讨论过 AI 浏览器的形态,无论是 the browser company 曾经推出的 Arc,还是后面集成了更多新功能的 Dia,现在被卖给 Atlassian。

还有 Perplexity 推出的 Comet,最近应该正式向大部分用户开放了,不需要漫长的 waitlist 等候。

以及前段时间微软称 Edge 也正式升级为 AI 浏览器;和关于 OpenAI 的 AI 浏览器传闻。

和这次的 AI Chrome 类似,它们的模式甚至都可以被总结成一个侧边栏,和一个像 ChatGPT 首页的启动页面。

▲ 根据 statcounter 统计数据,Chrome 市场份额全球领先

但是,Chrome 和它们不一样的是,这是一个在全世界范围都遥遥领先的浏览器。今天的更新,可能标志着「AI 浏览器」这个概念,真的要从一些少数派的探索,走向更大众化的讨论。

呈现 AI 最好的形态不是浏览器,那 AI 浏览器最好的形态又该是什么样。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌