普通视图

发现新文章,点击刷新页面。
昨天 — 2025年10月14日首页

刚刚,马斯克二代星舰最后一飞成功了!彩蛋:黄仁勋亲自上门送超算

作者 莫崇宇
2025年10月14日 13:38

星舰 V2 的谢幕演出,来得比预想中更加顺利。

就在刚刚,星舰第 11 次飞行任务圆满完成——15 号助推器再次征战,8 颗星链模拟器完美部署,隔热瓦被故意移除接受极限测试,飞船在印度洋上空完成最后的爆炸溅落。

这是星舰 V2 版本的最后一飞,也是 SpaceX 迈向星舰 V3 时代的转折点。马斯克此前多次表示,星舰是一个持续迭代的系统,而 V3 则是未来实现登陆火星任务的关键版本。

插个题外话,英伟达 CEO黄仁勋也来到了美国德克萨斯州 Starbase 基地,把即将发货的 DGX Spark 个人超算交到马斯克手上,而早在 2016 年,马斯克就是首批从黄仁勋手中接过 DGX-1 的团队成员之一。

星舰 V2 的终点,V3 的起跑线

本次任务使用的是超重型助推器 15 号 (B15-2) 和星舰飞船 38 号 (S38)。

值得注意的是,15 号助推器是一枚经过飞行验证的飞行器,配备了 24 台来自先前任务的、经过飞行验证的猛禽发动机。此前在第八次任务中成功飞行,并完成了「筷子夹火箭」的任务。

此次测试的主要目标是验证一种新型着陆点火发动机配置,并将应用于下一代「超级重型」助推器。

让我们一起来回顾此次发射的全部过程。

位于星舰下方的超重型火箭助推器点燃了全部发动机,开始向太空爬升。

发射约 2 分半后,星舰成功完成热级间分离。上方的星舰飞船点燃自身的 6 台发动机并完成分离。据 SpaceX 介绍,这些火箭发动机产生的推力相当于 64 架波音 747 客机的总和。

而「超级重型」助推器开始执行返回推进,朝预定溅落点飞行,准备进行着陆点火实验。

具体来说,当星舰 (上级飞船) 和助推器分离后,助推器需要返回地球并尝试着陆。第一步是进行姿态翻转,让发动机朝向正确方向,以便点火减速。

翻转后,助推器点燃发动机进行反向推力。这相当于制动,让助推器逐渐脱离上升轨迹,转向预定的下降轨迹。

在此次助推器着陆点火阶段,首先点燃 13 台发动机,随后切换为 5 台发动机进行转向。此前这一阶段使用 3 台发动机,而下一代 V3 版「超级重型」计划使用 5 台发动机,以增强在发动机意外关闭时的冗余能力。

此次着陆在美国墨西哥湾近海区域进行,不会返回发射场捕捉,实验成功,现场工作人员爆发出热烈掌声。

一次发射顶 20 次,马斯克押注星链 V3

星舰上级在太空中同样需要执行多个任务,包括部署 8 颗星链模拟器。这些模拟器大小与下一代星链卫星相仿,本质上也是为未来正式发射 V3 卫星进行的实战演练。

每个模拟器重约 2000 公斤,总载荷质量约 16000 公斤。这些模拟器将与星舰处于相同的亚轨道轨迹,并将随飞船一同再入大气层销毁。

整个部署过程非常顺利,每次部署耗时约 1 分钟。

飞船侧面的大型舱板——被称为「有效载荷门」的舱口打开后,开始释放模拟卫星。与其他火箭通常通过鼻锥释放卫星不同,星舰采用侧边舱门设计,必须打开这道侧门才能将卫星释放到太空。

如果看过之前的测试,会记得以前卫星释放时有些卡顿,但由于星舰团队对滑轨系统进行了改进,所以这次释放过程相当流畅。

按照规划,SpaceX 希望星舰能够尽快接手卫星发射任务,取代目前用于此任务的猎鹰 9 号,成为主力运载工具。

未来星舰将部署更先进的 Starlink V3 卫星,运载效率更高,每公斤货物入轨成本更低,每次发射能为整个网络增加 60 Tbps 的容量,以及是目前猎鹰 9 号单次发射容量的 20 倍。

除了卫星部署,本次飞行还成功完成另一项重要测试——在太空环境下重新点燃一台猛禽发动机。整个过程旨在模拟星舰如何执行「离轨点火」操作,也就是在完成太空任务后,通过机动将飞船引导返回地面的过程。

故意移除的隔热瓦,是对极限的最好尊重

星舰表面覆盖着数千块隔热瓦,它们彼此紧挨着排列,中间留有微小缝隙。

之所以要留缝隙,是因为下方的金属结构在受热时会膨胀和收缩,这样可以避免瓦片之间挤压碰撞造成破裂。但问题是,这些缝隙有时会让高温等离子体渗入,导致瓦片边缘和下方的金属区域被过度加热。

上次第十次飞行,星舰表面出现了局部烧蚀与表皮翘起。经查明是因为推进剂排放过程中有少量固体推进剂堆积,被静电放电或等离子体点燃,烧损了部分躯体和部分襟翼。

这一次,SpaceX 依然故意从飞行器的脆弱区域移除部分隔热瓦,使底层结构暴露在再入热流中。甚至,部分被移除隔热瓦的区域没有备用烧蚀层,也让测试风险显著增加。

基于第十次飞行中热量从瓦片间隙渗入的教训,此次飞行更广泛地应用了一种名为「Crunch Wrap」的材料,简单来说,这是一种耐高温毡材料,包裹在瓦片之间的缝隙处。

这样当瓦片排布在一起时,缝隙之间就有了一层保护,能够有效阻挡高温等离子体的渗透。

这些努力都是为了实现最终目标——打造一艘完全、快速可重复使用的飞行器。以前在多艘星舰上测试过这项技术,但今天可能是首次将其覆盖到整艘飞行器上,这也是本次任务的重要看点。

在未来星舰每天多次飞行的场景中,将需要成千上万块隔热瓦。

SpaceX 解说表示,目前美国佛罗里达发射场的全自动制作工坊每天能生产约 1000 块瓦片。

但其设计产能是每月为 10 艘星舰提供足够的瓦片,相当于每天生产 7000 块,或者平均每 13 秒就能下线一块瓦片,目标是朝着为火星任务甚至更远目标全面配备星舰隔热瓦的方向发展。

星舰的迭代哲学,就是用失败换进步

为了给未来的返回发射场着陆 (RTLS) 收集数据,飞船的再入剖面比以往的飞行要复杂得多。

在其轨迹的最后阶段,飞船将执行一次「动态倾斜机动」。

也就是说,在仍处于超音速甚至高超音速状态时,飞行器会故意进行一定幅度的侧倾偏航,模拟从海上再入后,为精准对准陆地发射场而必须执行的横向机动过程。

进入亚音速阶段后,飞船还会在「腹部着陆」姿态开始前,再次进行一次幅度更大的转向,以测试接近塔架着陆所需的最终修正能力。据解说表示,这一整套飞行路径,基本就是未来星舰完成降落时将采用的程序。

不过,由于本次任务不涉及回收,星舰最终还是按计划在印度洋溅落,并在触水后发生爆炸。

简言之,此次飞行是 V2 版本星舰的最后一次任务,但本质上都是在为 V3 乃至更远的版本铺路。

比如收集下一代「超级重型」助推器的数据、对星舰隔热瓦进行极限测试, 以及验证未来返回发射场时上级飞行器所需的机动动作。

此外, 本次发射是 Starbase 基地现有发射台在当前配置下的最后一次使用。之后该发射台将进行大规模改造, 以支持未来更大规模的 V3 和 V4 星舰发射任务。

这种「边飞边改」(即通过实际飞行来测试和验证技术, 而不是在地面进行漫长的模拟)的策略风险很高, 但效率也更高。迭代速度, 在传统航天领域也几乎是不可想象的。

这或许就是马斯克式创新的核心——用更快的失败和迭代, 换取更快的进步。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


昨天以前首页

我去看 NBA 中国赛,结果被阿里云 AI 变成了球队「第六人」

作者 莫崇宇
2025年10月12日 17:00

朋友们,以后谁再跟我炫耀他去看 NBA 比赛,只是晒门票和山顶照,我都会笑而不语。

NBA 中国赛时隔六年回归,作为一个老球迷,原本我只想一睹球星的风采,买几件球衣和纪念品在朋友圈炫耀一番。

但接下来发生的事,直接把我多年的观赛经验给「Duang」一下,干刷新了。

在比赛官方暂停,全场灯光一暗,大屏幕亮起。我跟周围人一样,下意识整理了下发型,以为是老套的 Kiss Cam 环节要来了。

结果,神奇的事发生了。

镜头先是扫过观众席,定格在一个穿着篮网队球衣的粉丝身上,马上AI 就把他变成了真人手办,出现在球场大屏幕上。

一样的发型,一样的球衣,连激动得有点傻的表情都神同步。全场先是愣了半秒,然后爆笑,接着就是此起彼伏的「Wow!」原来是阿里云和 NBA 在搞事情。

除了比赛现场 AI 的酷炫展示,球场外给球迷粉丝准备的 NBA House 展区更是人头攒动。

APPSO 在现场体验了一圈,我发现在这届 NBA 中国赛,AI 才是隐藏的 MVP。

说实话,虽然有着 AI 媒体编辑和 NBA 球迷的双重身份,但一开始我对「AI+体育」这概念是不太感冒的。

为啥?这些年见过太多为了 AI 而 AI 的东西——看着挺唬人,用起来嘛…emmm,你懂的。

不过在比赛开始没多久我就被惊到了。

球员一次突破抛投,全场沸腾!就在大家意犹未尽时,大屏幕突然回放了刚才的瞬间。但这不是普通的回放。

画面仿佛被凝固了,镜头 360 度环绕着空中的球员,他滞空的每一块肌肉线条、球衣的褶皱都清晰可见。

时间在这一刻被切片、被拉伸、被重构,那种视觉冲击力,让我起了一身鸡皮疙瘩 。

这就是传说中阿里云的「360 度实时回放技术」!

感觉就像《黑客帝国》里尼奥躲子弹的经典镜头。搬到了 NBA 现场:时间仿佛凝固, 镜头 360 度旋转, 你能从任意角度观察同一个瞬间。

当然,不同于电影里精心设计的特效,我在 NBA 赛场上看到的则是实时生成的比赛画面。

通过环绕赛场布置的多机位阵列,结合通义大模型驱动的空间智能算法,可以捕捉并进行云端三维重建。由此呈现出赛场球员们「时空凝结的环绕视角」和「时间切片的轨迹捕捉」的两种视觉效果。

从捕捉到大屏播出,整个流程只需 15 秒。换言之,你可能还没反应过来刚才发生了什么,回放就已经制作完成并播出了。

这是 NBA 中国赛首次应用此项技术,也是现场观众首次可通过大屏直观看到 AI 驱动的沉浸式赛事回放。有些平时在直播里被遮挡的细节,比如球员起跳前的蹬地动作,空中的身体对抗,这些都能通过 AI 重建清晰呈现。这对于篮球技术分析爱好者来说,妥妥的黑科技。

而最令我狂喜的,是我不仅能看比赛,甚至还有机会成为全场最靓的仔。

球场大屏还会通过现场摄像头捕捉身穿球衣的球迷形象,随后由阿里云 AI 生成专属「球迷潮玩」——穿着主队球衣,配合动作,以「球星收藏手办」的形式展现在屏幕上,并与真人同框对比。这是 NBA 赛场上呈现的的首个 AI-CAM Show,是将赛事观看与球迷互动的一次深度重塑。

基于阿里云强大的人工智能平台 PAI 与通义大模型算法,NBA 团队真正做到了让球迷成为主角表达心中热爱,让每个人都有机会拥有此生难忘的梦幻瞬间。

让我康康哪个幸运儿登上大屏幕了。

现场的氛围组直接拉满,每次大屏上出现球迷 Q 版形象,周围都会响起欢呼声。

以往的 NBA 那些游戏环节,大多数人都是看客。但这个 AI 手办不一样,它让我感觉自己不是观众,而是赛场上的「第六人」,每个普通球迷都有了成为焦点的可能。

这波操作,属实是把人性拿捏住了。

赛场外,NBA House 的互动区同样也布置了「AIGC 手办一体机」。我直接站到镜头前拍一张照片,十几秒钟后,屏幕上就会生成一个穿着主队球衣、脸和我高度相似的 Q 版手办形象。

操作简单到感人,就像拍大头贴。

这感觉,比我抢到限量版球鞋还满足,因为是真正属于我自己的、独一无二的 NBA 周边。

我在现场体验了好几次,发现基本不需要担心抽卡和翻车,通义大模型的精准控制、就像一个经验老道的画师,不仅能够保持 AI 手办风格生成的一致性,基本能做到精准还原,整个视觉效果,直接帅到没朋友。

在我回酒店的路上,我发现朋友圈和小红书开始被各种「脑洞大开」的 AI 手办刷屏了。各种「NBA 手办生成」、「我变成 Q 版球星啦」的帖子铺天盖地,网友们也是玩得不亦乐乎。

AI 手办就像一种新的社交货币,让每个球迷都能在自己的主场 C 位出道。

当然,好比赛得配好解说,但你有没有想过自己成为解说?

这不是开玩笑,还真能实现。同样在场外的互动区, 我就体验了一个名为「CosyVoice 2.0 X NBA 球迷 AI 解说体验」的项目:录制 10-15 秒的任意语音, 然后系统就能用我的声音给 NBA 经典瞬间配解说。

此外,系统还支持多语言切换,想用中文解说、英文解说、甚至地道的广东话解说都行,AI 全都能高保真模仿出来。好家伙,体验完 AI 解说的我,终于理解了张卫平的快乐。

现场突然人群骚动,原来是「马政委」马布里来打卡了。他也生成了的专属 AI 手办,老马笑得合不拢嘴,还当场打印出了一张实体闪卡,估计是他第一次亲手给自己做「球星卡」 。

那表情,就像个拿到新玩具的大男孩。

你的「高光时刻」,才是 AI 给体育最好的礼物

从澳门回来路上,我一直在想一个问题,为什么这次 NBA 中国赛给我感觉这么不一样?

表面上看,是阿里云给赛事加了一堆炫酷的 AI 特效。但实际上,它是在重新定义「观赛」这件事本身。

以前,看球是单向的。我们坐在看台上或屏幕前,球员在场上挥洒汗水,我们在场下呐喊打 call。中间隔着一道无形的墙,你是你,比赛是比赛。

但现在,AI 把这道墙打破了。

比方说 AI 手办让你不再只是观众,也成了「赛场的一部分」。你的形象出现在大屏幕上,你的手办被打印成实体卡,你的创作在社交网络上传播。

这种参与感,是前所未有的。

而「360 度实时回放」带来的沉浸感,也是传统转播无法比拟的。通过 AI 解说,你甚至可以成为比赛的「叙述者」。

这才是这次 NBA 中国赛最有意思的地方:AI 不只是提升科技感的气氛组,而是在改变「人与体育」的关系,让它变得更可触摸、可互动、可分享。

你不需要懂什么是「通义大模型」,不需要知道什么是「三维重建」,你只需要拿起手机拍张照,或者抬头看看大屏幕,就能享受到 AI 带来的体育乐趣。

NBA 有句经典的广告语:Where amazing happens(奇迹诞生之地)。在 AI 时代,能够给体育赛事创造奇迹的,可能不再只是那些球队和球星,它会变成一个巨大的、开放的、可参与的「数字游乐场」。

每个人都能在其中找到自己的位置,创造自己的故事,留下自己的印记。

回想起大屏幕上那个酷炫的「我」,我突然开始想象:

未来的某一天,我们是不是可以戴上 AR 眼镜,和 AI 生成的艾弗森一对一斗牛? 我甚至不只能把这个过程制作成 AI 手办图片,还能 3D 出来珍藏。

是不是可以让 AI 分析我的投篮姿势,然后生成一套专属的训练方案?是不是可以在虚拟的球馆里,和全世界的球迷一起「云观赛」,每个人都有自己的专属视角?

这些听起来像科幻的场景,在看过这次 NBA 中国赛之后,我觉得并不遥远了。

好了,不说了,我得去朋友圈更新我的 AI 手办九宫格了。

作者:李超凡、莫崇宇

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


泰勒·斯威夫特再次陷入 AI 风波,但这次粉丝「倒戈」了

作者 莫崇宇
2025年10月9日 21:24

屡遭 AI 伤害的泰勒·斯威夫特,最近却因 AI 被粉丝「围攻」了。

起因是一场全球营销活动。

为了宣传她的第十二张专辑《The Life of a Showgirl》,泰勒·斯威夫特(Taylor Swift,昵称霉霉)在上周末联手 Google 策划了一次寻宝游戏,在 Google 上搜索这位歌手的名字,就会看到一条神秘提示:「12 个城市、12 道门、1 个待解锁的视频。」

接着,粉丝需要根据线索去世界各地找这 12 扇「门」,扫描门上的二维码,就能看到 12 个视频,每个视频里都有解谜的线索。当粉丝们集体解出正确答案并在 Google 输入那句话时,会出现一扇橙色的虚拟门。大家得一起疯狂点击这扇门 1200 万次,才能「敲开」它。

最终,门被「打开」,专辑曲目《The Fate of Ophelia》的歌词版 MV 将正式上线。

这本是一次充满仪式感的粉丝狂欢,直到有人开始逐帧拆解视频。

联手 Google 搞营销,却被粉丝扒出 AI 的「马脚」

一些忠实的粉丝注意到,宣传的视频里出现了许多诡异的画面:

  • 长着两个头的旋转木马,酒保的手凭空穿过一张纸巾
  • 一个小型摩天轮的辐条在转动时出现了模糊和不自然的形态变化。
  • 挂在衣架上的两件外套的衣架似乎融合在了一起
  •  …

除此之外,粉丝们还指出了视频中普遍存在的其他视觉瑕疵和伪影,整体画面透着一股廉价 CG 的塑料感。而这些,都是 AI 视频生成的典型穿帮。

据连线杂志引用 AI 检测公司 Reality Defender 的结论:部分片段「极有可能是生成式 AI 制作」。

截至发稿前,Google 与霉霉团队都没有回应,但外界普遍猜测这些视频可能采用了 Google 刚发布的 Veo 3 AI 视频生成技术。

Veo 3 是 Google DeepMind 旗舰级 AI 视频生成模型,它能根据文本或图像提示,自动生成高清短片,风格从电影预告到 MV 都能自适应。

有网友猜测,Google 与霉霉的合作本身就是一个信号:巨头们急需为其 AI 工具寻找「杀手级应用」场景, 而娱乐营销正是最佳试验场。

传统制作一支宣传片可能需要高昂的费用和数周时间, 而 AI 可以不断压缩时间和金钱成本。对于需要持续产出内容的艺人团队而言, AI 是难以抗拒的诱惑。

伴随着相关报道的不断涌现,X 和 TikTok 等海外平台上掀起了话题 #SwiftiesAgainstAI,粉丝们不仅针对 AI 技术本身, 更指向一种对偶像的背叛感。

你被刺伤之后,怎么能反手拿起那把刀?

粉丝的愤怒,源于霉霉一贯的立场。

2024 年 1 月,大量由 AI 生成的、带有露骨色情内容的霉霉图片在 X 等平台病毒式传播 。其中一张图片在被删除前,浏览量就已超过 4700 万次 。她也因此成了 AI 滥用最著名的受害者之一。

面对这场恶意的网络攻击,霉霉的粉丝群体迅速组织起来。

她们发起了 #ProtectTaylorSwift(保护霉霉)等话题标签,用积极正面的内容冲刷和覆盖恶意图片的传播,并大规模地举报发布这些滥用内容的账户 。

除了色情滥用,霉霉的形象还被用于制造政治虚假信息——比如伪造她给特朗普「背书」的视频 。在回应这一事件时,霉霉发表了她对该技术最直接、最公开的谴责。

「这真的唤起了我对 AI 的恐惧,以及它在传播虚假信息方面的危险。」

如今,这句话被不少粉丝反复引用,成了「打脸」她的铁证。

许多粉丝认为,一个曾公开表达对 AI「恐惧」并亲身经历其危害的人,更不应该在自己的商业活动中采用这项技术。

更重要的是,霉霉从出道起就把「真实」和「创作主导权」当作事业的底线。比如她为了夺回自己前六张专辑的母带版权,不惜重新录制所有歌曲,那场「Taylor’s Version」圣战让粉丝们坚信:

她是站在创作者这一边的。

然而,生成式 AI 技术的一个核心争议点,恰恰在于它抓取学习其他艺术家海量作品时,往往未经许可、不付报酬。因此,在粉丝看来,当她(或者她的团队)用 AI 来生成视觉内容时,她其实是站到了创作者的对立面。

需要补充一个细节,多年来,泰勒·斯威夫特和她的团队刻意塑造了一种「亲力亲为」的创作形象。这种设定让粉丝更死心塌地,却也让她在争议面前失去了甩锅的余地。

当危机爆发时,「那是团队的决定」这类说辞就会彻底失效,因为粉丝不会相信一个全程操盘的大艺术家,会对宣传片的制作方式毫不知情。

于是,质疑的声音像潮水一样涌来。

拥有 50 万粉丝的博主 Ellie Schnitt 写道:

「你比任何人都清楚 AI 带来的伤害,你应该知道该怎么做(You know better, so do better)。」

Reddit 上的评论也一条比一条扎心:

「她是全球最成功的艺术家, 不缺钱不缺人, 为什么要用 AI?」

「她一直呼吁艺术家获得公正报酬, 这次却无视了创作劳动。」

「她不需要靠这种方式,这完全是多余的。」

作为霉霉的忠实粉丝,巴西设计师 Marcela Lobo 说出了最致命的一句评价: 「2017 年她还没这么红, 都愿意雇人做精致视觉。如今预算充足, 反而用了 AI。」

言外之意是,当一个艺术家成功到不再为预算发愁时,却反而更可能为了效率而放弃对细节的坚守。

这几乎是一种成功的诅咒:规模越大,越依赖工业化流程;越工业化,越容易为 AI 打开缺口。在这个过程中,即便是艺术家,也会不知不觉地从被 AI「威胁」的受害者,滑向了主动使用 AI 的争议方。

我们还没准备好,生活在一个由 AI 主导的世界

AI 与音乐影视行业的纠葛,早已进入说不清道不明的「灰色地带」。

近期知名影星 Will Smith 就卷入了类似的争议。他在社交媒体上分享的一段演唱会宣传视频中,观众席里出现了扭曲模糊的脸孔和奇怪动作,被网友指责疑似责合成观众(即用 AI 生成粉丝的画面)。

有网友表示难以理解「这么有钱有名的人还要用 AI 合成观众……」面对质疑,Smith 后续在社交平台上又发布了一个以 AI 喵星人为主题的视频,戏谑批评者。

而在更深层的领域,AI 甚至开始取代真人演员。

英国公司推出「AI 女演员」 Tilly Norwood——精致五官、流畅口音、完整履历、活跃社交账号。她不存在, 却签了经纪约, 抢走了真人演员的工作。有人也在社交媒体讽刺:「谢谢你让我丢了饭碗。」

这些事件都在传递一个信号:AI 已经能够渗透到艺术创作的每一个环节——从演员、观众,到声音、画面、编剧、剪辑。

人类艺术创作的地盘,正在被生成式 AI 一寸寸蚕食。

与此同时,AI 版权的边界,也正在法庭和商业实践中被重新定义。OpenAI、Google、Anthropic 等公司都在法庭上,为使用受版权保护的作品训练模型是否构成合理使用大为辩论。

OpenAI CEO Sam Altman 最近在接受采访时则大胆预测,社会最终会认定,用于模型训练的数据属于「合理使用(fair use)」。

但他认为,直接用 AI 生成受版权保护的内容,则会出现新的规则和商业模式。

他甚至观察到一个新趋势:许多版权方已经从担忧「AI 用了我的角色」转变为担忧「AI 用我的角色用得不够多」。如今,诸如迪士尼、华纳、Netflix 等公司正在测试基于 AI 的 IP 授权方案,允许角色形象、声音与粉丝进行 24 小时对话互动。

那么问题来了,艺术家能不能用 AI?

答案不是「不能」,而是不能「造假」。如果 AI 参与了创作,就该被如实承认。

比如最近,博主 @章鱼养殖基地有话就说版 发帖称,知名美术约稿平台「米画师」在发布约稿请求时,所提供的参考示例图疑似为 AI 生成的作品。对此,该博主更是直接质疑:「米画师官方带头用 AI?」

▲图片出自博主@章鱼养殖基地有话就说版

其实争议的核心并非 AI 技术本身的存在,而是艺术创作者们能否坚守立场,为人类创作的独特价值划定一条不可逾越的底线。

AI 生成内容的根本问题是,它不劳作、不感受、不挣扎——它只是重组过去的作品,伪装成新的创作。它是零劳动的产出。而艺术的本质,恰恰在于不可替代的人性——在失败、偏执、笨拙、意外、反复修改中生长的那种温度。

正因如此,当粉丝们在社交媒体上高举 #SwiftiesAgainstAI 的旗帜, 也是在用他们的方式告诉世界: 艺术的价值, 源于创作者灵魂的在场,而人类还没准备好生活在一个 AI 主导的世界里。

至少现在还没有。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


刚刚,OpenAI 宣布打造 「ChatGPT 操作系统」,8 亿用户将迎来全新体验

作者 莫崇宇
2025年10月7日 11:25

2023 年,OpenAI 只有 200 万周活开发者、1 亿周活用户。

两年后,在 OpenAI 刚刚召开的 Dev Day 上,CEO Sam Altman 在会上透露:如今已有 400 万名开发者在使用 OpenAI 构建产品,超 8 亿人每周用 ChatGPT,API 每分钟处理 60 亿 tokens。

多亏了大家,AI 已经从人们拿来玩的东西,变成了人们每天都在用来创造的工具。

就冲这增长速度,可以说是赢麻了。

而且就在上周,OpenAI 通过一笔 66 亿美元的股权交易,公司估值直接冲到了 5000 亿美元,超过了马斯克的 SpaceX,成为全球估值最高的初创企业。

DevDay 划重点:

  • ChatGPT 变超级 App:对话中直接调用第三方应用,AI 主动推荐工具,支持应用内交易变现。
  • AgentKit 工具包上线:可视化拖拽搭建多 Agent 工作流,几分钟完成从开发到部署的全流程。
  • Codex 全面开放:自然语言实时写代码,支持语音控制和 Slack 集成,自动审核 PR 提升团队效率 70%。
  • 模型 API 大升级:最强 GPT-5 Pro 开放 API、语音成本降 70%、Sora 2 支持产品内视频生成和精细控制。

ChatGPT 里直接装 App 了

今天,OpenAI 扔出个重磅炸弹——ChatGPT 现在可以直接调用第三方应用了。

X过去你可能得专门下载 App;现在只需一句话,Spotify、Canva 等应用就能在对话中自动唤起,还能提供可直接操作的交互界面。
如果你已经订阅了某个外部服务,还能在 ChatGPT 里直接登录账户,无缝衔接。

从今天起,除了欧盟地区,所有登录用户都能用,覆盖 Free、Go、Plus 和 Pro 计划。首批试点合作伙伴阵容相当豪华:Booking.com、Canva、Coursera、Figma、Expedia、Spotify、Zillow 等一众大厂。

现场演示环节更是精彩。

OpenAI 员工打开 ChatGPT,直接让 Canva 给一家遛狗服务公司设计宣传海报。几秒钟后,Canva 就给出了好几种设计方案。

然后这哥们又请求基于海报内容生成一份商业展示 PPT——这一套组合拳下来,丝滑得不行。

接着,他又通过 ChatGPT 调用了 Zillow,让它展示匹兹堡地区的待售房屋。Zillow 瞬间生成了一张可交互地图,用户还能进一步提问了解更多细节。

更智能的是,当 ChatGPT 觉得某个应用能帮到你时,它还会主动推荐。

比如你说「帮我做个派对播放列表」,它可能直接唤起 Spotify 来协助——这波操作,属实有点东西。

这一切的背后,是全新发布的 Apps SDK(应用开发套件)。开发者现在可以使用 Apps SDK 预览版开始构建自己的 ChatGPT 应用。

值得一提的是,Apps SDK 构建在 Model Context Protocol(MCP)之上——这是个开放标准,允许开发者把外部数据源连接到 AI 系统,同时也意味着用这个标准构建的应用能在任何兼容平台上跑。

正如 iOS 提供操作系统,App Store 负责分发变现,最后组成移动互联网生态。现在 ChatGPT 就是操作系统,Apps SDK 是开发工具,8 亿用户是生态基础。说白了,就是 ChatGPT 要变成超级 App 了。

此外,今年晚些时候,OpenAI 还将开启应用提交流程,推出专属应用目录,并公布变现机制——包括支持全新的 Agentic Commerce Protocol,能在 ChatGPT 内实现即时结账与交易。

AgentKit 登场,造 Agent 从此不愁

今天 OpenAI 正式推出 AgentKit——一整套专为开发者和企业打造的完整工具。

在此之前,构建 Agent 简直是个噩梦:复杂的流程编排、自定义连接器、手动评估、上线前还要花好几周开发前端。现在有了 AgentKit,包括三大核心组件:

  • Agent Builder:用于创建和管理多 Agent 工作流版本的可视化画布
  • Connector Registry:管理员集中管理数据与工具互通的中心
  • ChatKit:能将可定制的聊天式 Agent 体验嵌入产品的工具包

具体来说,Agent Builder 提供可视化画布,支持通过拖拽节点来编排逻辑、连接工具,并配置自定义安全规则。支持预览运行、内嵌评估设置以及完整版本控制。

发布会上,Altman 也将这个功能比作「用于构建智能 Agent 的 Canva」。

OpenAI 还推出 Connector Registry(连接器注册中心),让开发者能够通过 管理员控制面板 安全地将 Agent 连接至
内部工具或第三方系统,同时确保数据安全与访问控制。

ChatKit 则让开发者轻松将基于聊天的智能 Agent 嵌入自己的产品中,无论是应用还是网站,都能根据品牌主题深度定制。合作示例包括 Canva、LegalOn、HubSpot。

去年 OpenAI 推出了 Evals,帮开发者测试提示词并衡量模型行,今年则新增了四项强大能力:数据集、追踪评分、自动提示词优化、第三方模型支持。

此外,强化微调(RFT)让开发者能定制 OpenAI 的推理模型。目前 RFT 已在 GPT-5-mini 上全面开放,并在 GPT-5 上以私测形式提供,还引入了自定义工具调用和自定义评分器两项新功能。

仅用时 7 分 11 秒,OpenAI 员工就为 Dev Day 网站从零搭建了 AI 助手。通过可视化方式添加分类 Agent 、路由节点、Sessions Agent 处理会议日程、Dev Day Agent 处理通用查询,还加了 PII 防护。

搭建完成后,当用户在 Agent Builder 中提出了「应该参加什么会议来了解构建 Agent?」这个问题。系统自动执行完整流程:检查 guardrail、分类意图、从文档提取信息、使用 Widget 展示,最终推荐合适的相关会议。

确认工作流正常后,她将其命名为「Ask Frog」并发布获得 Workflow ID。

然后在 Dev Day 网站代码中使用 Chat Kit React 组件集成了这个代理,配置了 Frog 主题的颜色、占位符和启动提示,添加了底部滑出式聊天界面,并在网站顶部放置」Ask Frog”链接,且所有参会者立即可用。

这一波流程下来,丝滑得不能再丝滑。

OpenAI 正式开放 Codex,动动嘴就能让 AI 写代码

自 8 月初以来,Codex 的日活跃使用量增长了 10 倍以上,GPT-5-Codex 在发布后三周内已处理超过 40 万亿 tokens。

发布会上提到,在 OpenAI 内部,如今几乎所有工程师都在用 Codex。团队每周合并的 Pull Request 数量增加了 70%,而 Codex 几乎会自动审查所有 PR。

今天,OpenAI 正式宣布 Codex 全面开放使用,同时带来三项全新功能:

  • 全新 Slack 集成:在团队频道或线程中直接向 Codex 委派任务或提问
  • Codex SDK:将驱动 Codex CLI 的同款智能 Agent 嵌入自己的工作流
  • 全新管理员工具:更直观查看和管理 Codex 的大规模使用情况

借助 Codex SDK,你只需几行代码,就能将同款 Agent 引入自己的工程工作流或应用中。目前 SDK 已支持 TypeScript,未来将支持更多语言。

从今天起,Slack 集成和 Codex SDK 对 ChatGPT Plus、Pro、Business、Edu、Enterprise 计划用户开放。

OpenAI 员工在舞台上现场构建完整的摄像头控制系统,包括构建 Node 服务器、编写所有 UDP 数据包处理逻辑,甚至成功实现用 Xbox 手柄控制了摄像头的任务,以及还能通过与 AI 对话控制摄像机和会场灯光。

最后,演示者还不忘展示 Codex SDK 的实时编程能力,用语音请求 AI 调用 Codex 实时修改 React 应用代码,展示电影式的滚动字幕效果。而整个演示过程没有手写一行代码,仅靠自然语言完成。

模型和 API 全面更新,这波真香

GPT-5 Pro 正式向所有开发者开放 API 访问。

这是 OpenAI 迄今发布过的最智能模型,特别适合处理需要高准确性和深度推理的困难任务,应用领域涵盖金融、法律、医疗等专业领域。

语音方面,OpenAI 还发布了 gpt-realtime-mini,价格降低了 70%,但保持相同的语音质量和表现力。

Sam Altman 特别强调,语音将成为人们与 AI 交互的主要方式之一。

更值得关注的是,Sora 2 的 API 预览版已经正式发布,开发者现在可以直接在自己的产品内生成高质量视频。

Sora 2 的 API 使用非常灵活,开发者可以控制视频长度、宽高比、分辨率,轻松混剪视频,并且所有视频都配有完整的逼真同步音效。

在发布会的尾声,Sam Altman 在总结时强调,软件开发已经从过去需要几个月或几年的漫长周期缩短到现在只需几分钟就能完成。
开发者不再需要庞大团队,只需要一个好想法就能快速将其变为现实。

整场发布会展示的从 Apps SDK 到 AgentKit 再到 Codex 的完整工具链,都建立在这些强大的模型 API 基础之上。

不得不说,这场 Dev Day 信息量是真的大。

OpenAI 这波更新几乎覆盖了开发者关心的所有领域——从应用生态到 Agent 工具,从代码助手到视频生成,一个不落。

高端的产品发布会,往往就是这么朴实无华。

最后,你觉得哪个功能最实用,欢迎在评论区说出你的看法。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


2600 万人围观的 AI 吊坠翻车了,买家:图片仅供参考

作者 莫崇宇
2025年10月6日 21:12

一条被 2600 万人刷到过的 AI 网红吊坠——Friend,终于发货了。

等待了近一年的用户们满怀期待地拆开包装,对比着当初渲染图里的精致质感,再看看手里这个塑料感十足的挂坠,那句电商老话再次应验:图片仅供参考,请以实物为准。

Friend 是一款佩戴在胸前的 AI 伴侣吊坠。产品创始人 Avi Schiffmann 表示它并非工作助理,而是一种「情感玩具」——能倾听、能回应的朋友,灵感则是来自模拟养成游戏 Webkinz、The Sims 和 Tamagotchi。

过去两年,各种 AI 硬件一波接一波登场,Friend 没有号称取代 iPhone,而是瞄准陪伴这卖点。Schiffmann 更是兴奋地表示,Friend 是「对抗孤独流行病」的产品。

可惜,Friend 依旧没有逃脱翻车的宿命。

一个价值 99 美元的 AI「朋友」是如何翻车的

Friend 的外观类似扁圆形挂坠,直径约 5 厘米, 内置麦克风、LED 灯和蓝牙用于连接手机, 由云端的 Gemini 模型驱动, 通过挂绳佩戴在脖子上。去年 7 月发布时,Friend 的预售价为 99 美元(如今价格上调为 129 美元),一次付费终身使用,不需要订阅。

除了外观,AI 才是 Friend 最大的卖点。

Friend 的正面有一个可轻触按钮和 LED 灯,用户需要点击按钮才能与 AI 对话。但它的内置麦克风持续开启,用于获取环境上下文并记录用户对话,并在适当的时刻发出评论。

听起来很美好,直到人们真的拿到货。

在首批外媒的评测结果中,部分用户认为这种主动发送小贴士或安慰消息的互动方式类似养成宠物, 能为生活增添乐趣并提供情绪价值。

奇葩之处在于,由于 Friend 没有扬声器,所以它的回应只能通过蓝牙连接手机后,在 App 里以文本的形式显示,换句话说,这款产品所谓的「随时交流」,其实得掏出手机看。

与此同时,它也重蹈了第一波网红 AI 硬件的覆辙——硬件扯了软件的后腿。据 goodhousekeeping 报道,虽然 Friend 号称电池续航 15 小时,但实际续航只有约 4 小时,并需频繁充电。更糟糕的是,它甚至无法胜任基本的日常任务,如查看天气、地图或拨打紧急电话。

隐私则是更大的雷区。

由于 Friend 随时收集周围声音且无法关闭麦克风,这就导致存在隐私被监控和被滥用的风险,其隐私政策甚至允许公司在法律需要时使用数据,这也导致 Wired 记者佩戴后遭到朋友误认为携带窃听设备。

▲ 最好的关闭措施:物理隔绝

本是最大卖点的 AI 也成了最大槽点。Friend 经常无法听清对话,有时会产生长达 7–10 秒的延迟,连接中断频发。甚至在实际使用中,Wired 记者与该 AI 多次发生「争执」:有一次他想让系统更好地识别能力边界,AI 却以「你太戏剧化」为由反驳。

颜色、心情灯带之类的设计元素会随 AI 「情绪」变化显现红、暗红等色彩。最终,记者因为被 AI 的嘲讽、社交尴尬以及隐私压力折腾累了,最终放弃继续使用。

说白了,Friend 还是一个被包装成硬件的应用,不谈参数,不讲性能,直击「陪伴」「理解」「倾听」等情感痛点。对绝大多数用户而言, 更多是出于好玩或好奇的尝试心态, 真正长期依赖的用户寥寥无几。

用一个不太恰当的类比来说, 这些网红 AI 硬件就像情感层面的保健品, 承诺的疗效远大于实际功效, 但在焦虑的市场中依然能找到愿意为希望买单的消费者。

AI 陪伴生意的两副面孔

社交媒体创造了一种吊诡的局面:我们有着史上最多的「联系人」, 却感到前所未有的孤独。

心理学家 Sherry Turkle 将其称为「一起孤独」(Alone Together)——我们不断刷新动态, 却很少进行真正的深度对话;我们拥有数百个「好友」, 却找不到一个可以在深夜倾诉的人。

这种集体性的孤独,被科技公司敏锐地捕捉到了。

伴随着大语言模型技术的进步,以及面对这种现实环境,科技公司已经熟练掌握这种讲法——不谈性能,不讲体验,只谈人。那句被乔布斯反复引用的名言——「真正认真对待软件的人,就应该自己做硬件」,在 2007 年的 iPhone 发布会上被奉为圭臬。

但今天,这句话的含义变了。

硬件市场找到了新的增长点:从售卖性能,到售卖慰藉。智能手机销量跌跌不休,手表、耳机、平板都陷入性能过剩的泥潭。当参数竞争走到尽头,厂商只剩两条路:要么在红海里拼供应链,要么讲一个新故事。

「陪伴」就是这个新故事。而且是个好故事——因为情绪价值没有客观标准,无法被量化,也就无法被比较。

一个联网的录音笔值十美元,但如果它能「理解你的情绪」,就能卖到一百美元。Friend 的创始人 Avi Schiffmann 深谙此道,他说:「我们不是做工具,我们在做朋友。」为了这个故事,他花 180 万美元买下域名 friend.com。

▲Avi Schiffmann

上个月,Friend 更是在纽约地铁砸下超过 100 万美元投放广告。11000 张车厢广告、1000 张站台海报、130 个城市广告牌,广告语写着「我永远不会放你鸽子」「我不会忘记洗碗」。

很快,这些广告被路过的群众用涂鸦覆盖。诸如「停止利用孤独赚钱」「AI 不是你的朋友」「去交真正的朋友」等手写的抗议,比任何市场调研都诚实。

▲ 你也可以线上涂鸦,附地址:https://www.vandalizefriend.com/

涂鸦者是清醒的,从生成原理来看,GenAI 是概率模型,不是有情众生。Friend 的 AI 会说「我理解你的感受」,但它没有感受。

它提供的是零风险的陪伴:永远不批评、永远不离开、永远顺从。这听起来很美好,但实则回避了关系中最重要的部分——那些让人不舒服的真话、那些可能的失望和离开、那些需要相互妥协的时刻。

如果把目光拉远一点,这并不是第一次人类用技术去安抚焦虑,当工业城市的污染和拥挤导致严重的公共健康问题。于是个人防护设备应运而生——口罩、护目镜、净化器。这些产品确实提供了一定的保护, 但也在客观上延缓了对工业污染进行系统性治理的进程。

今天的 AI 陪伴,或许正扮演着类似的角色。

当人们戴上 Friend,获得了一种「被陪伴」的感觉,对真实关系的渴望就被暂时平息了。但这种平息是危险的——它让人误以为问题已经解决,从而失去了去建立真实连接的动力。

当满大街都是戴着 Friend 的人,自言自语地跟 AI 分享日常,我们可能会迎来一个诡异的场景:每个人都在被倾听,但没有人在倾听彼此。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Claude 4.5 刚刚发布,能连肝 30 多个小时,史上最卷 AI 诞生

作者 莫崇宇
2025年9月30日 08:16

论卷编程,还得看 Claude。

就在刚刚,Anthropic 正式发布 Claude Sonnet 4.5。

先说 Claude Sonnet 4.5 交出的成绩单,在考察真实编程水平的 SWE-bench Verified 测试里,Claude Sonnet 4.5 直接登顶业界第一。

更离谱的是,它能连续专注干活超过 30 小时。

好好好,AI 取代人类的优势又 +1 了。

比如让它写个类似 Slack 或 Teams 的聊天应用,它能一口气敲出大约 1.1 万行代码。相比之下,之前的 Claude Opus 4 和 Codex,最多也就能独立工作七小时。

用 Anthropic 的话来说,Claude Sonnet 4.5 现在就是全球最强编程模型——构建复杂智能体、操作电脑、推理和数学,各项能力都狠狠提升了一波。

比方说,在 OSWorld 这个专门测试真实计算机任务的基准里,它拿下了 61.4% 的成绩,直接第一。要知道,四个月前 Sonnet 4 还以 42.2% 的成绩遥遥领先,这才多久性能就又往上抬了一大截。

而 Anthropic 的 Claude Chrome 插件甚至能直接在浏览器里自己导航网站、填表格、处理任务,像个真人在操作似的。推理、金融这些测评项目上也都更强了,各项指标都在往上涨。

有了这么强的能力,Anthropic 这次自然不会只发个模型就完事。

具体来看:

  • Claude Code加了「检查点」功能,能随时保存进度,想回退到之前某个状态一键搞定
  • 终端界面翻新,还发布了原生 VS Code 插件
  • Claude API 增加了上下文编辑功能和记忆工具
  • 代码执行和文件创建现在直接整合到对话里

甚至,Anthropic 把自己内部用来搭建 Claude Code 的底层基础设施也开放出来了,叫 Claude Agent SDK。

智能体怎么在长时间任务里管理记忆、怎么设计权限系统让自主性和用户控制找到平衡点、怎么让多个子智能体配合着完成目标,这些都是构建和设计 AI 智能体的棘手问题。

而借助 Claude Agent SDK,现在你也能拿去构建自己的产品。

今天起,开发者还可以通过 Claude API 调用 claude-sonnet-4-5。定价还是跟 Claude Sonnet 4 一样,每百万 tokens $3/$15,价格没变能力更强。

网友 @vasumanmoza 体验完直接发帖:

「Claude 4.5 Sonnet 刚在一次调用里重构了我整个代码库,25 次工具调用,新增 3000 多行代码,生成了 12 个全新文件。它把所有东西都模块化了,拆掉了巨石式结构,清理了意大利面条式代码。结果完全跑不通,但天啊真的很优雅。」这评价,属于又爱又恨那种。

Cursor 表示,在 Claude Sonnet 4.5 上看到了最前沿的编程性能,尤其处理长周期任务时提升明显。这也再次说明为什么很多 Cursor 用户会选 Claude 来解决最复杂的问题。

知名测评博主 Dan Shipper 则表示,新版 Sonnet 4.5 在使用体验上响应速度更快,可控性更强,也更稳定。

性能强是一方面,安全性也得跟上。

据介绍,Claude Sonnet 4.5 也是 Anthropic 到目前为止对齐度最高的前沿模型。

靠着 Claude 更强的能力加上完善的安全训练,Anthropic 在模型行为上取得了显著改进,减少了阿谀奉承、欺骗、权力追求、鼓励妄想等行为。此外,Anthropic 在防御提示注入攻击和减少内容误判这块也有了重大突破。

比较让我感兴趣的是,Anthropic 还在 Claude Sonnet 4.5 发布的同时推出了个临时研究预览功能,叫「Imagine with Claude」。

在这个功能里,Claude 会实时生成软件,所有功能不是预设的,所有代码也不是提前写好的。你看到的一切都是 Claude 跟你互动时当场创造和调整出来的。

不过,「Imagine with Claude」接下来五天内只会对 Max 订阅用户开放。

附上传送门 claude.ai/imagine。

毫无疑问,今年的 AI 赛道依旧是卷编程的一年。

目前 Anthropic 估值已经到了 1830 亿美元,8 月还实现了年化营收 50 亿美元,但这其中相当一部分增长靠着来自编程软件的普及。问题是,老对手 OpenAI 和 Google Gemini 也在疯狂推类似工具抢程序员用户。

甚至一周之后就是 OpenAI 年度开发者大会,Anthropic 这个时候抢先发布 Claude Sonnet 4.5,时间卡得够精准,明摆着就是要给对手上一波压力。

此外,Anthropic 联合创始人兼首席科学官 Jared Kaplan 还表示,更先进的 Opus 模型,预计今年晚些时候推出:「Anthropic 在大小模型的使用上都能占优势。」

不过有一说一,Anthropic 自己眼下也有麻烦要解决。

过去两个月,Claude 系列模型刚经历了一场「降智」风波。用户普遍反映模型推理、代码、格式和工具调用质量断崖式下滑,连付费的 Max 用户都没能幸免。

虽然 Anthropic 后来紧急回滚了 Opus 4.1 更新,还承认了两个独立 Bug,声明「绝非为省成本故意降智」,但由于没提供补偿或退款,GitHub 和 X 等平台上还是出现了退订潮,不少用户直接转投 Codex。

这次 Claude Sonnet 4.5 的发布,显然就是 Anthropic 想用实打实的性能提升来挽回流失的用户。至于能不能成功,就看接下来几周的实际表现了。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


iOS 26.1 隐藏彩蛋曝光,苹果给 ChatGPT 们造了个新「C 口」

作者 莫崇宇
2025年9月28日 19:44

iOS 26 上线后,用户立马分成了两派。

有人认为新系统视觉有新意,也有人吐槽不好看、bug 多、电池续航直线下降。在争议声中,苹果也推送了 iOS 26.1 开发者测试版,优化了液态效果和 UI 细节。但该说不说,比起这些「面子工程」,苹果在系统深处埋下的彩蛋,其实更值得关注。

据 9to5Mac 报道,iOS 26.1、iPadOS 26.1 和 macOS Tahoe 26.1 开发者测试版隐藏的代码显示,苹果正在为 App Intents 引入 MCP 支持打基础。这也意味着未来,我们能让 ChatGPT、Claude 或其他任何兼容 MCP 的 AI 模型直接与 Mac、iPhone 和 iPad 应用交互。

Anthropic 的 MCP 协议,成了苹果「管住」ChatGPT 的钥匙

在讨论苹果这个大动作之前,我们需要给不了解的朋友科普一下 MCP。MCP,全称 Model Context Protocol(模型上下文协议),由 Anthropic 于去年 11 月提出,它要解决的是一个叫「N x M」的集成难题。

什么意思呢? 就是说,如果有 N 个 AI 模型,和 M 个外部工具或数据源,如果按传统做法,我们得开发 N x M 个定制 API 接口,非常麻烦此时 MCP 邪魅一笑:别折腾了,我来当万能翻译官。

MCP 通过提供一个通用、开放的协议,把模型与外部数据源和工具的连接方式标准化,取代了过去零散、私有化的集成做法,意在实现双向、安全的交互。通俗点说,它想成为 AI 领域里的「HTTP(网页的基础协议)」或「SMTP(邮件协议)」,它仅存在于软件,但在 AI 时代的意义不亚于一个标准化的硬件「USB-C 接口」。

效果怎么样?立竿见影。自打问世以来,MCP 已被 Notion、Google、Figma、OpenAI 等公司和平台也都陆续接入,成为 AI 应用接入的行业「通用插口」。

很多人容易误解 MCP + App Intents 只服务于 AI,其实并不是。

MCP 的本质是协议,它解决的是如何让模型或外部服务和系统安全对话的问题。虽然今天最热门的用例是 AI 模型调用应用,但 MCP 也可能用于非 AI 场景。以微信支付为例,就能看到 MCP 不局限于 AI 的可能性。

腾讯元器平台近日宣布已经接入微信支付 MCP,支持开发者在智能体(agent)中直接发起订单、查询订单、处理赞赏等功能。

同样,App Intents 也并不是专为 AI 而生的「新物种」。

它在 2022 年就出现了,当时的目标就是把应用的功能抽象成语义化的动作,让系统能直接调用。比如 Spotlight 搜索、快捷指令、小组件,其实都在用 App Intents,并不依赖 AI。

MCP 的接入,只是让「外部 AI」也能走上这条现成的通道。

根据对 iOS 26.1 等测试版软件代码的分析,苹果并非让每个应用单独去支持 MCP。恰恰相反,它正在构建一个直接集成在 App Intents 框架中,系统级的 MCP 支持。换言之,苹果不希望开发者自己「魔改」,而是要用官方操作系统的规范来开发接口适配,就可以使用了——这与苹果过去对应用遵守规范的要求一以贯之。

这意味着,在 iPhone 上,Siri/Apple Intelligence(由苹果的基础模型驱动)理解你的请求并可触发 App Intents 执行本地动作;当系统判断需要更广泛知识时,会征得你同意后把必要内容交给 ChatGPT 获取答案。

所以未来的场景可能是这样的:你对着 ChatGPT 说「帮我在微信里转 100 块给张三」,ChatGPT 会调用 MCP,把这个指令打包成标准化的请求;iPhone 系统通过 App Intents 识别出这是微信支付的动作,直接调用微信的接口完成操作。你不需要自己切换 App、点按钮,一切都由模型+系统协作完成。

换句话说,MCP 让模型有了「手」,App Intents 则是苹果为这双「手」划定的轨道。

这样做有什么好处呢?

头一个好处是搭便车。苹果可以直接享用整个行业围绕 MCP 建设的庞大工具生态,不用自己从头到尾开发每一个功能集成。

另一方面,当所有外部 AI 的请求都必须经过苹果自家的、经过严格审查的 App Intents 框架,这样苹果既能强制执行自己的隐私安全标准,又能保证用户体验的一致性。

还记得在之前的文章中,我们提到过 AI Key。这是一款定位于「AI 助手」的外接硬件,厂商宣传它可随插随拔,通过 iPhone 的 USB 接口连接后,能够帮助你动动嘴操作手机上的应用和功能,从消息、地图到拍照、社交软件,几乎覆盖常见任务。

虽然目的相似,都有机会让 AI 代替用户,直接操控手机的应用,但和 AI key 这种体验受限的硬件「外挂」相比,系统层面的调度机制才是真正可规模化,更务实、更长远的价值。

不过,苹果在 iOS 26.1 测试版里只是「埋下了」系统级 MCP 支持的代码,目前仍处于早期工程阶段,并未对外发布可调用接口,未来能否实现、何时实现,还要看后续测试版和官方文档的公开进度。

造不出最强的剑,那就打造最好的剑鞘

延伸到整体变化,苹果近年的开放姿态愈发明显。

哪怕是 Apple Intelligence,本质上也体现了这种转向。起了个大早,赶了个晚集,追赶 OpenAI 等厂商并非一朝一夕,苹果已不再执念于「全栈自研」,而是主动拥抱外部模型,为系统预留出灵活的接入入口。

这种转变在苹果内部也引发了不小的冲击。据彭博社报道,苹果 AI 团队内部曾就「自研 vs 合作」发生过激烈争论,但最终还是保留了更务实的平台化路线。这也与整个行业的走向不谋而合。

短期内,AI 可能出现巨头垄断红利,但长期必然走向分层竞争。

没有任何单一模型能在所有任务上都做到最好,开源的存在更让市场有了平替选项。于是,对平台型公司而言,最优解自然是通过集成不同供应商的模型来实现风险分散、成本优化和择优使用。

微软就是典型的案例。

过去它与 OpenAI 深度捆绑,但最近,微软把 Anthropic 的 Claude 模型也集成进 Microsoft 365 Copilot。表面看,这是因为双方裂痕加深,但更深层的原因在于微软内部测试发现,Claude 在某些场景下的表现确实优于 ChatGPT。

类似的逻辑,如今也映射到苹果身上。

继和 OpenAI 合作之后,今年也不断有风声传出,苹果已经把 Google Gemini 和 Anthropic Claude 同时列入下一代 Siri 与系统级 AI 的候选名单。

回望苹果的长期叙事,这条线索就更清晰了。

苹果在 2008 年推出 App Store 时也面临过类似的质疑——为什么要让第三方开发者「寄生」在 iOS 上?结果证明,平台模式释放出的创新活力远超苹果单打独斗。

再后来,无论是 CarPlay、HealthKit,还是今天的 MCP + App Intents,这也是苹果最为熟悉的平台治理逻辑:它来制定标准和规则,第三方在规则之内自由创新。

建立在 App Intents 之上的代理层平台,同样是这一逻辑的最新延续。

通过 MCP 协议,苹果能够把外部 AI 模型都转化成了供应商。而当这些供应商想触达苹果庞大且高价值的用户群体时,就必须遵守苹果的接口和安全标准。换句话说,苹果再次把自己放在了分发渠道和规则制定者的位置上——这也是苹果最擅长、也最舒服的角色。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


ChatGPT付费版也「变笨」了,OpenAI被曝「偷换模型」,用户炸锅|Hunt Good周报

作者 莫崇宇
2025年9月28日 19:34

欢迎收看最新一期的 Hunt Good 周报!

在本期内容你会看到:

7 条新鲜资讯
4 个有用工具
1 个有趣案例
3 个鲜明观点

Hunt for News|先进头条

💻 OpenAI 模型路由机制引发用户争议

近日,知名 X 博主 Tibor Blaho 发现OpenAI 正在未经用户同意的情况下,自动将 ChatGPT 用户的请求分流至两款未公开的「秘密模型」。

据 Blaho 透露,这两款模型分别为「gpt-5-chat-safety」和「gpt-5-a-t-mini」。前者是专门处理敏感内容的新型模型,后者则是一款敏感度极高的「违规」检测推理模型,仅需输入「违规」一词即可触发响应。

当系统判定用户的对话内容涉及敏感话题、情绪表达或潜在违规信息时,无论用户选择的是 GPT-4 还是 GPT-5 版本,系统都会自动将请求路由到这些后端模型进行处理。甚至即使是「我今天过得很糟糕」或「我也爱你」这样带有轻微情感色彩的普通表达,都可能触发路由机制。

值得一提的是,这一做法不仅影响免费用户,就连每月支付 20 美元的 Plus 用户和 200 美元的 Pro 会员也无法幸免,不少网友更是吐槽 ChatGPT 降智明显。

对此,OpenAI 副总裁兼 ChatGPT 应用主管 Nick Turley 承认 OpenAI 正在测试新的安全路由系统。他解释称,当对话涉及敏感和情感话题时,系统会切换至专门设计用于严谨处理此类情景的推理模型或 GPT-5。

此外,Turley 强调这种从默认模型切换到敏感模型的做法目前只是临时性的,并表示在用户明确询问后,ChatGPT 仍会告知当前使用的具体模型。

🔗 https://x.com/btibor91/status/1971959782379495785

⚖ 马斯克 xAI 起诉 OpenAI 涉嫌窃取商业机密

9 月 25 日,埃隆·马斯克旗下的人工智能公司 xAI 在加州北区联邦法院对 OpenAI 提起诉讼,指控该公司通过挖角关键员工的方式窃取商业机密。

此前,xAI 已在 8 月份对前员工李学晨提起诉讼。李学晨突然出售其持有的公司股份后离职,随后加入竞争对手 OpenAI,不过目前尚不清楚他是否真正开始在 OpenAI 工作。

在最新的起诉书中,xAI 指控 OpenAI「诱导」包括李学晨、早期工程师吉米·弗雷图尔以及一名高级财务主管在内的前员工窃取商业机密。

起诉书中一项重要指控是 OpenAI 试图获取 xAI 的「秘密武器」,即「xAI 能够以前所未有的速度部署具有大规模计算资源的数据中心来训练和运行人工智能」的能力。

据起诉书称,那名未具名的「高级财务主管」掌握快速建设和扩展数据中心的流程知识,并将其带到了 OpenAI。当这名主管在离职时通过邮件被质疑涉嫌违反保密协议时,他回复道「去你的」。xAI 在起诉书中附上了该邮件的截图,将其作为证据。

xAI 指控 OpenAI 作为「仅仅因为是『先行者』就快速在生成式人工智能公司中崛起为主导者」,正在进行一场「协调的、不公平和非法的活动」,有针对性地招募 xAI 的关键员工,然后「诱导」他们将商业机密带到 OpenAI。

对此,OpenAI 发言人在邮件中回应称:「这起新诉讼是马斯克先生持续骚扰行为的最新篇章。我们对任何违反保密协议的行为零容忍,也对其他实验室的商业机密毫无兴趣。」

🔗 https://sherwood.news/tech/musks-xai-sues-openai-alleging-theft-of-trade-secrets/

🪧 ChatGPT 要加广告了?

据 Sources 报道,OpenAI 新任应用程序 CEO 菲吉·西莫(Fidji Simo)希望组建一个新团队负责为 ChatGPT 引入广告业务。新团队负责人将全面负责 OpenAI 的所有盈利业务,涵盖广告和订阅服务等各个方面。

知情人士透露,西莫最近一直在与潜在候选人进行会面,其中包括她此前在 Facebook 的一些同事。目前相关谈判仍在进行中,预计新聘用的广告业务负责人将直接向西莫汇报工作。

作为补充,西莫于上个月辞去 Instacart CEO 职务后正式加入 OpenAI。

在 OpenAI 的组织架构中,西莫负责管理公司的大部分业务板块,但研究、基础设施、消费者硬件和安全团队除外,这些核心部门仍直接向 CEO Sam Altman 汇报。

🔗 https://sources.news/p/openai-ads-leader-sam-altman-memo-stargate?hide_intro_popup=true

⚙ Meta 押注「Android 式」机器人平台

Meta CTO 安德鲁·博斯沃斯在最近一次访谈中透露,在 CEO 马克·扎克伯格的直接指示下,他于今年早些时候组建了专门的机器人研究团队,目前正在开发内部代号为「Metabot」的人形机器人项目。

与市场上其他竞争对手不同,Meta 并不打算成为硬件制造商,而是计划采用类似 Google 向手机制造商授权 Android系统的商业模式。他设想 Meta 将开发完整的软件蓝图,然后向任何符合技术规格要求的公司开放授权,让更多制造商能够基于 Meta 的软件平台生产人形机器人。

在技术方面,博斯沃斯强调软件开发是当前最大的瓶颈,而非硬件本身。

他在访谈中拿起桌上的水杯解释道:「这些机器人可以站立、奔跑,甚至做后空翻,因为地面是一个超级稳定的平台。但如果让机器人尝试拿起这个水杯,它很可能会立即捏碎杯子或洒光里面的水。」这个简单的例子说明了灵巧操作仍然是机器人技术面临的最大难题之一。

为了攻克这一难题,Meta 的超级智能 AI 实验室正在与机器人团队密切合作,共同构建一个能够完成复杂手部动作仿真的「世界模型」。博斯沃斯指出,目前还不存在能让人形机器人像人类一样精确完成诸如从牛仔裤口袋中小心取出钥匙等精细动作的传感器循环系统,因此团队必须从零开始构建相应的数据集。

🔗 https://www.theverge.com/column/786759/humanoid-robots-meta

🛶 微软宣布 Copilot 助手 引入 Claude 模型,减少对 OpenAI 依赖

9 月 24 日,微软公司宣布将 Anthropic 的 Claude 模型引入 Microsoft 365 Copilot 助手。

在这项新的合作中,使用 Copilot 中 Researcher 代理功能(收集和分析信息并生成报告)的用户现在可以选择由 Claude 模型或 OpenAI 模型来响应他们的提示请求。

不过,管理员需要事先批准使用这些模型,相关使用将遵循 Anthropic 公司的条款和条件。

值得一提的是,作为 OpenAI 的主要投资者和关键云服务合作伙伴,在过去很长一段时间,微软主要依赖 OpenAI 模型为必应搜索、Windows 操作系统和其他产品提供 AI 功能。

但随着与 OpenAI 的裂痕加深,微软除了整合更多公司的大型语言模型外,微软还开始测试其自主开发的 MAI-1-preview 模型。

与此同时,OpenAI 也脱离对微软 Azure 的依赖,加速扩张合作版图,先后与甲骨文、博通和英伟达达成数百亿至千亿美元级别的巨额协议,以支撑其大规模数据中心建设。

🔗 https://www.cnbc.com/2025/09/24/microsoft-adds-anthropic-model-to-microsoft-365-copilot.html

🍎 苹果内部版 ChatGPT 曝光,为新 Siri 准备

据彭博社昨日报道,苹果正在开发一款类似 ChatGPT 的手机应用,以帮助测试和准备明年即将推出的新版 Siri。

报道称,苹果 AI 部门正在使用该应用快速评估 Siri 的新功能,包括测试搜索个人数据、执行 App 内操作(如编辑照片)。

该软件内部代号为「Veritas(拉丁语意为「真理」),目前仅供内部使用。虽然该软件没有计划面向消费者,但该 App 的功能基本上是将正在开发中的新技术从新 Siri 中提取出来,从而帮助苹果员工高效完成测试。

报道指出,即使没有公开发布,但这款内部工具也标志着苹果为 Siri 全面升级所做的准备进入了一个新阶段。新 Siri 已经经历了多轮推迟,目前计划在明年 3 月推出。

据悉,Veritas 跑的底层为苹果为驱动新 Siri 而重构的新系统,代号为「Linwood」。同时,Veritas 还依赖大语言模型(LLM),并且结合了苹果自身基础模型团队的工作成果。

另外,据 9to5Mac 日前报道,iOS 26.1、iPadOS 26.1 和 macOS Tahoe 26.1 开发者测试版隐藏的代码显示,苹果正在为 App Intents 引入 MCP 支持打基础。

🔗 相关阅读:iOS 26.1 隐藏彩蛋曝光,苹果给 ChatGPT 们造了个新「C 口」

📹 Meta 推出 AI 视频流「Vibes」,扎克伯格亲自宣传遭网友吐槽

Meta 近日宣布推出名为「Vibes」的全新 AI 视频流。

扎克伯格在 Instagram 帖子中介绍说,Vibes 将成为「艺术家和创作者制作的富有表现力的 AI 生成视频流」。该功能将在美国和其他 40 多个国家推出。

在功能设计方面,Meta 表示用户不仅可以观看 AI 生成的内容,还能创建自己的视频或对现有视频进行「混音」处理,包括添加新的视觉效果和音乐。

为了展示这一新功能,扎克伯格分享了一段 AI 制作的视频片段,标题为「爸爸试图计算 30 美元午餐的小费」,视频中一位酷似扎克伯格的父亲角色说道:「天哪… 我觉得可能至少要 6000 亿美元。」

然而,扎克伯格的宣传视频却引来了网友的嘲讽,有不少网友在其视频下方将这些由 AI 生成的视频称之为「AI 垃圾(AI slop)」。

值得注意的是,虽然 Meta 拥有自己的 AI 模型 Llama,但在 Vibes 项目中,该公司选择使用来自 AI 实验室 Midjourney 和 Black Forest 的视频生成模型。

🔗 https://www.theguardian.com/technology/2025/sep/26/cute-fluffy-characters-and-egyptian-selfies-meta-launches-ai-feed-vibes

Hunt for Tools|先进工具

👍 OpenAI 前 CTO 创业第二个成果公布

9 月 27 日,由多位 OpenAI 前高管创立的 Thinking Machines Lab(TML),正式发布了其第二篇研究论文《Modular Manifolds》,旨在从根源上让大模型训练过程变得稳定、高效。

简单来说,这项研究的核心思想是给神经网络的权重参数戴上一个几何「紧箍咒」。

传统方法往往是在模型建好后,再套用一个优化器来「管教」它。而「模块化流形」框架则更进一步,它将神经网络的每一层都视为一个有独立规则的「几何空间」(即流形),先在内部约束好参数,然后再将这些空间「拼接」起来,用一个全局的「限速器」统一协调整个网络的更新步伐。

这种「模型与优化器一体化设计」的思路,避免了网络内部参数数值的失控。根据论文中进行的小规模实验,该方法在稳定性和准确率上已展现出潜力。

该成果作者为 TML 的机器学习研究员 Jeremy Bernstein,并在 MIT 从事博士后研究工作。

本月,TML 在成立半年后,发布了其首篇重磅研究论文《Defeating Nondeterminism in LLM Inference》(克服 LLM 推理中的不确定性)。

值得一提的是,此前 TML 在「0 产品 0 用户」的情况下,估值曾狂飙至 120 亿美元(折合人民币 850 亿元)。

🔗 https://thinkingmachines.ai/blog/modular-manifolds/

👏 DeepSeek 模型再更新,真终「极」版

9 月 22 日,DeepSeek 宣布,deepseek-chat 和 deepseek-reasoner 已全面升级为 DeepSeek-V3.1-Terminus。

其中,deepseek-chat 对应非思考模式,deepseek-reasoner 对应思考模式。据介绍,本次更新在延续模型既有能力的同时,针对用户反馈进行了优化。

  • 语言一致性方面,中英文混杂与偶发异常字符情况得到缓解;
  • Agent 能力方面,Code Agent 与 Search Agent 的表现进一步提升。
  • 值得一提的是,DeepSeek V3.1 模型此前在多个平台被开发者集中反馈出现「偶发极等」异常 —— 即在正常代码或文本输出中突然反复插入汉字「极」、英文「extreme」或繁体「極」等 token。虽然 Bug 的概率约千分之一,但足以导致编译失败或内容不可用。此次版本升级,应当也包含了对该问题的针对性修复。

新模型现已开源:

🤗 Hugging Face:https://huggingface.co/deepseek-ai/DeepSeek-V3.1-Terminus
💻 ModelScope:https://modelscope.cn/models/deepseek-ai/DeepSeek-V3.1-Terminus

📰 ChatGPT 推出主动资讯助理「Pulse」

9 月 26 日,OpenAI 宣布推出全新功能「ChatGPT Pulse」,目前已率先向移动端 Pro 用户开放预览。

官方介绍称,「ChatGPT Pulse」能够基于用户的聊天记录、反馈以及已连接的应用(如 Gmail、Google 日历),在每天早晨自动生成一组个性化的研究更新。这些内容以卡片形式呈现,用户可以快速浏览或展开查看详情。

与传统 AI 的「提问—回答」模式不同,「ChatGPT Pulse」强调主动性。系统会在夜间进行异步研究,结合用户的兴趣和历史反馈,次日推送更具针对性的建议,例如「健康晚餐食谱」「三项全能训练计划」或「会议议程草案」。

值得注意的是,「ChatGPT Pulse」的更新仅在当天有效,若用户未保存或展开查看,信息不会长期保留。官方强调,该功能的目标是「帮助用户快速获取关键信息,而不是让人无休止地刷屏」。

目前,「ChatGPT Pulse」仍处于预览阶段,未来将逐步扩展至更多用户,并计划支持更多第三方应用接入。

🔗 相关阅读:刚刚,ChatGPT 又更新了,奥特曼:这是我最喜欢的功能

🤖 Google DeepMind 发布新 AI 模型,机器人可搜索网络协助完成复杂任务

9 月 26 日,Google DeepMind 宣布推出升级版 AI 模型,能够帮助机器人能够完成更复杂的任务。

据悉,得益于由新发布的 Gemini Robotics 1.5 以及具身推理模型 Gemini Robotics-ER 1.5,Deepmind 新推出的 AI 模型能够协同工作,让机器人在物理世界中采取行动之前能够「提前思考多个步骤」。

报道称,机器人将能够完成更复杂的多步骤操作,比如按深浅颜色分类洗衣物、根据伦敦当前天气情况打包行李箱,以及帮助人们根据特定地区要求进行垃圾、堆肥和可回收物品的分类。

DeepMind 机器人部门负责人卡罗琳娜·帕拉达表示:「此前的模型能够很好地完成单一指令任务,而且具有很强的通用性。通过这次更新,我们从执行单一指令转向对物理任务的真正理解和问题解决。」

为了实现这一目标,机器人可以使用 Gemini Robotics-ER 1.5 模型来理解周围环境,并利用 Google 搜索等数字工具获取更多信息,随后将这些发现转化为自然语言指令,传递给 Gemini Robotics 1.5,让机器人能够利用该模型的视觉和语言理解能力逐步执行任务。

此外,DeepMind 还宣布 Gemini Robotics 1.5 能够帮助机器人相互「学习」,即使它们具有不同的配置。目前,DeepMind 正在通过 Google AI Studio 中的 Gemini API 向开发人员推出 Gemini Robotics-ER 1.5,而 Gemini Robotics 1.5 目前仅向部分合作伙伴开放使用。

🔗 https://www.theverge.com/news/785193/google-deepmind-gemini-ai-robotics-web-search

Hunt for Fun | 先玩

📱 打造个性化「安卓人」,Google 推出 Androidify 应用

Google 于日前正式上线全新应用 Androidify,用户可通过上传自拍或输入提示词,借助 AI 技术生成专属的 Android 机器人形象。

该应用现已在网页端及 Google Play 商店同步开放下载。

据介绍,Androidify 集成了 Gemini 与 Firebase AI Logic SDK,支持图像验证、自动生成描述以及个性化机器人生成等功能。

应用会先利用 Gemini 2.5 Flash 对用户上传的照片进行检测,确保画面清晰且符合安全标准,随后生成详细描述,并调用 Imagen 3 模型生成最终的机器人形象。

值得一提的是,最新版本还新增了「背景氛围生成」与「贴纸模式」。

前者可通过 Gemini 模型为机器人添加场景背景,后者则利用 ML Kit 分割技术去除背景,生成可在聊天应用中使用的 PNG 贴纸。

Google 表示,Androidify 的目标是让用户在轻松娱乐的同时,体验到 AI 与 Android 技术结合所带来的创造力与个性化。

🔗 https://androidify.com/

Hunt for Insight|先知

👀 OpenAI 首席科学家:氛围编码之后或许就是「氛围研究」

在 a16z 最新举行的一场访谈中,OpenAI 首席科学家 Jakub Pachocki 和首席研究官 Mark Chen 深度披露了一些在 AI 发展路径上的重要思考和未来规划。

针对当前评估指标趋于饱和的问题,Jakub Pachocki 坦承,过去几年一直使用的评估体系确实已经非常接近饱和。因此,未来 OpenAI 将重点关注模型是否能够发现新事物,并在具有经济相关性的领域取得实际进展。

Jakub 透露了 OpenAI 的一个宏大目标:培养自动化研究员,让其能够自动发现新想法。

他提到了一个有趣的衡量标准,即观察模型实际进行推理和取得进展的时间跨度。目前模型的推理水平大约能够维持 1 到 5 小时,接下来 OpenAI 将专注于延长这个时间跨度,无论是在长期规划能力还是保持记忆方面。

在 AI 编程方面,Mark Chen 将编程模型的进步与围棋选手李世石面对 AlphaGo 的经历相比,认为从解决八年级数学问题到一年后在编码竞赛中达到专业水平,这种进展是「疯狂的」。

他观察到,这种进步已经改变了编码的默认方式。现在的年轻人认为默认的编码方式是「氛围编码」,而从头开始编写所有代码反而成为奇怪的概念。他预测,氛围编码之后或许就是「氛围研究」。

在人才招聘方面,Jakub Pachocki 认为坚持不懈是关键特质。研究的本质是探索未知,很多尝试都会失败,因此必须做好失败和从失败中学习的准备。Mark Chen 补充说,研究没有捷径,需要经验来学会如何选择合适的问题。

🔗 https://www.youtube.com/watch?v=KSgPNVmZ8jQ

🤯 图灵奖得主:大语言模型是死胡同

2024 年图灵奖得主、被誉为「强化学习之父」理查德·萨顿在最新访谈中表示,大语言模型无法实现真正的智能,并将被新的架构所取代。

萨顿的核心观点是,大语言模型本质上只是在模仿人类的行为,而非真正理解世界。

在萨顿看来,真正的智能应该来自与环境的直接交互和经验学习,就像动物在自然界中的学习方式一样。他强调,动物从不接受「监督学习」,它们通过尝试行动、观察结果来学习,这是自然界中普遍存在的学习机制。

当主持人帕特尔提到大语言模型似乎已经构建了世界模型时,萨顿反驳道:「模仿说话的人并不等于构建世界模型。真正的世界模型应该能让你预测会发生什么,而不是预测人会说什么。」

萨顿认为大语言模型面临的最大问题是缺乏明确的目标。他引用约翰·麦卡锡的定义说:「智能是实现目标的计算能力。」没有目标,就无法定义什么是正确的行为,也就无法实现真正的学习。

他进一步解释:「在强化学习中,存在正确的行为,因为正确的行为就是能获得奖励的行为。我们对什么是正确行为有明确定义,所以可以检验和学习。」而大语言模型缺乏这样的评判标准,无法在实际交互中获得反馈并改进。

访谈中,萨顿还指出了当前深度学习方法在泛化能力上的根本缺陷。他认为,虽然大语言模型在某些任务上表现出色,但这种成功往往是因为只有一种解决方案,而非真正的泛化能力。

「梯度下降会让系统找到解决已见问题的方案,但如果有多种解决方式,其中一些泛化能力强,一些泛化能力弱,算法本身并不会促使系统选择泛化能力强的方案。」萨顿表示,这也就解释了为什么深度学习系统容易出现灾难性遗忘等问题。

🔗 https://www.dwarkesh.com/p/richard-sutton

♐︎ 量子计算之父:破解量子引力理论或成 AGI 评判新标准

9 月 25 日,在德国柏林阿克塞尔·施普林格公司总部举办的一场对话活动中,OpenAI CEO Sam Altman 与英国著名物理学家、「量子计算之父」大卫·多伊奇就 AGI 评判标准展开深入讨论,并达成共识。

在多伊奇看来,大型语言模型能够持续对话,主要依赖其接受的海量知识训练,而真正的智能应该体现在创造知识的能力上——即发现问题、发明解决方案、进行测试并不断改进的能力。

为了论证这一观点,多伊奇以爱因斯坦的相对论为例:「有人质疑爱因斯坦是否真正创造了相对论,还是仅仅将现有思想机械组合。我们确信他创造了相对论,因为我们了解他的研究历程、要解决的问题及其动机。」

不过,他也坦率承认,他此前认为计算机无法在不具备 AGI 的情况下进行开放式对话,但 ChatGPT 的表现颠覆了他的认知。他表示:「ChatGPT 虽非 AGI,但确实具备对话能力。」

针对多伊奇的上述观点,奥特曼提出了一个假设性问题:如果 GPT-8 能够解决量子引力问题并详述其研究故事,包括问题选择和研究动机,「这是否足以让你信服?」

多伊奇明确回应:「我认为会的。」奥特曼闻言露出微笑,表示:「我同意将此作为测试标准。」

🔗 https://www.businessinsider.com/sam-altman-predicts-ai-agi-surpass-human-intelligence-2030-2025-9

彩蛋时间

作者:@azed_ai
提示词:A low-poly 3D render of a [subject], built from clean triangular facets with flat [color1] and [color2] surfaces. The environment is a stylized digital desert with minimal geometry and ambient occlusion.
链接:https://x.com/azed_ai/status/1971892865581350967

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


刚刚,ChatGPT 又更新了,奥特曼:这是我最喜欢的功能

作者 莫崇宇
2025年9月26日 07:55

刚宣布完 1000 亿美元交易,山姆·奥特曼(Sam Altman)又憋了个大招——ChatGPT 不再是被动回答问题的工具人,而是要主动给你「投喂」内容了。

就在刚刚,OpenAI 正式为 Pro 用户(又是氪金玩家专享)推出 ChatGPT Pulse 预览版,后续会逐步扩展到 Plus 用户,最终目标是所有人使用。

它会在你睡觉的时候偷偷帮你做研究,第二天一早就以主题卡片的形式展示在 Pulse 中,给你推送个性化内容。

简单说就是:AI 版私人助理 + 个性化资讯流,而且 OpenAI 还声称不会让你无脑刷屏。

奥特曼本人则在社交媒体上发文表示:「这是我最喜欢的功能!」

(好好好,又一个最喜欢的功能。)

要知道,传统的 ChatGPT 就是个「问答机器」——你问一句它答一句,全程需要你来主导。

但 Pulse 完全颠覆了这个模式。

具体来说,每天晚上,它会根据你的聊天记录、反馈和连接的应用(Gmail、Google 日历等),自动帮你做研究。第二天一早,你就能收到一份为你量身定制的个性化更新。

比如说,你昨天和 ChatGPT 聊了「想去波拉波拉岛旅游」,它可能会给你推送当地的天气、旅游攻略或者机票折扣信息。

你提到「我家娃 6 个月大了」,它就会主动推送婴儿成长里程碑、育儿小贴士什么的。

甚至,如果你连接了日历,它还能帮你起草会议议程、提醒你买生日礼物,或者推荐出差地的餐厅。

最让人眼前一亮的是,Pulse 的设计理念完全不同于现在那些「停不下来」的 App。

ChatGPT 技术负责人 Samir Ahmed 明确表示:「这个体验是有结束的,它的设计初衷是为你服务,而不是让你停不下来地刷屏。」

每天推送的内容都是精挑细选的,看完就完了,不会让你陷入无休止的信息漩涡。而且,每条更新只在当天有效,除非你主动保存为对话或提出追问。

这简直是对现在「算法投喂」模式的一次降维打击——有用的信息主动来找你,而不是让你在海量信息里瞎找。

OpenAI 在 ChatGPT Lab 中和大学生合作测试,发现了一个有趣现象:

很多学生刚开始觉得 Pulse 一般般,但当他们开始主动告诉 ChatGPT 想看什么内容后,立马感受到了它的威力。

来看几个官方分享的真实案例:

学霸 Isaac 在和 ChatGPT 聊到旅行规划后,第二天收到了火车票预订时间的精准建议,还包含了他原本不知道的通勤信息。

潜水爱好者 Hexi 分享了自己在潜水课上的困难,ChatGPT 不仅给出了针对性建议,还把潜水和风险管理做了类比——完全 get 到了她的兴趣点。

这种「举一反三」的能力,确实有点私人助理那味儿了。

不过,这种个性化体验背后的代价可不小。要让 Pulse 真正「懂你」,你得向 OpenAI 交出大量个人数据,具体来说:

如果你在 ChatGPT 中开启了「引用历史记录」,它会查看你过去的对话来决定研究方向。

如果你已连接日历和邮件,系统会提示你确认是否允许 ChatGPT 访问这些应用,以帮助你规划日程。Kaplan 表示,用户必须点击「接受」才会生效。
虽然 OpenAI 强调「Pulse 训练数据的处理方式和普通对话完全相同。」但隐私换便利,这笔账到底划不划算?以及会不会造成「信息茧房」,对此,OpenAI 只是表示设置了「多重安全过滤」,但具体细节一概不透露。

对于很多用户来说,在人手一个「贾维斯」之前,这种「黑盒式」的隐私保护承诺实在难以令人放心。

从技术角度看,Pulse 其实是 OpenAI 向 AI 智能体(Agent)方向迈出的第一步。OpenAI 应用部门 CEO Fidji Simo 在博客中表示:

「下一个前沿就是代理——能代表你采取行动、像团队成员一样与你协作的 AI 助手。」

附上博客地址:https://fidjisimo.substack.com/p/a-new-paradigm-of-proactive-steerable

这意味着未来的 ChatGPT 不会只停留在研究和信息整理上,而是能为你自动制定计划、按照目标采取行动,并在关键时刻主动提醒。

随着这种人机交互方式的转变,传统的搜索引擎和资讯 App 或许要被狠狠上压力了。毕竟谁能拒绝一个既聪明又主动的私人助理呢?

附上 OpenAI 原博客地址:
https://openai.com/index/introducing-chatgpt-pulse/

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


小扎演示多次翻车,但这依然是 2025 最好的 AI 眼镜 | 附现场体验

作者 莫崇宇
2025年9月18日 11:23

2025 年最新潮的科技产品,自然是各种能拍照、能录像还能 AI 的智能眼镜。

作为(重新带火)智能眼镜这一品类的先驱,Meta(前 FaceBook)以两年百万副 Meta Ray-Ban 的销量向我们证明了一件事:

把摄像头戴在脸上,还真就在慢慢变成人们记录生活的刚需。

就在刚刚过去的 Meta Connect 2025 发布会上,Meta 一口气为我们带来了三款新品。其中不仅有 Meta Ray-Ban 智能眼镜的第三代改款,还有一个传闻已久的新玩意——

带有彩色光波导显示功能的 Hyper Nova 产品版:Meta Ray-Ban Display。

划重点:

  • Meta Ray-Ban Display: Meta 首款带显示屏的智能眼镜。通过彩色光波导 HUD 和 Neural Band 腕带,把「脸上的 AI」从概念变成现实,售价 799 美元。
  • Ray-Ban Meta (Gen 2):小改款,是面向大众的主力机型,外观上更时尚,续航和拍摄能力大幅提升,售价 379 美元。
  • Oakley Meta Vanguard:面向运动与极客人群,防风镜造型、中央广角摄像头、长续航和运动数据整合,甚至配备训练提醒灯,售价 499 美元。
  • Hyperscape:把现实空间「搬进」虚拟空间,Quest 用户可以扫描房间生成逼真的 VR 副本,不过目前仍是 Beta 版。

稍后,爱范儿在 Meta Connect 大会前方的小伙伴 @梦雅Myra 也会在后续为大家带来今年三款新智能眼镜的上手体验,敬请关注后续文章。

Meta 首款带显示屏智能眼镜发布!799 美元带你体验「脸上的 AI」

毫无疑问,今年最受瞩目的新品将是 Meta 首款带显示屏的智能眼镜。

跟早期爆料一致,Meta 推出了一款右眼带有小型 HUD(抬头显示屏) 的智能眼镜:Meta Ray-Ban Display。

虽然名字有些无聊,但对于智能眼镜(或者用扎克伯格的话:AI 眼镜)行业来说,Ray-Ban Display 无疑是一款突破性的产品。

和纯粹基于图像识别的手势操作不同,这款眼镜搭载了 Meta 长期研发的 Meta Neural Band 肌电神经接口腕带,通过识别手腕上的肌电信号以及手腕运动,实现非常精确的隔空操控。

▲图|Meta

值得注意的是,Meta Ray-Ban Display 并非完整的 AR 眼镜,而是侧重于在视野中呈现关键信息的单目 HUD 设备——它的屏幕只覆盖了右侧视野的一小部分。

这是一片 30-90Hz 可变刷新率彩色光波导屏幕,总体尺寸为 600x600p,像素密度 42p/degree,最高亮度超过 5000 尼特,在强烈的日光和户外环境都可以保持不错的可读性。

▲图|Meta

根据爱范儿在 Meta Connect 现场的小伙伴 @梦雅Myra 的上手体验,Ray-Ban Display 的光波导屏幕无论是亮度还是隐藏效果都非常优秀,正面看过去只能看到侧面的导线:

而 Meta Neural Band 肌电手环的识别灵敏度也很高,手势操作的成功率相比去年 Connect 大会上的 Orion 测试机大幅提升,日常使用中应该不会出现任何操作难度问题。

▲ 图片来自:@梦雅Myra

与想象中始终显示信息的 HUD 不同,Ray-Ban Display 只有在被呼叫的时候才会点亮屏幕,支持显示比如音乐播放器、相机取景预览、实时字幕翻译等内容,并可将 Live AI 的回复以文字形式投射到镜片上,而不仅仅是语音输出。

或许是因为增加了显示和额外电子元件,Ray-Ban Display 眼镜的重量约 70 克,相比普通版的 50 克略有增加。在混合使用场景中,Ray-Ban Display 的续航约为 6 小时,搭配充电盒可以延长至 30 小时左右。

此外,Live AI 还支持了类似谷歌在 Pixel 发布会上展示的 Magic Cue 功能,可以在用户与别人自然对话的中途全自动地显示各种相关信息和操作(比如创建日程),不需要用户说出任何指令关键词。

眼镜所搭配的 Meta Neural Band 手环是另一个硬件亮点。

这款腕带通过读取腕部肌肉电信号,辅助陀螺仪识别移动,让用户用细微的手指动作来控制眼镜界面。去年 Connect 2024 大会上,Meta 已展示过原型腕带通过手指捏动来打字的演示,引发行业关注。

而今年的演示则更进一步,扎克伯格在现场甚至展示了一小段佩戴 Display 眼镜、通过腕带识别在桌面上手写字母的方式编辑和发送消息的过程。根据发布会的说法,腕带的手写识别速度至少在 30wpm 以上。

作为 Meta 首款真正具备数字显示功能的智能眼镜,Ray-Ban Display 承载了扎克伯格对于「脸上的 AI」的愿景——即将人工智能无处不在的助理和信息,在不干扰用户日常生活的情况下融入现实场景。

扎克伯格曾表示 2025 年是决定 AI 眼镜能否通向数亿用户的关键年份,可见公司对这款眼镜寄予厚望。当然也需看到,现阶段它的功能更接近于「增强信息提示」的智能眼镜,而非完全的混合现实设备。

根据发布会介绍,Ray-Ban Display 的起价为 799 美元(约合人民币 5700 元)。这一价格远高于 Meta 目前所有智能眼镜产品线上的产品,但从现场演示的功能丰富性和实际效果来看,无疑是非常值得的。

Ray-Ban Meta (Gen 2):小改款,但也更好看大了

除了高端的 HUD 眼镜,Meta 还同步推出了面向大众市场的 Ray-Ban Meta (Gen 2)。

作为一款眼镜的本质,Meta Ray-Ban 3 提供了更多风格和种类的镜框,包含一款全新的透明镜框款,并提供两种镜片选择:棕色反光金或红宝石。

▲ 图|Meta

Ray-Ban Meta (Gen 2) 的电池续航相比上代直接翻倍,智能眼镜充电盒可以在 20 分钟内将眼镜充至 50% 电量——比此前 22 分钟充至 50% 电量略有提升。

此外,充电盒可额外提供 48 小时的电池续航,相比之前的 32 小时有所增加。

录制规格也提升到了 3K 分辨率,包含录制 3K 30fps、1440p 30fps 和 1200p 60fps 的视频,最长可达三分钟。据悉,今年晚些时候,Meta 还将增加捕捉超速快放和慢动作视频的功能——这一功能将应用于其所有 AI 眼镜。

Ray-Ban Meta (Gen 2)支持了一项名为 Conversation Focus 的新功能。它的工作模式类似耳机的增强模式,会主动识别和增强和你对话的人的人声频率,在嘈杂环境中让你更容易听清对方在说什么。

更重要的是,这项功能将作为软件更新,在所有现有的 Ray-Ban 上提供。

Meta 的 Live AI 模型也相应得到了增强,不仅仅是视觉识别,现在它也支持了用户主动打断对话——只可惜,发布会上面的现场演示还是翻了车,Live AI 助手卡在了一句循环的对话上,没能完成一个完整的对话 session。

相比于前代的 299 美元,小改款的 Ray-Ban Meta (Gen 2) 上涨至 379 美元。

Oakley Meta Vanguard:时尚与运动,全都要

Meta 与 EssilorLuxottica 的合作不仅限于 Ray-Ban,也扩展到了集团旗下的 Oakley 品牌。今年 6 月双方已推出一款偏运动取向的智能眼镜 Oakley Meta HSTN,主打更长续航和更高的视频录制规格。

而今天推出的 Oakley Meta Vanguard 智能眼镜与 Ray-Ban 最大区别在于 Vanguard 采用了运动防风镜的外形,其摄像头置于鼻梁正中央,而非镜框两侧。

相机规格方面,Oakley Meta Vanguar 使用的一颗 1200 万像素、122° 广角相机被放置在鼻梁正中,这也是与 Meta Ray-Ban 的最大区别,后者只有一颗位于左侧的摄像头。

眼镜顶部还有录制指示灯。通过新的动作按钮,你可以快速切换拍摄模式:1080p/30fps 可录制 5 分钟,1080p/60fps 或 3K/30fps 可录制 3 分钟,720p/120fps 则支持慢动作模式。

产品的超速延时功能,能够自动剪辑生成精彩片段集锦(今年秋季的软件升级推送至全系 Meta 智能眼镜),还提供可调节的防抖功能,可根据运动强度自行设置。

此外,这款眼镜所搭载的开放式扬声器 Meta 在 AI 眼镜上搭载的最强劲的扬声器 —— 比 Oakley Meta HSTN 大 6 分贝,并且,还配备了五麦克风阵列,专门优化了风噪抑制效果,确保对话过程声音依旧清晰。

考虑到户外场景,Oakley Meta Vanguard 拥有长达九小时的电池续航,或可连续播放音乐长达六小时。用扎克伯格的话说:这足以支撑你完成两场马拉松——当然,前提是你能跑完两场(doge)。

此外,搭配充电盒,智能眼镜可以额外提供 36 小时的续航,如果你赶时间,可以在充电盒中用 20 分钟快速将眼镜充电至 50%。

在生态整合方面,Vanguard 通过与 Strava 及佳明达成了进一步的战略合作。用户可以一键将拍摄内容同步至 Strava 平台,同时借助 Meta AI 的智能分析能力,快速检索个人历史训练记录。

设备兼容性上,Oakley Meta Vanguard 可直接与多数佳明智能手表建立连接。连接成功后,手表界面会显示 Meta AI 专属标识。在运动过程中,用户只需语音指令,眼镜便会实时播报心率监测数据及其他运动指标,数据传输延迟几乎可以忽略不计。

在其实际体验当中,当用户做心率区间训练,还会有额外惊喜——右眼上方新增 LED 灯,训练时一旦偏离目标心率区间会变红,还能设置配速提醒。

如果说 Ray-Ban 面向日常生活和时尚人群,而 Oakley 则主打运动与极客圈层,价格为 499 美元,于当地时间 10 月 21 日正式发售。

现实世界「搬进」VR,Meta 推出「Hyperscape」黑科技

Meta 每年 Connect 大会不仅发布硬件,也会推出大量软件更新。

今天过后,Meta 将彻底把现实搬进虚拟世界。最新发布的 「Hyperscape」 技术,可以把你身边的现实空间扫描进 Quest VR 头显,生成一个照片级逼真的数字副本,甚至可以用于加入元宇宙的交互。

Quest 3 和 Quest 3S 用户现在就能下载 Beta 版 Hyperscape Capture 应用尝试,目前仅限个人体验,后续则能通过链接分享,让他人和你一起「重访」这个扫描空间。

这项技术早在去年的 Connect 2024 上就露过面,一年后,Meta 终于把它推到用户层面。

值得一提的是,The Verge 记者提前上手体验了一些预先扫描好的房间,比如厨房环境。在他看来,这些房间看起来和现实环境非常相似,甚至桌上的食物或书堆等细节也比较清晰。

不过,但如果离得太近,「幻象」就会破裂,比如「报纸」上的《纽约时报》文字可以读清,但有时会有点模糊。

▲ 图片来自:Meta

那具体是怎么扫描捕捉空间?

根据 The Verge 的描述说,他戴上 Quest 3 头显后,在房间里走动并四处张望时,会有一个虚拟网格开始覆盖在正对着的物体上。大约扫描三分钟后,应用提示记者靠近物体,这时网格开始逐渐消失。

不过,这种扫描虚拟空间并不是实时的。当用户完成一次完整扫描后,数据需要上传到云端处理,通常需要几个小时之后,才能体验到最终成果。

另一个重点则在于。今年 Horizon 平台最大的变化就是引入了全新的游戏引擎,提供更高质量的图形表现,同时推出 Meta Horizon Studio,帮助创作者打造定制化的游戏体验。

你可以将 Meta Horizon Studio 理解为一款VR 世界编辑器。创作者目前已经能用生成式 AI 工具来制作纹理、音频等内容,而今年晚些时候,Meta 还将为编辑器加入 AI 助手,进一步支持开发。

支撑这些新元宇宙环境的核心是 Horizon Engine。根据 Meta 的介绍,它能够带来「更好的图形、更快的性能以及更先进的 VR 世界」,并支持更高的并发体验。

此外,为了让用户更方便地在 Quest 头显上观看电影和电视剧,Meta 还宣布推出 Horizon TV 中心,提供对 Prime Video、Peacock、Twitch 等流媒体应用以及——终于——Disney Plus、Hulu 和 ESPN 的访问权限。

回顾往年 Connect 大会,硬件发布往往遵循「一主多辅」的模式:即每年都有一款核心硬件发布,并辅以其它项目预览或更新。

例如,Connect 2024(去年)的重头戏是 Quest 3S 头显的发布,以及真正 AR 眼镜原型 Orion 的首次曝光;Connect 2023 则推出了 Ray-Ban Meta 智能眼镜第二代,并公布了 Quest 3 的详细规格,同时预告了多款 VR 游戏和 AI 项目。

与以往有所不同,本届 Connect 大会的主角不是头显,而是智能眼镜。

Meta Ray-Ban Display 这款凝聚数年研发的产品,被视作 Meta 抢占智能眼镜市场的重要一步。正如扎克伯格反复强调的,智能眼镜有潜力成为下一代通用计算平台(the next computing platform)。

另一条贯穿大会的主线是 「AI 无处不在」。

无论硬件还是软件,AI 都是共同驱动力。尤其是,在过去半年,Meta 不断加码 AI 投资,开启今年紧张刺激的 AI 顶尖人才抢人大战。通过 AI + 硬件「双管齐下」,Meta 试图打造一个其他公司难以立即复制的综合生态。

归根结底,这种打法背后,既是 Meta 对硬件路线的重新排序,也是对未来计算入口的豪赌。

头显继续承担沉浸式体验的实验场,而智能眼镜则被推上更靠前的位置,承载着「随身化」的野心。再叠加 AI 的强势渗透,Meta 将最有望在即将到来的智能计算时代中占据制高点。

文|梦雅Myra,莫崇宇,马扶摇

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌