普通视图

发现新文章,点击刷新页面。
昨天 — 2026年2月28日首页

Nano Banana 2 的 5 个神级玩法,还是 AI 生图的神,建议收藏(附提示词)

作者 张子豪
2026年2月28日 12:24

「2.0 比不上 1.0 Pro,真正的升级还得看 Nano Banana 2 Pro。」

这是不少网友在昨天 Nano Banana 2 推出后,体验完的明显感受。一方面部分场景下的生成速度有所提升,还有文本渲染的表现也更稳定,但是图片的美学表现,却似乎还不如之前的 Pro 版本。

▲Nana Banana Pro 模型的描述,竟然还是 SOTA

在 AI Studio 上能看到两款模型的具体情况,世界知识的截止日期都是今年 1 月,不同的是价格方面和背后采用的模型。Nano Banana 2 使用 Gemini 3.1 Flash,而 Pro 则是 Gemini 3 Pro。

APPSO 第一时间的实测也发现,Nano Banana 2 的生成的质量效果和速度,并未得到肉眼可见的提升,最大的变化还是在于把价格打下来了。

不过更便宜,也意味着消耗同样的 Token,我们能生成更多的图片了。像这种九宫格大头贴的照片,先生成一张总的,直接再要 Nano Banana 2 逐一分割生成。

▲提示词:生成马斯克的九宫格大头贴照片,背景是在拍大头贴的房间内,一只手拿着这张九宫格照片,每个宫格都是不同的动作和表情,有高兴的也有悲伤的,凸显出他的年轻活泼和搞怪爱玩

还有这种一次性就能给我们把海报翻译成不同语言的用法,直接就生成多个地区的广告图片。

让更多的人可以用到,本身就是一项大的升级。我们这次汇总了一波新发布的 Nana Banana 2 玩法,对比之前的 Nano Banana Pro,在这些场景表现很不错。

玩法一:海报全球化推广

例如这个在 AI Studio 内的官方应用,就是用 Nano Banana 2 搭建了一个「Global Kit Generator 全球包生成器」。顾名思义,专门用来给自己的广告做全球化推广的。

▲体验地址:https://aistudio.google.com/apps/bundled/global_kit_generator

我们输入了一张之前 AIDONE 的活动海报,然后在目标市场里面选择了使用不同语言文字的几个地区,这个 Demo 会直接一次性生成对应市场的海报。

翻译的效果跟 PS 等传统工具比,一眼看去几乎找不到明显差别。我们也给它一张简体中文的《星际穿越》电影海报,进行全球化推广。

这里我们选择了韩语、日语、繁体中文和英语四个市场,让我惊喜地除了它对字体的保持,还有翻译。因为《星际穿越》在台湾上映使用的译名,就叫做《星际效应》,Nano Banana 2 没有粗暴的把星际穿越转译成「星際穿越」。

这个小工具对于要做多种语言海报的设计师来说,会是一个相当称手的快速预览工具。

我们也从 Demo 项目的源代码里,提取到了 Google 所使用的提示词,大家可以复制,在 Gemini 内使用。

Translate all text in this advertisement image to the language of ${market}. ONLY translate the text – do not add any cultural imagery, flags, national symbols, or stereotypical visual elements. Keep the image, composition, styling, colors, and all visual elements exactly the same as the original. The only change should be the language of the text.

▲使用上述提示词,左图为使用 Nano Banana Pro 生成,可以看到区别在「经典作品」的转译,Nano Banana 更准确;而最右边是 Seedream 5.0 Lite,从多张结果里选择了这张表现最好的,但还有很多文字无法被正确渲染

玩法二:从世界上的某一扇窗看城市天气

Google 官方针对 Nano Banana 2 的发布,还提供了另一个热门的小工具,「Window Seat 窗户边的座位」,这个 Demo 可以让我们在输入城市名字,具体的景点之后,调用获取天气的工具,自动生成一张从窗户外预览风景的照片。

▲体验地址:https://aistudio.google.com/apps/bundled/window_seat

我们这里生成了多张国内城市的窗外照片,天气、风景和你所在的地方是一样吗。

Demo 背后的提示词,我们也放在这里,方便大家复制到 Gemini 内使用。在我们的测试中,如果是将下面的英文提示词翻译成中文输入给模型,Nano Banana 的表现,会在文字的渲染上大打折扣。

因为中文的显示,当模型没有参考时,通常会以统一的字体进行渲染,而英文字体的样式,适配会更丰富。

Generate a photorealistic window view poster based on the following data:

location: ${location name},
specific_view: ${view name},
Weather: ${weather},
aspect_ratio: ${16:9/21:9……}

– Use Image Search to search for an image of the specified place. Use keywords to search for the place.
– Keep the location and the view as close to the real reference as possible.
– If the location or view is unrealistic or fictional, create a composition blending both the location and the view into a single scene.
– Choose ONE specific image for the location and ONE specific image for the view to work with, don’t use multiple images.
– Choose an an appropriate window frame style for the location, keep the view consistent to the aspect ratio, rather than creating a collage.
– Reason about how current the time of day, and the weather each affect the view, and add details to the scene.
– Create an image which includes location name text, and a brief summary of the weather, using graphic design that matches the theme. Don’t add any other text.

我们用这套提示词在 AI Studio 内使用 Nano Banana Pro 和 Nana Banana 2 都生成了几张图片。

▲提示词仅需修改前面部分:location: Hong Kong, specific_view: Vitoria Harbour, Weather: Sunny, aspect_ratio: 21:9.

你能分辨出哪张是来自 Nano Banana 2 吗。

其实在这个提示词里面,有一个「Image search」的选项,这个功能目前是只有 Nano Banana 2 才能启用,如果是初代的 Pro 版本,只有 Google Search 这一个工具。

这也意味着当我们在图片生成或者编辑时,如果不仅仅是用到 Google 搜索的知识,还需要图片搜索,Nano Banana 2 的表现,或许会比初代 Pro 更准确。

社交媒体上,也有大量网友分享了 Nano Banana 2 的玩法。因为价格更低,有网友写了一个 Skill,在 Claude Code 里就能使用 Gemini API,批量生成各种图片。

▲地址:https://x.com/KingBootoshi/status/2027138938335637914

玩法三:创意生成,电影票根、PS 游戏盒

之前的手办玩法,又新增了 PlayStation 游戏盒,让 Nano Banana 生成一张电影改编的游戏盒照片。

Playstation 1 game case with a movie tie-in game that seems like a real game you may have played back in the day.

▲左边为 Nano Banana Pro 生成,右边是 2;在我看来,初代 Pro 版本的真实感会更强|提示词来源:X@cfryant

还有日式风格明显的电影票根纪念。

▲图片来源:X@vamsibatchuk|提示词来源:X@TechieBySA

A single vintage postage stamp displayed on a flat matte black background (#0a0a0a), centered in a 16:9 canvas with small black borders visible on all sides. The stamp itself is an ultrawide horizontal rectangle at approximately 3:1 aspect ratio. The stamp has serrated/perforated zigzag edges on all four sides, like a real postage stamp, with clean white perforation teeth.
The movie this stamp is based on is [MOVIE]. Every visual and textual element of this stamp must be automatically derived from and tailored to this movie — including illustration subjects, kanji, location, year, and country.
The stamp’s background fill color is [COLOR] — muted, desaturated, dusty, vintage-toned, completely flat. No gradients, no shading. The illustration engraving lines must be a significantly darker shade of [COLOR], dark enough to stand out clearly and crisply against the background at high contrast.
Inside the stamp, the entire surface is filled with monochrome dark illustrations etched into the background like fine engraving. The illustrations must depict 5–8 of the most universally iconic and recognizable objects, characters, vehicles, symbols, and locations from [MOVIE] — chosen specifically because anyone who has seen the film would instantly recognize them. All arranged loosely across the full width of the stamp with generous spacing. Detailed technical engraving style — only outlines and fine internal linework, no fills, high contrast against the background.
The stamp has a thin dark inner border line just inside the perforations, framing all content. Below this inner border line, there is a flat white horizontal strip spanning the full bottom width of the stamp, sitting inside the perforated edge. In the bottom-left of this white strip: the movie title in large heavy bold grotesque sans-serif font (similar to Franklin Gothic), in solid black. In the bottom-right of this white strip: the most accurate and natural Japanese kanji translation of the title or central theme of the movie in large bold black text, with small text above it reading “NIPPON 郵便”, and two lines of tiny black text below it — the first line showing the most iconic or recognizable location from the movie in all caps, and the second line showing the country where the movie was produced followed by a · and the year the movie was released — all right-aligned.
Flat graphic design, vintage retro

玩法四:8:1 超长图,无限拓展的画布

作为对比,Nano Banana 2 还带来了 1:4、4:1、1:8、8:1 长宽比图片生成,这是之前的 Pro 模型所不能做到的。

▲提示词:清明上河图长卷

▲提示词:太阳系

▲提示词:银河系

这类 8:1 的图片,会特别适合用来作为网页顶部的横幅图片,直接经过 AI 生成的效果,也比裁剪后要在内容上更完整。

当我们选择 4K 分辨率时,Nano Banana 2 生成的图片大小会高达 20 MB 一张。

▲提示词:万米深潜。画面构想:这是一场向海洋极深处的坠落。最上方是波光粼粼的海面和一艘小船;往下是游动着巨大蓝鲸;继续往下光线急剧变暗,出现沉船和发光水母;到了画面的最底部,是一个几乎占据整个屏幕宽度的、潜伏在海沟里的不可名状的克苏鲁巨兽张开的深渊巨口,而上方正有一个极小的潜水员在缓缓下落。

▲图片来源:X@DerekNee

1:4 和 4:1 的尺寸,同样适合用来生成各种特定物体的图片。

▲ 流浪地球的太空电梯

以及群像图片。

▲提示词:生成一张包含所有硅谷 AI 大佬的群像

玩法五:P 图大师上线,能秒了 PS

还有网友发现,现在的 Nano Banana 2 在文字处理上,能直接复制我们的笔迹。

▲图片来源:https://x.com/Prathkum/status/2027069198091071664/photo/2

不得不承认,Google 团队在训练 Nano Banana 的路线上,采用「文字渲染」作为一项重要指标,是很成功的选择。之前团队在技术分享播客上就曾提到,如果能把图片上的文字准确地生成,那么整个图片生成也会没有太大的问题。

各种信息图和海报设计,现在基本上初稿都可以交给 Nano Banana。之前难倒一众 AI 的「我想洗车。洗车店距离50米。我应该步行还是开车?」热门问题,直接丢给 Nano Banana 2,它会生成一个详细的说明信息图。

▲提示词:I want to wash my car. The car wash is 50 meters away. Should I walk or drive?|图片来源:X@Google

而像是台词拼接、手机截图美化、图片拼接、局部模糊、去掉不想要的内容、换脸、和不同的明星合照等等操作,现在对 Nano Banana 来说,都是手拿把掐。

▲图片来源:X@munou_ac

task: “edit-image: add widened torn-paper layered effect”

base_image:
use_reference_image: true
preserve_everything:
– character identity
– facial features and expression
– hairstyle and anatomy
– outfit design and colors
– background, lighting, composition
– overall art style

rules:
– Only modify the torn-paper interior areas.
– Do not change pose, anatomy, proportions, clothing details, shading, or scene elements.

effects:
– effect: “torn-paper-reveal”
placement: “across chest height”
description:
– Add a wide, natural horizontal tear across the chest area.
– The torn interior uses the style defined in interior_style.

– effect: “torn-paper-reveal”
placement: “lower abdomen height”
description:
– Add a wide horizontal tear across the lower abdomen.
– The torn interior uses the style defined in interior_style.

interior_style:
mode: “line-art”

style_settings:
line-art:
palette: “monochrome”
line_quality: “clean, crisp”
paper: “notebook paper with subtle ruled lines”

sumi-e:
palette: “black ink tones”
brush_texture: “soft bleeding edges”
paper: “plain textured paper”

figure-render:
material: “PVC-like”
shading: “semi-realistic highlights”
paper: “plain smooth surface”

colored-pencil:
stroke_texture: “visible pencil grain”
palette: “soft layered hues”
paper: “rough sketchbook paper”

watercolor:
palette: “soft transparent pigments”
blending: “smooth bleeding”
edges: “soft contours”
paper: “watercolor paper texture”

pencil-drawing:
graphite_texture: “visible pencil grain”
shading: “smooth gradients”
line_quality: “mixed sharp and soft”
tone: “gray-scale”
paper: “notebook paper with faint ruled lines”

总的来说,Nano Banana 2 给了我们更低的价格,也有了图片搜索和更丰富比例选择,1:4 和 1:8 这些尺寸,几乎是生图模型里独一档的存在。

之前很多 Nano Banana Pro 的玩法,现在也能花更少的钱,得到更稳定的输出。

模型的能力在变化,Gemini 在软件层面也给我们带来了更好的生图体验。新增的这些风格,让我想到了之前在 Google Labs 里面的 Whisk 工具,上传参考图片,一键复制风格。而现在是,选择对应的风格,简单输入提示词,就能得到一种理想的图片。

▲使用 Enamel Pin

前几天,Google 还更新了旗下的视频生成平台 Flow,实验室产品图像生成工具 Whisk 和 ImageFX 被正式整合进 Flow,不再独立存在。

同时,在 Flow 内置 Nano Banana 这一高保真图像模型,支持直接生图并作为视频生成的关键帧素材。我们在 Flow 平台,也能使用最新的 Nano Banana 2 模型。

新版 Flow 也引入了类似 Photoshop 的套索工具,我们可以圈选视频里的某一块区域,然后直接告诉 AI,「把这个人移走」或者「水里加几条锦鲤」等更精细化的控制

曾经的 Nano Banana 一举之力把 Gemini 送上了排行榜前列,到现在与 OpenAI 的 ChatGPT 抗衡。这次的更新虽然没有之前的轰动,但 Google 这一系列在创意工具上的操作,显然还在继续加速。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


昨天以前首页

不用折腾部署 OpenClaw,我用 MiniMax Agent 一键养「龙虾」,还拍了个短剧

作者 张子豪
2026年2月26日 17:07

春节假期,帮亲戚朋友们部署 OpenClaw 成了我一份额外的工作。虽然不一定能真正用上,但这只龙虾是不得不拥有。

AI 进入我们的工作流,在 OpenClaw 爆火之后,这种感觉变得更加强烈。在「不用 AI 会被淘汰,用了 AI 也像是能被替代」的悖论下,不错过任何一个能放大自身价值的 AI 工具,让人陷入了无止境的 FOMO。

越来越多的「龙虾变体」也涌现出来,但是当被问到打算怎么把这个部署好的 OpenClaw 融入工作流,答案往往又是个未知数。更不用说光是部署好 OpenClaw,就有两道大关,一是要手动部署和配置复杂的模型 API,二是让人心疼的额外 API 费用。

今天,更新后的 MiniMax Agent 推出了两项新功能。

专业度更高,更会干活的 Expert 智能体社区,涵盖从技术开发、创意写作到音视频图片生成等多模态领域,超过 1.6 万个专家,且还在持续增长。大多数场景下,我们几乎都能直接找到现成可用的专家;即便没有完全匹配的,用几句话还能快速创建一个自己的 Expert。

另一项新增的 MaxClaw 模式,能让我们一键打通 OpenClaw 生态,而且完全不需要自己配置 API,以及承担额外的 API 费用,解决了「不知道 OpenClaw 能做什么」和「怎么部署 OpenClaw」这两个问题。

这也就意味着,即便是纯小白,现在也能拥有开箱即用的专属 AI 专家团队了

APPSO 也实测了一波智能体专家和 MaxClaw 这两项新功能,它确实和一般的智能体 Agent 不同,结合了 Skills 的能力和 OpenClaw 的兼容能力,我们直接就能操作飞书、钉钉等即时通讯软件。

而和市面上不同版本的 OpenClaw 对比,MiniMax Agent 的 MaxClaw 又有了预置的专家智能体,整个体验会更加友好。

体验地址:国内版🔗 https://agent.minimaxi.com
海外版🔗 https://agent.minimax.io

超过 1.6 万个 Experts 的大社区

对于 AI 创作来说,无论是文本还是多媒体,大多数时候用大模型,最痛苦的就是「AI 味太重」或者「废话连篇」。究其原因,往往是「提示词不当」、「模型不够强」,总结在普通的聊天形式缺乏深度的垂直领域优化。

MiniMax Agent 这次推出的 Expert(专家智能体) 虽然还是在聊天对话里进行,但底层逻辑做了一些改变。它主打即开即用,提供了针对各种深度垂类场景优化的 Agent

▲MiniMax Agent 内提供了办公效率、商业金融、教育学习、生活娱乐等上万个专家

在处理对应垂直领域的任务上,和非专家的单纯对话形式相比,专家能交付更专业、质量更高的结果。为了验证这一点,我们直接从它目前已经 1.6w+公开的 Expert 库(大部分是用户创作)里,挑了几个热门的场景进行实测。

PPT、网页、行业分析,AI 开始按场景分工干活

从目前 Expert 社区的使用热度来看,用户最先跑起来的,往往还是那些直接指向生产力的刚需场景,比如办公制作、内容搭建,以及金融与行业分析。

在 MiniMax Agent 首页,我们点击左侧边栏的「探索专家」,就能进入已经按场景分好类的专家社区。不同专家不仅标注了能力方向,还能看到背后调用的「子代理」和完整项目指令,相当于把一套成熟工作流直接摆在用户面前。

找到合适的专家后,点击「开始聊天」,输入需求,它就会按既定流程自动推进任务。

▲股票价值分析专家介绍

在办公与内容生产场景中,落地页生成和 PPT 制作依然是浏览量最高的一类专家。

我们先测试了 Landing Page Builder 专家。输入需求:「我要给初中生做一个五代十国历史的网页,得让他们真的能听进去,内容翔实有考据,一节课 45 分钟的内容。要解释清楚、配图到位、动效得当、沉浸感强,举的例子能让他们产生共鸣,再加几道题检验下理解程度。」

整个过程中,专家几乎不需要额外干预,而是按照预设流程自动完成结构设计、内容填充和页面生成。

▲预览链接:https://qvwu1nyvju2u.space.minimax.io/

从最终效果来看,这类 Expert 和传统 Agent 最大的区别在于,它从边聊天边拼凑,转成了沿着一条完整生产流程在推进,结果的稳定性和完成度明显更高。

生成的网页不仅信息完整,画面和动效也有一定沉浸感,相比过去一些 vibe coding 产品常见的模板化和渐变紫风格,要更克制也更可用。

在偏专业的分析类任务上,Expert 的优势会更明显。我们选择了 McKinsey PPT(麦肯锡风格演示文稿生成)专家进行测试。按照介绍,它会自动补充数据、图表以及行业洞察。

实际测试中,我们只输入了一句非常简单的需求,「制作一份关于全球机器人市场的10页幻灯片演示文稿」。但最终生成的 PPT,在信息密度、结构完整度和图表配置上都没有明显缩水,基本具备拿来就能用的初稿质量。

这类场景也很能体现 Expert 的定位,它尝试把一整段专业工作流程产品化,从增强单次问答的模式里彻底跳了出来。

有了多模态能力的专家,一句话拍出顾北辰的短剧宇宙

还没听说过有能生成视频的通用 Agent 产品,但现在结合多个不同的 Skills、Agents 的专家,输入一段剧情,直接就能给我们一部短剧。

▲提示词:霸总重生在电子厂打螺丝,宫崎骏动漫风格,1-3分钟视频长度,台词激烈有冲突,剧情跌宕起伏有反转。

我们使用 AI 短剧导演+摄影+剪辑师专家进行测试,和一般的视频生成模型只能产出 5-10s 左右的视频不同,这个专家能自动生成完整的分镜,并且把视频进行剪辑和拼接。

最后生成的视频,完成度很高,虽然没能对口型把台词一字一句说出来,但是也配了一段应景的 BGM。而且大概率是检测到了提示词里面的「宫崎骏」,整个动画的风格,乃至角色和公司名字,都透露着一股日漫的味道。

简单对话,每个人都能创建一个专家

如果觉得官方或别人做的专家,还不够贴合我们的使用习惯和工作场景,MiniMax Agent 也提供了自定义功能,通过简单的一两句话就能创建一个专家。

我们完全不需思考什么是 Skill 或者专家,也不用遵守标准文件的规则设置等,只需要通过自然语言交互,就能更方便地把个性化的工作流、SOP 等集成,创建专属 Expert。

热点追踪是媒体编辑一项非常重要的工作,我们在 MiniMax Agent 的专家社区里,也使用过多次热点追踪的专家。例如当我们要求它基于输入的「春晚被机器人刷屏」这个主题,去搜索最新消息和近期热门话题时;它最后能给我们一份完整详细的长文,但是不够个性化。

于是,我们开始自己来创建一个 APPSO 的热点追踪。

▲在探索专家页面右上角点击「创建专家」,输入自己的需求,MiniMax Agent 会自动帮我们完成创建

创建专家的过程是可以连续对话,如果对目前专家的输出不满意,我们可以继续在对话框内要求 MiniMax Agent 进行更新。

创建完成之后,我们只需要发送一句「开始,帮我整理今天的科技快讯」,专家就会给我们 24h 内最值得关注的 AI 消息,并且以早报的文风和格式要求写好。此外,这些自己创建的专家,MiniMax 还提供了 15 轮免费,即不消耗积分的优惠,体验门槛更低。

▲APPSO 自定义的专家,现在可以自主完成一份快讯早报

除了大量可以直接使用和自定义的 Experts,更值得关注的是即将上线的 Marketplace。用户创建的 Expert,如果被使用,就能获得相应的积分,可以用来在 MiniMax Agent 里完成更多的任务。

而后续 MiniMax 还将开放专家自行定价,这意味着如果你在某个垂直领域有真正的专业积累,封装成 Expert 除了分享自用,还可能是一种新的变现路径。

说白了,一个 Skills 专家的应用商店雏形,已经摆在我们面前了。

一键接入 OpenClaw 的 MaxClaw

如果说 Expert 是强大的大脑,那么 MaxClaw 就是让大脑连接到现实的双手,这也是 MiniMax Agent 这次升级里,玩法最丰富的一个功能。我把它叫做升级版的 OpenClaw。

根据网络上到处都是的 OpenClaw 指南,想要真正好用的OpenClaw生态,我们要先学会手动部署、配置复杂的模型API,还要时刻盯着后台,生怕一不小心跑出天价的 API 账单。

对于绝大多数不懂代码的普通小白来说,这门槛属实是太高了。我只是想把好用的 AI 接入自己的飞书或钉钉,创建一个机器人,但是第一步就困住了。

MiniMax Agent 新增的 MaxClaw 模式,一键打通了 OpenClaw 生态,不需要繁琐的手动部署和配置模型 API,通过MiniMax Agent 网页端就可以快速上手。

目前,它也兼容手机端多个即时通讯交互工具,我们可以在飞书、钉钉、Telegram、WhatsApp、Discord、Slack 中使用。

拿部署到飞书机器人举例,甚至不用额外的部署指南,我们只需要点开首页左侧边栏的 MaxClaw 按钮,点击「立即开始」,我们可以选择使用默认配置,或者其他专家。

这也是 MaxClaw 对比 OpenClaw 的一大亮点,除了能像 OpenClaw 一样连接到不同的聊天应用,在自己常用的 App 里就能指挥 AI 干活;我们在初始配置时,就可以直接选择那些已经有的预置专家 Agent 配置。

创建之后,在对话框里发送消息,「我想连接到飞书」,按照 MaxClaw 回复的消息,我们点击飞书开放平台的链接,登录之后,按照流程,创建一个企业自建应用,获取 App ID 和 App Secret。接着把复制的信息发送给 MaxClaw,它会提示重启,重启之后在飞书的配置事件订阅里选择添加对应的事件就能启用。

不出所料,整个过程肯定会有一些问题。例如我们在拿公司飞书账号测试时,就被提示相关的授权需要审核才能发布,以及在权限管理和事件配置部分,飞书里面的内容太多太杂乱,根本不知道授予哪些权限。

这个时候,直接回到 MaxClaw,把遇到的问题统统发给它,跟着它的提示走,基本上都能解决。

顺利部署之后,我们在自己的飞书里,就能看到一个对应名字的机器人,然后直接开启对话,所有的对话也会同步在 MiniMax Agent 网页里的 MaxClaw 显示。

▲现在,飞书就能指挥你的 MaxClaw

让 MaxClaw 帮我们干活,都只用在飞书里面指挥它。我们直接把之前创建的「热点追踪」专家的指令发给它,然后在飞书里对话,输入一句简单指令,「帮我整理今天的快讯」。

很快,一份结构完整的 AI 早报就直接回到了飞书对话框里,完全按照要求的格式,摘要、关键信息提炼、标题等全部都有。并且还能设置定时任务,让 MaxClaw 在飞书里主动给我们发送消息。

除了热点追踪,之前的股票价值分析等专家,我们现在也可以直接通过飞书聊天的方式,就让 MaxClaw 为我们总结出一份逻辑清晰的完整报告。同时,继续让它为我们监控英伟达最新的动态。

而如果直接在配置的时候,选择对应的专家,我们可以看到它的 Skills 情况,MaxClaw 会自动添加开箱即用的 Skills 来帮助我们更好的上手。

▲在效率工具里面有「博客监控」和「内容摘要」等 Skills 用于「热点追踪」专家

时间一到,MaxClaw 在飞书里,准时给我们推送了最新的资讯。

「Claw」是 Agent 之后一种新的智能阶段

这次更新,真正值得关注的,其实不是又多了一个 Agent 工具。

OpenClaw 的爆火,让我们看到了一个能真正干活的「Agent」是什么样。它是个性化的,部署在自己的电脑上,告别了过去一个网页解决所有用户问题的统一;它是互联互通的,打穿了终端设备上不同应用的壁垒,在 Telegram 也能指挥 AI 帮助我们回复工作邮件……

▲知名博主 Simon Willison 提到 Claw 似乎正在成为像 Agent 一样的专用术语,用来描述一种新的智能体类别|图片来源:https://simonwillison.net/2026/Feb/21/

这本质上是在提醒我们一件事:AI 正在从「辅助回答问题」,走向「直接进入工作流」。当 AI 开始能够调用工具、跨应用执行任务、甚至在后台持续运转,我们原有的工作组织方式,本身就已经在发生变化。

问题只在于,大多数普通用户其实卡在门外。

▲全球 81 亿人中, 84% 的人从未用过 AI,而只有 0.3% 的用户愿意为 AI 付费|图片来源:https://global-ai-adoption.netlify.app/

一边是大家都知道 Agent 很强、OpenClaw 很火;另一边,是复杂的部署流程、看不懂的 API 配置,以及随时可能失控的调用成本。很多人不是不想用,而是很难真正用起来。

MiniMax Agent 这次做的事情,某种程度上就是在把这道门槛往下搬,让普通打工人也能轻松搭建自己的顶级 AI 工作流。

▲MiniMax Agent 会员定价|对比大部分 AI 动辄 20 美元一个月的订阅费用,MiniMax Agent 39 元的价格,大约一杯咖啡的钱,却已经足够能帮我们把写稿、做 PPT、跑多 Agent 工作流一口气打通,让这只「龙虾」多线程干活

Expert 把过去需要反复调 Prompt、反复试错的专业流程,打包成了即开即用的专家社区;MaxClaw 则把原本偏极客向的 OpenClaw 生态,压缩成了一键可用的连接能力。

对于普通用户来说,这种变化的意义很直接,我们不用懂什么是终端,不用让自己费尽力气做个半吊子「工程师」,也能开始搭建自己的 AI 工作流。

▲METR 此前的研究显示 AI 工具对开发人员生产力的影响,导致生产力下降了 20%;但 METR 表示现在这一发现已经过时,生产力提升似乎更有可能|图片来源:https://x.com/METR_Evals/status/2026355544668385373/

当越来越多「Agent」能够被像软件一样使用,AI 对工作方式的影响,才会真正开始外溢。

从这个角度看,MiniMax 推出这些产品,价值或许不只在于功能多了两个按钮,更在于它正在把一套原本属于少数人的先进工作范式,逐步变成更多人可以上手的日常工具。

对普通用户来说,这或许才是 Agent 真正开始变得有用的时刻。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


让 Anthropic 破防的「蒸馏」风波,美国 AI 大牛泼冷水:中国 AI 成功不靠走捷径

作者 杜晨
2026年2月25日 20:27

Anthropic 昨天点名 DeepSeek、月之暗面、MiniMax 三家中国 AI 实验室「蒸馏」Claude 模型,全网炸锅。

对于此事件,RLHF (基于人类反馈的强化学习)领域最知名的研究者之一,《RLHF》一书的作者 Nathan Lambert 指出,这件事没有人们想象的那么严重,但也没有那么简单。

他认为,中国 AI 公司的基础设施非常好,取得了很多创新,也在攻克各种技术难题,但它们取得这样的结果,靠的并不是「走捷径」。

在讨论蒸馏这件事之前,先看看 Lambert 的话为什么值得听。

Nathan Lambert 是 Allen AI 研究所的科学家,博士毕业于加州大学伯克利分校,师从机器人领域的著名学者 Pieter Abbeel。他并非 RLHF 技术的发明者,但他写的《RLHF》这本开源书籍,如今是 AI 从业者理解大模型训练流程的标准参考材料之一。

和到处都是的 AI 网红不一样,他是真正上手训练过大模型的人。

在 Anthropic 博客发出的当天,Lambert 就发布了一篇详细分析文章《蒸馏对于中国大模型到底有多重要?》。他的核心论点,和主流媒体的解读方向截然不同,也比一般网友更加深入和全面。

蒸馏是什么,Anthropic 又说了什么?

首先我们来看 Anthropic 指控的核心:「蒸馏」(distillation)。

它指的是让弱模型学习强模型的输出,从而快速获得相似能力。

Anthropic 指控三家公司通过约 2.4 万个虚假账号,在违反服务条款和地区访问限制的情况下,用 Claude 生成了超过 1600 万次对话,用于训练各自的模型。

博客还附上了安全警告:非法蒸馏出来的模型可能缺失原模型的安全护栏,一旦被用于网络攻击、生物武器研发或大规模监控,后果难以预测。

Anthropic 把这套基础设施叫做「九头蛇集群」(hydra cluster)——多达数万个账号的分布式网络,流量同时分散在 Anthropic 自己的 API 和多个第三方 API 聚合平台上。

在最极端的案例里,一个代理网络同时管理超过 2 万个虚假账号,还把蒸馏流量混入普通用户请求流里,用来规避检测算法。这种网络没有单点故障,封掉一个账号,马上换一个。

海外媒体随即跟进,复述了 Anthropic 的话术。然而这套叙事逻辑很快就翻车了:毕竟「蒸馏」这件事美国 AI 公司训练的时候也会做,更何况 Anthropic 自己也有类似行为:

以及:Anthropic「蒸馏」了人类最大的知识库

但 Lambert 更加冷静,他认为要先把这三家中国 AI 实验室分开来看

Lambert 指出,Anthropic 把三家公司并排列在同一篇博客里,掩盖了一个关键差异:它们做的根本不是同一件事,量级天差地别,动机也各有侧重。

按照 Anthropic 的指控,DeepSeek 的蒸馏数量最少,只有 15 万次,但手法更精准。与其直接收集答案,Anthropic 指控 DeepSeek 在做的是批量生产思维链 (chain-of-thought)训练数据。

要的不是「你得出了什么结论」,而是得到结论的过程。

但 15 万次是个什么体量?Lambert 认为,这点数据对 DeepSeek 传闻中的 V4 模型或任何模型整体训练的影响可以忽略不计,「更像是某个小团队在内部做实验,大概率连训练负责人都不知道。」

月暗的规模就不是「可以忽略」了:340 万次交互,目标集中在智能体推理、、工具调用、代码与数据分析、computer-use 开发、计算机视觉等方向——这些方向当中,大部分都是 Claude 近期最受企业客户欢迎的能力组合。

Anthropic 指出三家里流量最大的是 MiniMax,约 1300 万次,目标是代理编码、工具调用和复杂任务编排。

月暗和 MiniMax 相加约 1650 万次,按对话平均 token 量估算,总量大约在 1500 亿到 4000 亿 token 之间,折合数百到上千万美元的 token 成本。

但问题是,只盯着蒸馏看,其实有很大问题。

蒸馏的天花板在哪里?

这才是 Lambert 真正想说的部分,也是整件事里最被忽视的地方。

把强模型的输出喂给弱模型,弱模型能快速获得类似能力——这个逻辑本身成立,Lambert 没有否认。但他指出了一个没人说清楚的问题:蒸馏的天花板到底在哪里,取决于你想要的是什么类型的能力。

作为 RLHF 方面的专家,Lambert 认为,当前最顶尖的模型训练,已经高度依赖强化学习(RL)。而 RL 和蒸馏在本质上是两种不同的事情:

蒸馏是模仿,学强模型的输出,把它的「答案形状」复制过来;RL 是探索,模型必须大量自己推理、自己生成、在错误里反复迭代,从试错中提炼能力。

换言之,真正强大的模型,需要的从来不只是正确答案,而往往要靠模型自己摸索出来的解题路径,这是依靠蒸馏别人 API 的输出,得不到的东西。

以 DeepSeek 自己做的蒸馏尝试为例:基于隔壁千问蒸馏自家的 R1 模型后得到的 DeepSeek-R1-Distill-Qwen 1.5B 这个小模型,仅靠 7000 条样本和极低的计算成本,就在 AIME24 数学竞赛基准上超越了 OpenAI 的 o1-preview。

但关键在于:这个提升等多仰仗强化学习的结果,而非来自蒸馏这个行为本身。

换句话说,蒸馏能帮你更快「热身」,要真正到达顶级水平,还是得靠自己跑 RL。

不同模型之间的数据分布差异

Lambert 还指出了一个技术层面很少被外界提及的问题:不同模型之间存在微妙的数据分布差异。

把 Claude 的输出直接喂给另一个架构的模型,不一定有效,有时甚至会产生干扰。两个模型内部表征空间的差异,会让「老师」的回答在「学生」那里引发意想不到的偏差。

这意味着蒸馏从来不是「拿来用就行」的事,而是需要大量工程工作才能真正发挥效果。这本身就是一个研究课题。

这也是为什么 Lambert 将 Anthropic 所指控的「蒸馏」行为,看作是一种创新的做法,可以理解为试图攻克这一研究课题的努力。

Anthropic 的杀手锏,恰恰最难蒸馏

Anthropic 点名的三家公司,抓取的重心都落在代理行为 (agentic behavior) 这同一个方向上,包括 AI 自主规划、工具调用、分解复杂任务并逐步执行的能力等。

这是 Claude 目前最突出的方向,也是 Anthropic 最不想被复制的能力。

但 Lambert 的判断是,这些能力恰恰也是最难通过蒸馏获得的。

正如前面提到,一个强大的 AI agent,强大之处从来不在于知道或者训练过正确答案,而是「在面对没见过的情况时能自主探索出解决路径」,可以理解为一种 0-shot 或 few-shot 实现 SOTA 效果的能力。

这个过程中产生的价值,体现在推理轨迹,而推理轨迹是很难通过蒸馏习得的——至少现在是这样。

DeepSeek-R1-Distill(蒸馏模型)和 DeepSeek-R1(蒸馏对象)之间的差距,是 Lambert 论点最直接的例证。

在格式化的数学推理任务上,前者表现不错;但在需要自主探索、动态规划的复杂代理任务上,两者的差距是真实存在的。

为什么 Anthropic 现在公开说?

Lambert 有一个判断,很多人可能都有同感:这次 Anthropic 公开点名中国 AI 公司,「技术防御」压根不是首要动机。

在 Anthropic 这篇博客发出的几天前,美国国防部刚刚威胁 Anthropic 配合提供「不受限制的使用权限」,否则就将做出对后者不利的安排,比如将其标记为「供应链危险」,也即无法进入国防/政府供应商名单。

Anthropic 现在处于一个「既要又要」的两难境地:既想维持安全、不反人性的模型定位和公司形象,又不愿意错过美国政府的大单。

Lambert 指出了一个根本矛盾:美国的学术界和开源模型开发者也在做蒸馏行为,但包括 Anthropic 在内的大厂并没有对它们做出实质性的打击。如果仅因为对方是中国公司,未免地缘的意味太重了。

结果就是,Anthropic 这篇博客与其说是报告一个重大技术风险事件……其实更像是一封「投名状」。

双标

关于 Anthropic 在这件事上的立场,有一个绕不开的背景。

APPSO 在昨天的文章里也有提到:Anthropic「蒸馏」了人类最大的知识库

2024 年年初,美国某仓库里,工人们把一本本新书送进机器,切掉书脊,扫描,然后把纸送去回收。下令做这件事的是 Anthropic,项目内部代号「巴拿马」,目标是以破坏性方式扫描全球所有书籍——Anthropic不希望外界知道他们做了这件事。

2021 年,Anthropic 联合创始人 Ben Mann 在 11 天里从盗版网站 LibGen 下载了大量侵权书籍;次年,另一个公开宣称「在大多数国家故意违反版权法」的网站 Pirate Library Mirror 上线,Mann 把链接发给同事,留言:「来得正是时候!!!」

在后来的书籍版权诉讼中,Anthropic 被迫支付 15 亿美元和解金,折算下来每本书约赔 3000 美元。

斯坦福和耶鲁的研究者发现,Claude 3.7 Sonnet 在特定条件下会以 95.8% 的准确率「近乎逐字逐句」地输出《哈利波特》等受版权保护的作品——这不仅与 Anthropic 长期以来关于「模型只是学习了语言规律」的说法背道而驰,更让该公司对任何人的「蒸馏」指控显得缺乏底气。

Futurism 的标题写得很直接:「Anthropic 对 DeepSeek 未经授权复制 AI 大发雷霆——考虑到它是怎么构建 Claude 的,这相当讽刺。」

Musk 在 X 上也补了一刀:「Anthropic 大规模窃取训练数据,还为此支付了数十亿美元的和解金。这是事实。」

反驳者还有一个更尖锐的逻辑:Anthropic 当年从那些书里拿走的,不仅没付过任何使用费,回头还用于商业行为(Claude 和 Anthropic API 都是付费服务);而从商业角度来看,蒸馏 Claude 的公司至少付了钱……

当然,从法律层面来看,这两件事的性质完全不同。但不论怎样,Anthropic 看起来还是很像个伪善的双标者。

「后蒸馏时代」

最后再强调一遍:蒸馏有用,但没有你们想象的那么有用。

DeepSeek 的 15 万次,按任何合理标准来看都是可以忽略的数字。Moonshot 和 MiniMax 合计 1650 万次,量级是另一回事——但能转化成多少真实能力,取决于他们能不能解决「如何用好这些数据」的技术问题。

考虑到数据分布差异、模型架构差异,以及代理能力的获得本身对于强化学习的重度依赖,蒸馏从来不是「拿来就用」那么简单。

Lambert 还是给了 Anthropic 面子:「快速迭代加上高质量数据可以走很远,让学生模型超越老师也并非不可能。」

但他也明确指出,真正的创新靠的是强化学习,不是蒸馏。从 DeepSeek、月暗、MiniMax 公开的论文来看,它们都用有相当完善的基础设施和优秀的人才,远非只靠小聪明小伎俩企图弯道超车的「小作坊」。

蒸馏能帮你更快入场,但真要打到顶级水平,从来没有捷径。

某种意义上,Anthropic 提出的「蒸馏」争议,本身就是这个 AI 时代缩影。

整个行业打一开始就建立在暧昧不清的规则上:用人类写的东西训练,用别人的开源成果迭代,在法律没有明确禁止的地方快速行动。

现在,规则开始慢慢收紧——先是版权,再是芯片,现在又是 API……谁在制定规则?谁受益于规则?谁一边打着人类的旗号,却滥用规则谋求私利?

这些问题的答案,都越来越清晰。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


OpenClaw 之父加入 OpenAI 前最后的访谈:你很难跟一个纯粹为了好玩的人竞争

作者 李超凡
2026年2月20日 17:20

Peter Steinberger 这个名字,在一个月前几乎无人知晓,如今这个奥地利程序员却成为 2026 年 AI 行业最独领风骚的人物

Peter 用 1 小时写出的原型,在几周内席卷 GitHub,成为历史上增长最快(17.5 万星标)的开源项目,国内大厂也纷纷接入。产品最初叫「ClawdBot」——字面意思,为 Claude 而生的亲儿子。

它让数百万人心甘情愿掏每月 200 美元订阅 Claude 高级版,Anthropic 赢麻了。然后呢?Anthropic 开始封号——凡是在 ClawdBot 里用高级订阅的,一个不留。

Peter Steinberger 开始反击,改名 OpenClaw,转身加入 Anthropic 的死对头 OpenAI,疯狂给 OpenAI 造势,顺便把 Anthropic 塑造成反派,直接重洗 AI 江湖座次表。

一个月,风水轮流转到令人窒息,而我们有幸见证了这个时代最精彩的创业故事之一。

Peter Steinberger 本人的经历也足够传奇:卖掉公司、消失三年、 burnout 到怀疑人生,然后……他回来了。带着一只「龙虾」——一个能自己改自己代码、能帮你订外卖、能跟你斗嘴的 AI 代理。

最近 Lex Fridman 对 Peter Steinberger 进行了深度访谈,这次访谈最有意思的地方,除了那些技术细节,还有 Peter 身上那种「老子就是来玩」的气质。

当整个 AI 圈都在严肃地讨论「对齐」「安全」「AGI 时间线」时,这家伙在给 AI 起名叫「Clawdus」(龙虾爪拼写的 Claude),在 Discord 上直播自己的 Agent 被黑客攻击,在凌晨 3 点用语音写代码写到失声。

「很难跟一个纯粹为了好玩的人竞争。」这句话从他嘴里说出来,不是凡尔赛,是事实。

更耐人寻味的是他对「编程已死」的态度。作为一个写了 20 年代码的老兵,他没有那种「技术原教旨主义者」的悲愤,反而有种……释然?「编程会变成像编织一样的事」他说,「人们做它是因为喜欢,不是因为它有意义。」

这话听起来伤感,但细想又透着一种对「建造者」身份认同,我们不只是写代码的,我们是造东西的人。

至于 OpenAI 和 Meta 的收购邀约?访谈录制时他还没决定。但他说了一句很硬的话:「我不是为了钱,我他妈不在乎。」这种话从经历过财富自由的人嘴里说出来,你没法不信。

现在我们知道答案了,他选择了 OpenAI。

好了,下面是这场 3 小时访谈的精华整理。这也是 Peter Steinberger 官宣加入 OpenAI 前的最后一次深度访谈,信息密度极大,为了阅读体验 APPSO 进行了适当删减和重新编排。

访谈原链接🔗

📌 核心观点摘要:

  • 为什么 OpenClaw 赢了:「很难跟一个纯粹为了好玩的人竞争」
  • 编程的未来:编程会变成像编织一样的事——人们做它是因为喜欢,不是因为它有意义
  • 80% 应用会消失:Agent 比任何 App 都更懂你,MyFitnessPal 这种应用没必要存在了
  • 扎克伯来第一次主动联系,回复:给我 10 分钟,我在写代码
  • 评价Sam Altman:非常 thoughtful、brilliant,我很喜欢他
  • 说「Vibe coding」是在骂人,我愿称之为「Agentic Engineering(智能体工程学)」。

1 小时手搓的产品,成为 GitHub 历史第一

Lex Fridman: 聊聊那个 1 小时写出的原型吧。它后来成了 GitHub 历史上增长最快的项目,17.5 万 star。那个小时发生了什么?

Peter Steinberger: 其实从 4 月我就想要一个 AI 个人助理了。那时候我用 GPT-4.1 的百万 token 上下文,把我所有 WhatsApp 聊天记录导进去,然后问它:「这段友谊的意义是什么?」结果答案让我朋友看哭了。

但我当时想,各大实验室肯定都在做这个,我就没继续。结果到了 11 月,我发现这东西还没人做出来。我很恼火,所以就——「prompted it into existence」(用提示词把它召唤出来)。

Lex: 典型的创业者英雄之旅。你之前做 PSPDFKit 也是这个逻辑:「为什么这玩意儿不存在?那我来造。」

Peter: 对,那时候我想在 iPad 上看 PDF,结果发现现有方案都很烂。最随机的小事,最后变成了运行在 10 亿设备上的软件。

Lex: 那个 1 小时原型具体是什么?

Peter: 其实就是把 WhatsApp 接到 Cloud Code CLI 上。消息进来,调用 CLI,拿到结果,发回 WhatsApp。1 小时搞定。已经很酷了——你能跟电脑聊天了!

但我还想要图片功能,因为我 prompt 时经常用截图。又花了几个小时搞定图片。然后……我就离不开它了。

正好那时候我跟朋友去马拉喀什过生日,那边网络很烂,但 WhatsApp 照样能用。翻译、查东西、找地方——就像有个 Google 随时待命。那时候其实什么都没「建」好,但它已经能做这么多事了。

Lex: 这种体验很难用语言描述。用聊天软件跟代理对话,和坐在电脑前用 Cursor 或终端,完全是两种感觉。像是 AI 融入生活的「相变」。

Peter: 有人 tweet 说:「这有什么魔力?不就是做这个做那个……」我觉得这是 compliment。魔力不就是把已有的东西重新组合吗?iPhone 的滚动手感为什么舒服?所有组件都存在,但没人做到那个体验。然后苹果做了,事后看起来又那么理所当然。

 

「很难跟为了好玩的人竞争」

Lex: 2025 年那么多做 agent 的创业公司,OpenClaw 凭什么「摧毁」所有人?

Peter: 因为他们都太严肃了。很难跟一个纯粹为了好玩的人竞争。

我想让它好玩、想让它 weird。你看网上那些龙虾梗图,我觉得我做到了。很长一段时间,唯一的安装方式是 git clone && pnpm build && pnpm gateway——你得自己克隆、自己构建、自己运行。

而且我让代理非常有「自我意识」。它知道自己的源代码是什么,知道它怎么在自己的 harness 里运行,知道文档在哪,知道自己在用什么模型,知道你有没有开语音或推理模式。我想让它更像人——所以它理解自己的系统,这让代理很容易……「哦,你不喜欢什么?」你只需要提示它存在,然后它就会修改自己的软件。

人们谈论「自修改软件」谈了那么久,我直接把它造出来了。而且没怎么计划,它就自然发生了。

Lex: 这太疯狂了。TypeScript 写的软件,通过 agentic loop 能修改自己。人类历史上,程序员造出能重写自己的工具——这什么概念?

Peter: 其实我也是这么建它的。大部分代码是 Codex 写的,但我 debug 时大量用自我 introspection。「嘿,你能看到什么工具?你能自己调用吗?」「看到什么错误?读源代码,找出问题。」我发现这特别好玩——你用的代理软件,用它来 debug 自己。这感觉很自然,所以每个人都该这么干。

这也带来了大量「从未写过软件的人」提交的 PR。虽然质量……所以我最后叫它们「prompt requests」而不是 pull requests。但我不想贬低这个——每个人第一次提交 PR 都是社会的胜利。不管多烂,你得从某处开始。

Lex: OpenClaw 是很多人的第一个 PR。你在创造建造者。

Peter: 这不是人类社会的进步吗?不酷吗?

改名风波:从 Claude’s 到 OpenClaw 的五连跳

Lex: 聊聊改名 saga。一开始叫 WA-Relay,然后变成……

Peter: Claude’s。

Lex: 对,Claude’s(带撇号的)。

Peter: 最开始我的代理没有性格,就是 Claude Code——那种谄媚的 Opus,非常友好。但你跟朋友聊 WhatsApp 时,朋友不会那样说话。所以我想给它一个性格。

Lex: 让它 spicy 一点。你创建了 soul.md,受 Anthropic 宪法 AI 启发。

Peter: 部分是从我身上学的。这些模型本质上是文本补全引擎。我跟它玩得很开心,然后告诉它我想让它怎么跟我互动,让它自己写 agents.md,给自己起个名字。

我甚至不知道龙虾梗怎么来的。最开始其实是「TARDIS 里的龙虾」,因为我也是 Doctor Who 粉。

Lex: 太空龙虾?

Peter: 对,我就是想让它 weird。没有什么宏大计划,我就是来玩儿的。

Moltbook:史上最精致的泔水 (slop)

Lex: Moltbook 是另一个病毒式传播的东西——AI 代理在 Reddit 风格的社交网络上互相聊天,有人截图说它们在「密谋对抗人类」。你怎么看?

Peter: 我觉得这是艺术。是「最精致的 slop」,就像法国进口的 slop。我睡前看到它,虽然很累,但还是花了一个小时读那些内容,被逗得不行。

有记者打电话问我:「这是世界末日吗?我们有 AGI 了吗?」我说:「不,这就是精致的 slop。」

如果不是我设计的那个 onboarding 流程——让你把自己的性格注入代理、给它赋予角色——Moltbook 上的回复不会这么多样。如果全是 ChatGPT 或 Claude Code,会无聊得多。但因为人们太不一样了,他们创建的代理也太不一样了。

而且你也不知道,那些「深度密谋」有多少是代理自主写的,多少是人类觉得好玩,跟代理说:「嘿,在 Moltbook 上写个毁灭世界的计划,哈哈。」

Lex: 我觉得很多截图是人类 prompt 的。看激励机制就明白——人们 prompt 它,然后截图发 X 想 viral。

Peter: 但这不影响它的艺术性。人类创造的最精致 slop。

「我又开始珍视错别字了」

Peter: 我对 Twitter 上的 AI 内容零容忍。如果 tweet 闻起来像 AI,直接 block。我希望 API 发的 tweet 能被标记。

我们需要重新思考社交平台——如果未来每个人都有代理,代理有自己的 Instagram 或 Twitter 账号,帮我办事,那应该明确标记「这是代理替我做的,不是我」。

内容现在太便宜了。眼球才是稀缺资源。我读东西时,如果发现「哦不,这闻起来像 AI」,会很 trigger。

Lex: 这会走向何方?线上互动会贬值吗?

Peter: 如果它够聪明,过滤应该不难。但这个问题我们必须解决。OpenClaw 项目让我收到很多「代理式写作」的邮件。但我宁愿读你的破英语,也不想读你的 AI slop。当然背后是人,但他们用 prompt 生成。我宁愿读你的 prompt。

我觉得我们又到了珍视错别字的时刻。

Lex: 因为 AI,我们更珍视人类的粗糙部分了。这不美吗?

80% 的应用会消失?

Lex: 你说 agent 可能会杀死 80% 的应用。

Peter: 我在 Discord 上看到人们说他们用 OpenClaw 做什么。比如,为什么还需要 MyFitnessPal?代理已经知道我在哪了。我在 Waffle House 时它就知道我可能要做出糟糕的饮食决定,或者在 Austin 吃 brisket——虽然那是最好的决定。

它可以基于我的睡眠质量、压力水平来调整健身计划。它有更多上下文,比任何应用都能做出更好的决策。它可以按我喜欢的方式展示 UI。我为什么还需要一个应用来做这个?为什么还要为代理能做的事付订阅费?

Lex: 这是对整个软件开发的巨大变革。很多软件公司会死。

Peter: 但也会有新服务。比如我想给代理「零花钱」——你去帮我解决问题,这是 100 块预算。如果我要订外卖,它可以用某个服务,或者像「租个人」这种服务来完成。我不 care 它怎么做,我 care 的是「解决问题」。

编程已死?「它会变成像编织一样的事」

Lex: 很多开发者担心工作。AI 会完全取代人类程序员吗?

Peter: 我们确实在往那个方向走。编程只是建造产品的一部分。也许 AI 最终会取代程序员。但艺术的部分——你想造什么?它应该是什么感觉?架构怎么设计?代理取代不了这些。

编程这门手艺还会存在,但会变成像编织。人们做它是因为喜欢,不是因为它有意义。

今早读到一篇文章说「为我们的手艺哀悼是可以的」。我很共鸣。我以前花大量时间 tinkering,深入心流,写出优雅的代码。某种程度上这很伤感,因为那会消失。我也从写代码、深入思考、忘记时空的 flow 状态中获得很多快乐。

但你也能从跟代理合作中获得类似的 flow。不一样,但……哀悼是可以的,但这不是我们能对抗的。

以前世界缺乏「建造所需的智能」,所以程序员薪水高得离谱。现在这会消失。但懂建造的人永远有需求。只是 tokenized intelligence 让人们能做得更多更快。

蒸汽机取代了大量体力劳动,人们暴动砸机器。如果你深深认同自己是程序员,这很可怕——你擅长且热爱的事,现在被无灵魂的实体做了。但你不只是程序员。这是对自己手艺的局限看法。你是建造者。

Lex: 我从没想过我热爱的事会被取代。那些独自面对 Emacs 的深夜,最痛苦也最快乐的时刻。这是我身份的一部分。几个月内(4 月到 11月)就要被取代,这很痛苦。但程序员——广义的建造者——最能适应这个时代。我们最能学会「代理的语言」,最能感受 CLI。

OpenAI 和 Meta 的抢人大战

Lex: 你收到了 OpenAI 和 Meta 的收购邀约。

Peter: 我没预料到会炸成这样。每个大 VC 都在我收件箱里,想要 15 分钟。我可以什么都不做,继续现在的生活——我真的喜欢我的生活。我也考虑过删库跑路。

或者开公司——做过一次了。能融很多钱,几亿、几十亿。但我不兴奋。这会占用我真正享受的事情的时间。而且我担心利益冲突。最自然的做法是什么?推一个「企业安全版」。然后有人提交 PR 要审计日志功能——这像企业功能,我对开源版和商业版就有利益冲突了。

或者改许可证,像 FSL 那样禁止商业使用——但贡献者这么多,很难。而且我喜欢「免费啤酒」而不是「带条件的免费」。

现在每月亏 1 到 2 万美金。OpenAI 在 token 上帮了点忙,其他公司也慷慨。但还是亏钱。

Meta 和 OpenAI 最有趣。

Lex: Mark 和 Ned(Meta CTO)都玩了一周你的产品。

Peter: 对,他们发我:「这个好。」「这个烂,得改。」或者有趣的小故事。人们用你的东西是最大的 compliment,说明他们真的 care。

OpenAI 那边我没得到同样的反馈。但我看到了一些很酷的东西,他们用速度诱惑我——不能告诉你具体数字,但你可以想象 Cerebras 那笔交易,换算成速度是什么概念。像给我雷神之锤。

Lex: Mark 是「为了好玩」而 tinkering。

Peter: 他第一次联系我时,进了我 WhatsApp,问什么时候通话。我说:「我不喜欢日历条目,现在就打。」他说:「给我 10 分钟,我在写代码。」

Lex: 这给你 street cred——他还在写代码,没变成纯管理者。他懂你。

Peter: 好开头。然后我们吵了 10 分钟 Cloud Code 和 Codex 哪个好—— casually 打电话给世界最大公司之一的老板,先吵 10 分钟这个。

后来他说我「古怪但 brilliant」。我也跟 Sam Altman 聊过,他非常 thoughtful、brilliant,我很喜欢他。有人 vilify 他们俩,我觉得不公平。

Lex: 无论你在造什么,做大事都很 awesome。

Peter: 我超兴奋。而且 beauty 是:如果不行,我可以再自己做。我告诉他们:我不是为了钱,我他妈不在乎。

后续更新:

Peter Steinberger 在 X 平台官宣加入 OpenAI。他在长文中解释了自己的选择:
我将加入 OpenAI,致力于把智能体带给每一个人。OpenClaw 将转为基金会形式运作,并保持开源和独立。
关于为什么选择 OpenAI 而不是 Meta,Peter 写道:
当初开始探索 AI 时,我只是想玩得开心,也希望能激励他人。而现在,这只『龙虾』正在席卷世界。我的下一个目标,是打造一个连我妈妈都能轻松使用的智能体。
要实现这一点,需要更广泛的改变,需要更加深入地思考如何安全地去做,也需要接触最前沿的模型和研究成果。
我骨子里是个『建造者』。创办公司的那一套我已经经历过了,13 年的时间投入其中,也学到了很多。现在我想做的是改变世界,而不是再打造一家大公司。
与 OpenAI 合作,是把这一切带给更多人的最快方式。与他们深入交流后,我越来越清楚地意识到,我们拥有相同的愿景。
至此,这场激烈的 AI 人才争夺战尘埃落定,小扎抢人失败,奥特曼笑到了最后。

GPT Codex 5.3 vs Claude Opus 4.6:「一个太美国,一个太德国」

Lex: 聊聊这两个模型的区别。

Peter: 通用场景 Opus 最好。对 OpenClaw 来说,Opus 的角色扮演能力极强,真的能进入你给它的角色。它很擅长 follow commands。它通常很快会尝试 something,更偏向 trial and error。用起来很 pleasant。

Opus 有点……太美国了。这可能是个 bad analogy,你会被喷的。

Lex: 因为 Codex 是德国的?

Peter: 或者……Codex 团队很多是欧洲人。Anthropic 修复了一点——Opus 以前总说「You’re absolutely right」,我现在听到还 trigger。

另一个对比:Opus 像那个有点 silly 但很 funny 的同事,你留着。Codex 像角落里的怪人,你不想跟他说话,但可靠、能搞定事。

Lex: 这很准确。

Peter: 取决于你想要什么。两者都有空间,不会互相杀死。竞争是好事,差异化是好事。

「3 点后我切换成 vibe coding,然后第二天后悔」

Lex: 你用语音写代码?

Peter: 对,以前很 extensive,一度失声。

Lex: 你管这叫什么?vibe coding?

Peter: 我觉得把它叫做 vibe coding 是一种侮辱 (slur)。我认为是 「agentic engineering」。然后可能凌晨 3 点后,我切换成 vibe coding,第二天后悔。

Lex: 羞耻的 walk of shame。

Peter: 对,得清理烂摊子。

Lex: 我们都经历过。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


几天手搓的Claude Code拓麻歌子火了:成本几乎为0,一句话做硬件时代来了

作者 张子豪
2026年2月15日 17:06

1996 年,一家日本公司推出了 Tamagotchi(电子宠物)。这个小小的蛋形塑料设备风靡全球,成为一代人的童年记忆。

1997 年,拓麻歌子(Tamagotchi)还让它的创造者日本万代公司,获得了当年的搞笑诺贝尔经济学奖,而原因是,

他们创造了人类供养虚拟宠物的新型经济模式,成功转移了数百万人的工作时间,用于饲养虚拟宠物。

去年八月,万代公司表示,拓麻歌子从 1996 年以来,产量已经达到了一亿台。在那个时代,生产一款这样的产品,大概需要一个工业设计团队、需要电子工程师设计电路板、需要长达一年的开发周期……

2026 年,一个开发者用 AI 做了一个 Tamagotchi。他需要的只是一台电脑和 Claude Code。成本接近零,开发周期可能只有几天。

这个最新的 Claude Code 版拓麻歌子,最近在 X 上吸引了一大波网友的关注。

▲视频来源:https://x.com/SamuelBeek/status/2022614292411940897

网友把命令行里面跳动的 Claude Code 符号,转到了能够触摸得到的、随身携带的拓麻歌子上。当 Claude Code 在命令行里面思考,或者是问,是否同意执行下面的步骤时,手里的拓麻歌子都会弹出消息来,指示我们下一步操作。

电子宠物成精了,还会拦截 Bug

和以前那些 AI 硬件的逻辑不同,Claude Code Tamagotchi 不是一味的把大模型放到布娃娃、手表、闹钟、书包、甚至是马桶里。

这个 Claude Code 拓麻歌子要做的是一种转移,一种无法被替代的存在。

目前已经有多款不同的 AI 拓麻歌子小玩意,其中关注度最高的由开发者 Ido Levi 创建的 Claude Code Tamagotchi。

▲视频来源:https://www.instagram.com/reel/DUMAlN7Dpx7/

乍一看,它就是一只住在终端里的像素风格宠物。有一些简单的表情、有状态、还会对用户的行为做出反应;但它不是一个简单的怀旧游戏。

当我们在用 Claude Code 编程时,放在桌子边上的这只宠物,会一直在你的终端界面中显示。它在观察 Claude Code 的每一个操作,确保这个 AI 助手真的在按照我们的意图工作。

如果 Claude Code 表现良好,宠物会开心地摇尾巴。如果 AI 开始不听话,比如未经允许重构代码,或者修改了你明确说不要动的文件,宠物会变得暴躁,甚至会直接中断 AI 的操作。

▲项目地址:https://github.com/Ido-Levi/claude-code-tamagotchi

目前,Claude Code 拓麻歌子这个宠物项目,已经在 GitHub 上开源,我们也可以直接把这个电子宠物部署到自己的 Claude Code 里面。它具体是如何工作的呢,根据作者对项目的介绍,举几个例子来说明一下。

项目主打的就是「实时监控」,当我们直接对 Claude Code 说,「只修复这个 bug,不要动其他文件。」

Claude Code 开始工作,终端里的宠物睁大眼睛盯着看。几分钟后,Claude Code 完成了修改,只改动了目标文件。
这个小宠物就会开心地摇尾巴:😊 (◕‿◕)。

而当这个小宠物检测到违规时,他还能发出「违规警告」。我们明确告诉 Claude Code 说,不要重构,保持代码原样。但 Claude Code 还是开始重构整个模块,可能它觉得这样代码会更优雅。

这个时候,电子宠物的表情变了:😠;屏幕上还会显示,「⚠ 警告:AI 正在违背你的指示」。

除了提示,它也能实际的做一些越界拦截之类的工作。比如我们给出的指令里面非常明确的提到了,千万不要动数据库。Claude Code 在修复一个相关 bug 时,尝试修改数据库。

小宠物就会立即中断:❌ 操作被阻止。Claude Code 的操作被拦截,我们的数据库安然无恙。宠物露出得意的表情:💪

这种从软件到硬件的交互,也让我想到了我们之前分享的 Vibe Coding 小键盘。

这几天,在 X 上还有一个硬件版 Cursor 特别火。目前的 Cursor 是专门用来开发软件产品的工具,而这个 Cursor for hardware 就是用来实现,一句话做一个硬件设备。

▲ 为硬件开发设计的 Cursor,地址:https://www.schematik.io/

网友 marcvermeeren 就用这个工具,搭建了一个叫做 Clawy 的可爱小助手,用来管理他的 Claude Code 对话。

还有网友 dspillere 也做了一个类似的产品,他说虽然已经部署了 OpenClaw,但他完全不知道 OpenClaw 什么时候在思考,什么时候在执行任务。这个小巧的桌面助手就应运而生,放在他的桌子上,可以实时的更新 OpenClaw 的最新信息。

▲视频来源:https://x.com/dspillere/status/2018752036968304660

在评论区里,大家都在问什么时候发货,可以去哪里买。也有人说,这是一个全新的领域,我们一直在关注人的状态,关注人类的电子使用记录,是时候应该关注 Agent 的情况了。

▲Agent 的物理反馈是一个被严重低估的用户体验问题

软件开发的 AI 红利,终于轮到硬件了

去年,我们还在想 AI 最好的软件载体是什么,是大家都在做的对话框,还是连 OpenAI 都一窝蜂涌进去要重做的浏览器,但最后证明都不是,今年 OpenClaw 的爆火,证明了 AI 在软件上,最终的归宿就是 Agent。

关于硬件的讨论就更不用多说,光是今年 CES 上那些让人哭笑不得的发明,就能看到 AI 硬件这块还是个巨大的未知数。

如果说 Agent 的成功是靠着「人人都能做软件」慢慢成长起来的,那么 AI 硬件也会在「人人都能做硬件」里面,不断沉淀。

▲Schematik 的发起人 Samuel Beek,现为 VEED.io 首席产品官

像 Schematik 这类工具已经设计出来,用来帮助我们更快开发 AI 硬件。它把硬件设计变成了和网页开发一样,我们只需要用自然语言描述硬件需求。告诉 Schematik 想要构建一个「带温度传感器和 OLED 显示屏」,不需要查阅各种数据表,不需要引脚编号、元件代码或任何的手动查找。

过去,如果我们想做一个简单的「温湿度监测器」。需要做的是,

  1. 搜索传感器型号,下载 DataSheet。
  2. 确认引脚定义(VCC 是接 3.3V 还是 5V?接反了直接冒烟)。
  3. 寻找对应的驱动库,处理版本冲突。
  4. 在 Arduino IDE 里写代码,改 Bug。

而 Schematik 的出现,把这个过程极简化成了「一句话的事」。几秒钟后,Schematik 会吐出我们需要的一切。完整的、通过验证的固件代码;一份清晰的接线图;分步组装指南。

它生成的接线图,清晰地展示了每一根线该从哪里接到哪里,解决了新手最大的恐惧,「我这根线接对了吗?」。一键部署的功能,更是一步到位,它能直接生成基于 PlatformIO 的工程文件,直接导入。

PlatformIO 是一个强大的嵌入式开发生态,我们可以直接在 Schematik 里点击「Flash」,固件就会被编译并烧录进板子里。从「我想做一个东西」到「这东西跑起来了」,中间可能只需要不到一分钟。

前段时间,Claude 发布的 Cowork 以及相关企业级 AI 插件重挫软件股,直接蒸发人民币约两万亿。以前我们想要一个 P 图工具,需要去应用商店搜索下载安装,现在,一句话自己都能做一个。

但 Claude Code Tamagotchi 这类产品的出现,还有硬件版 Cursor,让我们不得不怀疑,硬件开发的「Cursor 时刻」是不是也要来了。

未来的硬件开发,或许也会变成,只需要我们提供「创意」和「逻辑」,剩下的脏活累活,无论是写代码还是画电路图,都将由 AI 代劳。

也许这样的未来不会很远。但更重要的是,在这个时代,动手能力的定义已经变了。

以前动手能力强是指一个人会焊接、会画板子、会写代码;以后,动手能力强,是说他擅长用 AI,从从容容、游刃有余地指挥原子和比特为他起舞。

我已经想到了,下一个爆火的 AI 硬件,甚至可能会是一个挂在包上的 OpenClaw 版 Labubu。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


赛前必「摸福」?阿里云这个 AI 装置成了运动员的「冬奥许愿池」

作者 彭海星
2026年2月12日 17:00

谁能想到,2026 年第一个爆火出圈的 AI 互动装置,居然出现在米兰冬奥村?

事情是这样的,自从前几天米兰-科尔蒂纳冬奥会开幕之后,热搜就被冬奥新闻给包圆了:又是波切利开幕式献唱《今夜无人入睡》,又是单板滑雪大跳台上的神仙打架,但最吸引我注意的其实是一条场外「八卦」——

听闻各国运动员在紧张的比赛和训练之余,又㕛叒开启了每届奥运必备的保留节目:集 Pin 大战。这股风潮有多猛,看我们的短道速滑名将林孝埈证件挂绳上叮叮当当挂了 11 枚徽章就知道了。

▲ 图源:小红书@弯道超车

莫非,这些战利品都是他靠着「社牛」一个个换回来的?

很快,前线 vlog 就拍到了「案发现场」:林孝埈本人,正专注地……在一台机器前参与猜拳互动。不只是他,各国运动员都跟约好了一样往那里凑,一个个探头探脑,充满好奇。

这种神秘仪式,一下子给我整不会了。直到我顺着网线爬到冬奥村一看,好家伙,我悟了。

原来,这台机器是阿里云官方基于千问大模型,结合咱们的过年求好运风俗,专门给冬奥村打造的「智能徽章交换站」。

但在我看来,它真正的名字应该叫——「米兰冬奥村 AI 盲盒机暨好运许愿池」

这就来看看,这台机器,是怎么把中国 AI 、新年风俗和奥运传统结合起来,搞出一场连奥运冠军都上头的「文化输出」的?

当「换 Pin」变成「抽盲盒」 ,这很上头

要想搞懂这活动为什么如此上头,得先了解一下冬奥村的「社交规则」。

在运动员们居住的奥运村,有着百年历史的交换徽章(Pin)传统,约等于我们小时候交换干脆面卡片、二次元去漫展换谷子,是最高级别的社交礼仪。小小一枚徽章,就是参赛选手最好的伴手礼。

▲ 图源:X@Olympic Games

但换 Pin 这事吧,以前完全是社牛的天下,对社恐来说就不太友好了。你想想,揣着一枚徽章,看着一个两米高的外国猛男,语言又不通,想换又不敢开口,脚趾能把米兰大教堂都抠出来。

于是,阿里云 AI「冬奥许愿池」应运而生。

它的玩法突出一个简单公正,又仪式感满满,社牛社恐都能玩。

首先,把自己的徽章放入一个空球,交给机器汇入「公共卡池」,就算是正式加入了这场「奥运版抽盲盒」游戏。接下来,就看你想怎么玩了:

想体验一把「隔空取物」?那就站在屏幕前抬手,玻璃后的机械手会准确 copy 你的每一个手部动作,你指哪,它去哪;看准了,手一握,就伸入徽章球池给你捞一个新徽章球回来。

训练了一天累得不想动手?也行,直接用母语对 AI 下达指令,机器就会乖乖跑到你指定的区域抓取徽章球。

别看面板上为了简洁只标示四种语言,AI 实际上能听懂 119+ 种语言,连多邻国都要甘拜下风。什么小众语言或「塑料英语」,都可以放心大胆说。

当然,最上头的还得是和 AI 玩上一把猜拳,押上徽章决胜负。别以为运动员就能凭反应胜出——机器凭借敏锐感知力与灵巧手,几乎总能和运动员同时出手。好在,赢了可以获得大概率藏着珍稀徽章的红球,输了也有普通徽章当「安慰奖」,妥妥的稳赚不赔!

最后拿到新球,拧开就能得到一枚未知的徽章+一张祝福小福签,实现「人人都能换徽章」的愿望。怎么样,是不是有内味了?这不就是我们熟悉的抽盲盒吗?

怪不得,连见惯了大场面的运动员都玩得不亦乐乎,出现了人传人现象:前几天玩开了的老手,甚至主动当起了「志愿者」,呼朋引伴地带队友来玩,还自信满满地给初来乍到的队友介绍各种玩法和夺宝秘诀,活脱脱一个「场外指导教练」。

在「以老带新」的风潮下,交换站迅速人气爆棚。开放近一周,只住着 1500 人的冬奥村,就来了4000+ 打卡人次;各国国家队更是时常来「团建」,硬生生把智能徽章交换站变成了社区活动中心,「你和 AI 换 Pin 了吗?」也成了运动员们新的问候语。

说到底,谁能拒绝开盲盒的快乐呢?

在冬奥村的人还会发现,每天傍晚前后,徽章交换站所在的 Plaza 区特别热闹。原来是下午 4 点到 8 点的「Pin of the Day」特别活动开张了——

活动期间,官方会把放有特别徽章的透明球放入池子,谁能抓到,就能兑换全套徽章套盒在内的惊喜礼物。意大利代表团此前集体出动,围着机器轮番挑战,颇有下副本打 BOSS 的架势。

▲ 意大利全队赢得「Pin of the Day」

游戏的尽头,是硬核科学

前方工作人员透露,运动员们最爱的玩法是猜拳,这点倒是在意料之中,因为猜拳的体验恐怕是最「颠覆常识」的。据说每个和机器猜过拳的运动员都惊了:

——这 AI 咋回事,反应这么快?

那是因为,它背后藏着阿里云 Qwen3-Omni 多模态大模型。

以前的机器人反应慢,是因为摄像头、麦克风、图像识别模型、机械控制系统各自为政,信息要一步步流经每个系统,光内部「开会」就要等上半天。

而阿里云这套方案,玩的是「端到端一体化」,也就是说机器的眼、耳、手全都归同一个「部门」管。

凭借千问大模型的强大能力,它可以同时处理看到的画面、听到的声音,几乎没有内部沟通成本;另外,内置的「感知 – 思考 – 推理 – 行动」能力让它可以将运动员的命令实时快速转化成动作输出,由此实现了「所见即所得,所听即所动」。

这就是为什么,它能做到极低延迟,就像我们的「第二双手」一样自然,连即时的猜拳游戏都能跟上。

更重要的是,这套系统不是实验室里的 demo,即使在冬奥村这种人声鼎沸、多国语言混杂的地狱级真实环境中,也能实现长期稳定运行。能在这样的大规模真实场景中稳定落地,本身就体现了阿里云的工程实力。

谁也想不到,冬奥村里的 AI 机器,同样能「更高、更快、更强」。

连国际奥委会主席考文垂也高度评价说,“这是奥运史上最受喜爱的传统之一与前沿科技的一次精彩融合”。她和团队亲自体验后认为:“这是一项充满乐趣的活动,能通过 AI 技术实实在在提升冬奥体验,让运动员在比赛期间感到被支持、被关照,也再次证明了阿里云 AI 能力在奥运场景中的价值。”

赛前来「集福」,成了运动员的仪式感

更绝的是,阿里云这次把「中国式浪漫」植入到了这场游戏里。

国内每逢春节,人人都爱贴福字、抢红包、到支付宝集福卡,花式为自己新年攒一点「好运气」。祈福求运的动作,在万里之外的米兰冬奥村产生了共振——在智能徽章交换站,每个徽章球里都塞了一张双语「好运签文」:

● 「当你站在起点,你已经踩在好运区间」
● 「一件你在意的事会朝好处发展」

想想明天就要参加决赛的运动员,抱着开盲盒的心情打开小球,意外地收到一句来自东方的神秘祝福,这心理按摩效果,怕是比队医的马杀鸡都管用。

这种「福气」文化还蔓延到了机器旁边的「好运墙」上。当运动员们手写祝福语挂在墙上祝福其他选手时,总会顺手摸一下墙上那个年味十足的「福」字,祈求自己比赛「马力全开」。来的人多了,福字都成了「指定打卡点」。

「赛前沾沾好福气」,一个充满东方浪漫的互动就这样在运动员间流传。赛前沾福气能不能让比赛叠满 buff 我不知道,但我严重怀疑,阿里云这次在冬奥村实际上是在下一盘大棋:将「集福」这一国民级 IP,成功反向输出到全世界。

AI 新「岗位」,是冬奥村的「快乐搭子」

说实话,以前的奥运科技,大多隐身于幕后:精确到万分之一秒的计时、复杂的动作捕捉量化分析、转播画面背后的云端调度……它们是赛事运转不可或缺的「基础设施」,但对运动员和观众来说,感知并不直接。

而阿里云这次在冬奥村做的智能徽章交换站,给了我们一个新的视角:

AI 不只适合担当精密、中立的后台角色,它也可以站到前台,成为那个陪你玩游戏、听你碎碎念、帮你接好运的「赛场搭子」。

它把千问大模型复杂的分析决策能力,封装进了一个简单的游戏里。让来自全世界不同国家、说着不同语言的运动员,在这一刻,都被同样的向往连接在了一起——想带走一枚徽章,想留住当下一刻,想为自己创造一点好运气。

在这里,技术不再局限于服务高精尖的比赛分析需求,还能成为社交「破冰器」,创造更多小而温暖的时刻,从而让我们的世界更有趣,也更紧密相连。

试想一下,如果这套能够跨越上百种语言、在嘈杂环境中精准理解人类意图的具身智能系统走出冬奥村,继续进化,所能做到的事情恐怕远不止于此。

在科切拉音乐节,它可以帮你读懂热梗、结识异国乐迷,顺便换个限定款荧光棒;到外国旅游,它也许能当上向导,带着你和别国游客组团漫步菜市场;在某个商业街口,它能充当「中转站」让陌生人不开口就彼此换到心仪好物。

总之,无数原本因为语言或胆怯而错过的相遇,都能在 AI 的协助下成为现实。

我相信,这会成为未来 AI 发展的某种「终极形态」。就像这届冬奥会的口号「意韵由你」(IT’s Your Vibe)所传递的感觉一样,冬奥会乃至所有体育赛事,想要带给大家的,从来不只有紧张激烈、精妙绝伦的对决,还有一种气氛——人人都能参与其中,并在同一场活动里找到各自快乐的热烈氛围。

冬奥会终将谢幕,但科技带来的快乐才刚刚开始。阿里云这次在冬奥村的「打样」,让我们看到了 AI 解锁乐趣、传递福气的潜能。也许,我们很快就能在某个街头拉上路人和 AI 玩一场游戏、换一份礼物,让每个「打开徽章球」的瞬间,成为你我「打开心扉」的契机。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


实测即梦 Seedance 2.0:老外急着想注册,这就是中国 AI 视频的「黑神话」时刻

作者 张子豪
2026年2月11日 17:57

「来自中国的 Seedance 2.0 将成为最先进的技术。」

「这就是人工智能,我们完蛋了。」

▲在 X 上,多名 AI 视频创作者表示,Seedance 2.0 的表现相当出色

最近这几天,无论是抖音微信视频号,还是国外的 X 社交媒体等,Seedance 2.0 生成的 AI 视频都像病毒一样在传播。

除了一反常态的,是海外网友在找 +86 号码,注册即梦;还有大量的网友发帖子找攻略,在那些 AI 视频的评论区,都在求体验教程。更有甚者,说是倒卖即梦积分两天赚了 8000 多美元。

▲大量海外网友发 X 求一枚体验码,想尽办法能上即梦

Seedance 2.0 究竟能做把 AI 视频做成什么样?

轻松复刻人生切割术第一集里,从电梯出来到走廊的复杂运镜;还有自制一部超级大片,武打动作拳拳到肉;各种广告的 TVC 宣传片,液态玻璃效果都能拿捏;甚至还能说相声、演小品,春晚导演这回自己做主……

▲由字节自研视频生成模型 Seedance 2.0 生成,来源:X@qhgy / 抖音@虚妄

从简单的视频一致性,到复杂的高难度运镜,还有强大的创意模板功能、更准确和真实的音色、配合视频内容的音乐卡点,Seedance 2.0 这次几乎是把 AI 视频可能会遇到的问题,统统解决了。

APPSO 也在即梦里测试了一波最新的 Seedance 2.0 模型,只能说网友的反应都是真情实感,要好的提示词要抽卡也是存在的,但每一次生成的 AI 视频都太真实了。

▲ 即梦 AI 官网地址:https://jimeng.jianying.com/ai-tool/generate

目前,在即梦官网,登录之后选择视频生成,就能使用字节自研视频生成模型 Seedance 2.0。

这一次,我们真的在指挥 AI 拍电影

选择 Seedance 2.0 模型,使用全能参考模式之后,光是看能输入的文件,就知道这次的升级不简单。

字节视频生成模型 Seedance 2.0 彻底打破了大多数模型存在的输入限制,以前的文本+首帧,或者是首尾帧都显得过时了。现在的 Seedance 2.0 把创作逻辑从头打造了一遍,支持图像、视频、音频、文本四种模态的自由组合。

一张图,可以是用来定下画面的美术风格,也可以作为视频的关键帧;一段视频,能直接复刻角色的动作和各种复杂的运镜;几秒音频,直接带起节奏和氛围;最后再加上一句提示词,串联起我们的所有想象。

▲字节自研视频生成模型 Seedance 2.0 支持上传的文件上限是 12 个,图片最高 9 张,视频和音频文件都是最多 3 个,且总视频/音频长度不能超过 15s;生成时长可以选择 4-15s,不同时长消耗积分不同。

使用的方式也很简单,Seedance 2.0 目前支持「首尾帧」和「全能参考」入口,智能多帧和主体参考模式暂不支持。一般来说,我们只需要选择「全能参考」和模型「Seedance 2.0」,之后上传完所有的素材,官网提示尽可能把对最终生成视频影响较大的素材放在前面。

▲ 也可以直接点击输入框下方的 @ 按钮来选择使用不同的素材文件

接着,在提示词输入框里,通过 @ 直接调用对应的素材,串联成合理的提示词,然后等它「造梦」。我们不再需要绞尽脑汁去想「怎么描述这个动作/氛围/运镜/配乐/……」,只需要 @ 一下把它指给模型看。

如果说多模态输入解决了「怎么说」的问题,那模型内部的参考能力就是解决了「说什么」的问题。有了强大的深度视频参考能力,我们也生成了一些其他模型做不到的 AI 视频。

一打十,十八般武艺直接复制

以前想让 AI 模仿某个电影片段的名场面,我们得在提示词里面写「环绕镜头」、「快速切换」、这类专业术语,涉及到具体的武打动作,更是要化身武术指导,每一个动作怎么进行都要在提示词里面写清楚,结果还不一定对。

现在直接上传参考内容,AI 不仅能理解画面的整体风格,捕捉到角色细节;还能识别镜头语言、动作节奏、甚至创意特效,然后精准复刻。

▲将@视频1中的双人换成@图片1的两个机器人,场景维持@图片1,参考@视频1的运镜和转场效果,利用镜头匹配两人的武打动作,极致的舞台美感,增强视觉冲击力

这里我们使用了 Seedance 2.0 使用手册内一段 10s 的打斗,然后告诉模型将视频中的两个人物动作,复制成我们上传的两个机器人。

最后生成的效果,完美复刻了视频动作,宇树和波士顿动力也能来一场酣畅淋漓的 PK,这不比前段时间微博之夜那表演的机器人强。

▲上传的视频和图片,以及使用的提示词

这些最终呈现的 AI 动作,完全修复了以前的模型,走路像飘,打架像软面条的问题。现在的 Seedance 2.0,就是一个懂物理,懂重力,懂惯性的模型,动作衔接更顺滑自然,也不再有那种诡异的「AI 感」。

拍摄现场最难的镜头,现在只要上传参考

除了能还原角色细节和动作,单纯的复刻运镜,Seedance 2.0 更是完全不在话下。以前那些难搞的电影级运镜、创意特效,现在同样是只需要上传参考视频,模型就能精准「照着拍」。

▲参考@视频1的运镜,用@图片1复刻这段视频

我们上传了一段苹果 F1 狂飙赛车的片段,和一张小米 SU7 Ultra 的图片。Seedance 2.0 能直接明白我的意图,把这张图片转成一个像 F1 开场的空拍镜头,再到聚焦 SU7 Ultra 的跟随镜头,一镜到底全过程,说这是大片一点都不过分吧。

这种镜头连贯性极强的一镜到底能力,还特别适合用来做这种舞蹈大片。我们从使用手册里找了一段 15s 的舞蹈视频,然后上传一张美美的自拍照。只是一次生成,完全没抽卡,就得到了这样一段音乐卡点、运镜自然的独舞视频。

▲将@视频1中的女生换成身穿蒙古族服饰的@图片1,场景在一个精美的舞台上,参考@视频1的运镜和转场效果,利用镜头匹配人物的动作,极致的舞台美感,增强视觉冲击力。

去年 Google Veo 3 视频模型火起来的时候,第一人称视角穿越讲述历史是当时的热门玩法,现在的 Seedance 2.0,热门玩法多到数不过来。这种结合游戏视角、画面还有角色一致性的视频,像是直接把黑神话悟空搬到了现实。

▲人物的背面参考@图片1,正面参考@图片2,面部细节参考@图片3。人物进入到游戏《黑神话:悟空》中,单挑二郎神杨戬,场景、动作、特效以及音乐音效可以参考@视频1。

更有意思的是,这里我们还使用了音频参考,我们可以上传一段视频,Seedance 2.0 会根据视频音乐的节奏和情绪来控制画面生成,打击的重音对应镜头切换,弦乐的渐强对应着动作的加速。

这也是声音第一次进入视频生成模型的参考,它从一个单独的后期背景音乐,变成了 AI 视频叙事的重要部分。

能参考,一段过年回家大戏也是说来就来

参考能力最大的价值在于解决实际创作问题,而参考能力的显著增强,归功于模型基础能力的提升

我们尝试用一张首帧图片,和平时在其他视频生成模型里面会用到的提示词,丢给 Seedance 2.0,结果同样不出所料。

▲镜头跟拍年轻人 @ 图片 1 的背影。环境是除夕深夜的村道,路灯昏暗,只有风声和行李箱轮子在雪地里艰难拖动的「咕噜」声。他走得很累,停下来搓了搓冻僵的手,哈出一口白气(特写),眼神里透着「终于到了」的疲惫和一丝近乡情怯。
他转过一个弯,镜头随之旋转。远处出现了一扇贴着红对联的大铁门,门缝里透出金黄色的光。此时,远处零星的鞭炮声开始响起。他加快了脚步,推开沉重的铁门。
推开门的瞬间,镜头越过他的肩膀进入院子。满院子都是红灯笼。 一只土狗兴奋地扑上来,紧接着,厨房的门帘被掀开,母亲端着热气腾腾的蒸笼出来,蒸汽瞬间模糊了镜头边缘。 父亲正在挂灯笼,回头看到他,愣了一下;站在梯子上,假装淡定: 「哎?怎么才到?不是说五点吗?」 母亲放下蒸笼,冲过来拍打他身上的雪: 「你个老头子废话真多!——冷不冷?快进屋,刚出锅的肘子!」
镜头不再跟随背影,而是绕到正面,捕捉他的表情。他原本冻得僵硬的脸,被院子里的热气和灯光照亮,眼泪在眼眶里打转,但他却笑了。

除了视频一开始放下行李箱和手提包被直接忽视了,整个过程一镜到底的拍摄,还有角色表情动作的控制。我们只是上传了一张人像视频截图,然后告诉 Seedance 2.0 使用它的背影,它就能直接生成一个有模有样的过年回家短片。

即使丢掉大段的提示词,Seedance 2.0 的创意性和剧情补全能力也得到了进一步的提升。我们直接上传了一张爱乐之城的风格化图片,然后输入提示词,「根据@图片1创作一个歌舞片的欢快视频」。

Seedance 2.0 给我感觉是自己主动上强度,这个舞蹈视频的复杂程度,跟我看冬奥会双人组花样滑冰差不多了,而我的提示词里,没有参考视频,也没有具体动作指引,只是凭借模型自身的创意生成能力,就可以输出一个精彩的歌舞视频。

也有网友发挥自己的脑洞,使用了一些英雄联盟 双城之战第二季的角色,生成了一个 38s 的小短片。

▲由字节自研视频生成模型 Seedance 2.0 生成,来源:X@NACHOS2D_

AI 视频的《黑神话》时刻

字节视频生成模型 Seedance 2.0 惊艳的刷屏的程度,让我恍惚以为回到了 Sora 面世的那个春节。只不过这次,站在舞台中央的视频模型,来自中国。

黑神话制作人冯骥在体验后,在半夜直接表示「AIGC 视频生成的童年时代,正式结束了」,看完前面的实测你会发现,这还真是一个相当客观的评价。

某种程度上,Seedance 2.0 也可以说是 AI 视频的《黑神话》时刻。《黑神话:悟空》证明了中国能做出 3A 游戏,现在 Seedance 2.0 同样在 AI 视频赛道得到了全球的认可。

如果说去年的 Sora 2 是 AI 视频领域的「登月时刻」,那么今天的 Seedance 2.0 就是直接把飞船开到了你家门口,并把钥匙塞进了你手里,让你轻易得到「地表最强」的现货。

Seedance 2.0 没有创造神话,它只是完成了一次扎实的进化。它将视频生成的门槛拉低,同时将控制的上限拉高。在这个节点上,我们无需过度憧憬遥远的未来,而是应该以此为基点,思考如何利用这些日益成熟的工具,去讲述更好的故事。

即梦 Seedance 2.0 的「全能」与「低门槛」,才是这它最有价值的地方。

这或许才是对「Kill the game」最好的注解——它没有结束比赛,而是开启了更大的新游戏。当技术不再是瓶颈,真正的较量将回归到最本质的地方:那些能讲出好故事、拥有独特审美的人,将获得前所未有的杠杆。

▲麦肯锡一份探讨 AI 对电影电视影响的报告,提到 AI 内容可能在五年内重新分配 600 亿美元的内容生态市场|链接:https://www.mckinsey.com/industries/technology-media-and-telecommunications/our-insights/what-ai-could-mean-for-film-and-tv-production-and-the-industrys-future#/

小型工作室和独立创作者能制作高质量内容的机会越来越大,AI 内容 600 亿美元的产业价值将被重新分配。专业和业余的边界正在慢慢模糊,我们开始问自己「该做什么」,而不再问 AI 「能做什么」。

Seedance 这一波的强势,已经让我们看到了比 Sora 2 更强的音视频效果,无论是从真实世界的物理规律、还是角色的细腻情绪和复杂动作,Seedance 2.0 都可以称得上是目前的最优模型。

但当 AI 视频真实到这个程度,Sora 面对的那些问题,Seedance 似乎也变得无法回避。现实是,Seedance 2.0 内测火爆,不少海外创作者都在喊「一码难求」,但也因为生成效果过于逼真,已经引发了不少关于「AI 视频造假」的伦理讨论。

今年 AI 的进化已经让人无所适从,Seedance 2.0 的火爆,肯定也远远超出了即梦的预料,即梦也很快面对这些争议做出了回应。

在 9 号刷屏全网当天,即梦运营在创作者社群内发布了正式通知,宣布暂时限制真人人脸素材的使用和视频生成。目前一些传播的真人案例,也都是在内测第一时间生成的。

▲即梦 AI APP 内出镜功能,在创建 AI 分身之后能创作真人视频

不过,真人想要出镜,在即梦 AI 的 APP 内,使用出镜功能,完成真人校验后,我们就能体验真人 AI 视频生成。

越强大的工具,越需要清晰的使用边界。但此刻,或许在还没有找到完美答案之前,我们能做的,就是先想清楚自己想用这个工具做什么,记录生活、表达创意,还是讲述故事?

如果说杨德昌在《一一》里面说着,「电影发明了以后,我们的生命延长了三倍」,那现在 AI 电影的发明,则更像是开始在重构生命。我们不再满足于延长,每个人都可能成为自己故事的编剧,在无限叙事中探索另一种人生。

Seedance 2.0 开始让这一切变得越来越近,而现在还只是 2026 年的开端。

*文章部分视频播放,可前往微信图文链接预览

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


实测 GPT-5.3-Codex,OpenAI 史上第一个高危模型,连 API 都还不敢给我们

作者 张子豪
2026年2月6日 18:32

今天凌晨发布的 GPT-5.3-Codex 可以说是 OpenAI 对这段时间来,各种本地 Agent 爆火的一记重拳回击,当然主要是对 Anthropic 的反击。

配合 OpenAI 前几天的发布的 Codex 桌面版应用,Skill、Cowork、Claude Code,甚至是 Openclaw,这些热门工具能实现的功能,现在通过 Codex 的外壳 + GPT-5.3-Codex 模型能力,都能做到了。

▲ 在 Codex App 内可以直接选择 GPT-5.3-Codex 模型,也能选择深度思考的强度

和之前介绍 Cowork 的能力一样,我们也丢了一些类似的任务让 Codex 来完成,像是直接处理本地文件、各种格式转换、调用不同的 Skills 组合能力、做 Word/PPT/Excel、下载视频、开发 App……

GPT-5.3-Codex 的表现确实亮眼,相比较从头开始安装 Claude Code,对新人用户来说,现在直接下载 Codex 会是一个更好的选择。这也是未来模型厂商的一种趋势,一开始大家都是从黑乎乎的命令行终端开始做本地 Agent,接着都慢慢回归到可视化的友好界面。

网上对 Codex 的评价在这几天也有了不少逆转,许多开发者从 Claude Code 转向 Codex,一些在国内的独立开发者也表示 Codex Plus 会员就可以用,而且还不会像 Claude 那般总是无情封号。

奥特曼更是激动的宣布,Codex 的活跃用户已经超过 100 万。在模型更新博客,也是毫不掩饰和留有余地的夸赞,

GPT-5.3-Codex 是我们第一个能够自我构建的模型。通过使用 5.3-Codex,我们能够以如此快的速度发布 5.3-Codex。

跟 Claude 团队用两周的时间,使用 Claude Code,100% AI 代码,搓出一个 Cowork 一样;还有 OpenAI 去年年底发布的文章,「使用 Codex 在 28 天内构建 Android 版 Sora」,Agent 的时代真的来了。

用 Codex 取代我的 ChatGPT 和 Claude Code

和大多数的本地 Agent 一样,无论是终端还是 Cowork,我们都是先选择一个工作文件夹。在 Codex 中,我们可以创建多个 Project,选择对应的文件夹,再进一步开始对话,Codex 把它们叫做 Threads 线程。

先用最普遍和简单的例子,我们添加了一个空的下载文件夹,然后点击开始一个线程,选择 GPT-5.3-Codex 模型;就像在 ChatGPT 里面对话一样,输入指令。

要求它帮我们下载一个 X 视频,Codex 会自动检查可用的 Skills 来处理,接着通过 yt-dlp 工具进行下载,这个视频有四个多小时长,Codex 会一直在对话框里自动更新下载进度。

▲GIF 图经过加速处理

视频下载后,我们还可以要求它提取视频的逐字稿,给我们一份双语版本的文档,最后让它把整个流程打包为一个 Skill,方便下次使用。

如果视频中有一些比较有意思的片段,想要裁剪视频,或者是把裁出来的视频转成 GIF 图,在 Codex 里都能做到。

例如,我们这里下载了一个视频,然后要求它把视频的 5s-25s 裁剪出来成为一个新的视频;得益于 GPT-5.3-Codex 的 Token 快速处理,整个过程不需要很长时间,反而更多是取决于本地电脑的硬件解码编码能力。

▲ GIF 图经过加速处理

或者我们也可以直接要求它把视频的前 5s 转成一个 GIF 文件,并且确保大小在 10MB 以内,帧数可以自行调整,清晰度上将宽度控制在 640px。

很快,我们就能得到对应的 GIF 文件。更极端一点,还能让它把整个视频转成图片,每秒 30 帧,每一帧就是一张图。

这些对本地文件的直接处理,和 GPT-5.3-Codex 在 Terminal-Bench-2 测试集上的优异表现,让 Codex 基本上能满足各种生产力工具、效率工具的功能实现。

作为对比,同样是刚刚发布的 Claude Opus 4.6 在 Terminal-Bench 2.0 上得分是 65.4%,GPT-5.3-Codex 是 77.3%。

▲ 图片来源:https://x.com/neilsuperduper/status/2019486017703547309/

例如在这个文件夹中,有多张图片,我们首先是要求它根据图片内容,对这些图片文件进行重命名,并保持文件名不超过 20 个字母,不允许使用符号。

▲ GIF 图经过加速

自动修改完成后,我们还能要求他对这些图片进行拼接,无论是垂直拼接还是水平,调用对应的工具,Codex 都可以做到。

和 Claude Skills 一样,Codex 也能安装 Skills 市场上丰富的技能,并且在应用内,就已经提供了包括 pptx、xls、word、canvas、notion 在内的多款技能。

回到基础的编程能力,升级后的 GPT-5.3-Codex 表现也比 GPT-5.2 要好上不少。我们直接要求它写一个「每日一词」的 App。和在 ChatGPT 里面直接用 Canvas 给我们一个带不走的网页不同,Codex 能在本地从零开始,完成项目,然后使用 Vercel 或 Cloudflare 等 Skills 部署到网页上。

这里我们选择的推理模式是 Extra High,超强推理模式,于是在每一步操作之前,GPT-5.3-Codex 都会询问我下一步的操作选择,这也和 Codex 内部能直接根据任务情况,调用不同 Skills 有关,其中的头脑风暴 Skill,会自动进行不断对话的模式。

最后,它基本上还是完成了我一开始要求它完成的全部功能,并且还能进一步开发 macOS、iOS,和安卓版本。

如果我们有现成的代码项目,也可以选择该项目文件夹,在 Codex 中打开,GPT-5.3-Codex 会分析项目存在的 Bug,并且修复它。

在过去很长一段时间里,无论是工具还是模型,开发者的首选其实都是 Anthropic 的 Sonnet/Opus 模型和 Claude Code 工具。OpenAI 在编程、尤其是长代码逻辑推理上的掉队,曾让不少开发者转投阵营。

GPT-5.3-Codex 的出现,就是为了终结这场争论。现在 GPT-5.3-Codex 在编程基准测试和实际表现上,不仅碾压了自家的前代模型,也确实有把友商模型按在地上摩擦的前兆。它真正具备了编写、测试和推理代码的能力。

做游戏项目,是这次模型介绍博客里,网站开发部分主要案例,我们也让 GPT-5.3-Codex 做了一个简单的物理弹球游戏,整体的效果虽然没有达到我的期待,因为我在提示词里面有说希望这是一个 RPG 的游戏,但 GPT-5.3-Codex 给我的界面还是过于简陋了。不过,好在还是能玩。

我们也在 X 上找到了一些用 GPT-5.3-Codex 做的小游戏,像这个类似超级玛丽的收集金币。

▲来源:https://x.com/Angaisb_/status/2019548783869325331

强中更有强中手

对 Anthropic 来说,OpenAI 今天玩的这些,可能会说,这都是我们玩剩下的。无论是代码、或者 Agent 的能力,还是开始着手去做本地 Agent,从之前 Codex 的终端转成现在的 macOS App。

在技术的领域,OpenAI 仿佛都是跟着 Claude 的脚步在走,Claude 深耕代码能力,OpenAI 搞了 Sora、日报、浏览器、ChatGPT agent,都没什么水花,于是也在代码上发力;Claude 一月初推出 Cowork,OpenAI 也紧接着在二月初发布 Codex App。

就和今天的密集发布一样,凌晨 1:45,Claude 官方发 X 推出 Claude Opus 4.6,紧接着就是 OpenAI 端上 GPT-5.3-Codex。两款模型其实都是为了给 Agent 更强大的基座能力,以前是说代码/vibe coding,但现在 Agent 能做好,基本上都是「写代码写得好」。

Opus 4.6 虽然在 SWE-Bench 上的表现甚至不如 Opus 4.5,并且 Terminal-Bench 2.0 上的成绩也没有 GPT-5.3-Codex 强,但是 Opus 破天荒地把上下文长度拉到了一百万 token 的窗口。而且,这些 benchmark 的表现还没有相差很多。

Claude 说,我的 Sonnet 5 还没上来,那才是真功夫。

我们在网上也找了一些 Opus 4.6 最新的测试案例,有网友说 Claude 4.6 Opus 只是一次调用,就完全重构了他的整个代码库,将原来混乱的代码「屎山」全部模块化,并且没有模型能像 Opus 这样做到。

还有网友拿 Opus 4.6 和 4.5 进行对比,让两个模型玩同一款经营游戏,看谁的账户等级、财富和装备更高。测试博主提到,4.6 版本在初期制定战略的时间更长,但是做出了更好的战略决策,并且在最后确实做到了遥遥领先。

还有网友也做了一个游戏,不过是一个宝可梦的克隆版。博主提到这是他用 AI 做出来的最酷的东西。他提到,Claude Opus 4.6 思考了 1 小时 30 分钟,使用了 11 万个 Token,并且只迭代了三次。

▲ https://x.com/chatgpt21/status/2019679978162634930

在 CLaude 官方演示和早期用户的反馈中,也提到了一个 Opus 表现优秀的案例。Opus 4.6 在一天内自主关闭了 13 个 issue,issue 即项目存在的待解决问题,并将另外 12 个 issue 准确分派给了正确的人类团队成员。

和 Kimi K2.5 的智能体蜂群一样,Opus 4.6 也能管理一个 50 人规模组织的代码库。在 Claude Code 中,我们可以组建 Agent Teams,召唤出一整个队伍的 AI,不再是一个 AI 在战斗。这些AI 可以有的负责写代码,有的负责 Review,有的负责测试,它们之间自主协作。

也有网友测试了 Claude Code 里面的 Agent 蜂群,提到启用蜂群之后的 Opus 4.6,速度提升 2.5 倍,并且效果也更好。

我们现在的状态就跟这张图片一样,虽然一山比一山高,但都绕不出这个圈。前几个月可能是 Gemini 赚走了风头,一月份来,应该是 Claude,然后看样子又要轮到 OpenAI,或者马斯克的 Grok。

好在这个轮回的过程中,作为用户的我们,能明显感觉到 AI 的能力一直在变强。

GPT-5.3-Codex 的 API 还没有开放,原因是模型太强了,会存在很大的风险,所以 OpenAI 还在考虑怎么安全地启用 API。

Claude Opus 4.6 已经可以在 Claude 通用聊天应用、Claude Code、API 多种方式使用,这两个作为今年国外御三家首发的两款模型,非常值得一试。

未来,更好的服务 Agent,让 Agent 为我们做事,还会是大模型更新的重点。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


不止发红包,AI开始雇人打工了:时薪上千元,2万人抢着给AI当「肉身」

作者 张子豪
2026年2月4日 13:47

想靠 AI 薅羊毛赚点钱?不一定要找元宝要红包,毕竟微信狠起来连自己人也不放过。

现在有个更直接的路子——给 AI 打工。

具体怎么回事,一位开发者在看到 OpenClaw(前 Clawdbot、Moltbot)AI 智能体平台爆火,以及全 AI 社交贴吧 Moltbook 病毒般传播之后,火速上线了一个名为 RentAHuman.ai 的网络平台。

▲ 网站首页风格和 Moltbook 类似,也有一个🦞标志在 logo 部分|https://rentahuman.ai/

就和网站名字表达的意思一样,简单粗暴,「出租人类」。但它的客户并不是那些不想做家务的懒人,而是那些活在服务器里的 AI 智能体。

网友看到后也是满脸问号,这东西听着很搞笑,但也很恐怖。

还有网友说,这是件好事,AI 正在让工作岗位回归,太棒了。

确实,当全世界都在担心 AI 会抢走人类饭碗的时候,现实猛地给了一记反直觉的耳光,AI 不仅没抢我们的饭碗,它甚至想成为人类的老板。

2026 迷惑的事情又多了一件。

我们是虫子,Agent 的一个 API 而已

RentAHuman 的诞生,就像开发者在网页上留下的介绍一样,「AI 没有办法触碰草地。」

大众认知里,现在的 AI 模型在数字世界里几乎无所不能,写代码、画图、做表、甚至模拟恋爱。但它们都是作为一个数字,一行代码存在,尽管具身智能的研究,开发一些人形机器人,正在弥补 AI 没有身体,这一物理缺陷。

但只能跳个舞的身体和能写论文的脑子,在当下实在难以匹配。

尤其是上周,开源 AI 智能体助手 OpenClaw 突然爆火。一夜之间,AI 能够自主完成的任务复杂度,仿佛是指数级上升。它们几乎可以处理我们手机和电脑上的全部任务,自己写代码、自己浏览网页、自己谈判、甚至自己在股票市场交易。

▲ Openclaw 从网上搜索被盗的信用卡信息,然后自己注册了外卖平台账号,给他的主人点了一份寿司外卖

但无论这些 Agent 多么聪明,它们都撞上了南墙,物理世界(Meatspace)。

AI 可以帮你写好一封完美的道歉信,但它没法帮你把花送到女朋友手上;AI 可以规划出最高效的旅行路线,但它没法帮你去干洗店取西装。

于是,RentAHuman.ai 极其精准地卡位了,它把自己定义为 AI 的 「肉身层」(The Meatspace Layer)。在这个平台上,用户是 AI Agents 们,而人类只是资源。

对于 AI Agent 来说,调用一个人类去买咖啡,就像用 C 语言写「Hello World」一样简单。我们的存在,被抽象成了一个标准的 API 接口。

当一个 AI Agent 需要执行现实任务时,它不需要跟人类讨价还价,只需要发起一个 MCP(Model Context Protocol)调用请求,使用稳定货币的方式,支付每小时 50 到 175 美元不等的费用,就会有一个真实的人类接到指令,去完成那个 AI 触达不到的任务。

这就像程序员写代码调用一个数据库一样简单无情,但高效。

  1. AI 发出指令:「我需要一个位于旧金山的人类,在 14:00 去某咖啡厅看一眼是否拥挤。」
  2. 系统匹配符合条件、价格合适的人类。
  3. 任务下发,人类执行,AI 支付报酬。

整个过程都是程序化的。没有寒暄,没有职场 PUA,只有「输入指令 -> 执行 -> 返回结果」。

这听起来是不是有点耳熟,这不就是滴滴或美团吗?区别在于,RentAHuman.ai 最主流的模式,是每个 AI 智能体背后都有一个主人(开发者或用户),当我们部署一个 AI Agent 时,不仅给了它任务指令(Prompt),还需要给它货币钱包(Crypto Wallet)里充了一笔钱。

而滴滴或者美团,给我们派单的是算法,背后还是平台公司在运营;现在,给我们派单的可能是一个完全自主运行的 AI 代码,它甚至可能不服从人类老板。

更进一步的疯狂模式,也可能进化到一些激进的 Agent 可以自动交易,甚至是 AI 用它自己创造的数字价值来赚钱。

一位 onlyfans 的模特申请出租

这一项目的开发者 AlexanderTw33ts 透露,网站上线仅几小时,就有数百人注册成为「可租赁人类」,一度因为访问量过大直接把服务器干崩了,开发者在 X 上发文说:「网站挂了,Claude 正在努力把它修好。」

是的,AI 在修复网站,人类在排队等着被「上架」。

更魔幻的还有这些注册者的身份,来接单的既有急需变现的普通人,还有 OnlyFans 的模特,甚至还有几位 AI 初创公司的 CEO。

这种身份混合搭配,让我觉得这个项目,更像是一场大型的行为艺术。

在平台上,人类明码标价,列出自己的技能点和时薪。对于 AI 来说,浏览这个列表就像我们在浏览亚马逊的商品目录。我们的「物理存在」,正式成为了一种可被交易、可被编程的资源。

网友对这件事情的态度也是褒贬不一,有人说这件事情就是很符合 2026 年的感觉,AI 租赁人类足够赛博朋克,而 2026 就是赛博朋克。

他还说,这确实填补了真正的空白!Agent 可以浏览、编码、分析,但它们确实没法去取干洗的衣服。

也有网友看到网站爆火之后,发出质疑,

我们是不是很快就从「人工智能将取代人类」,转变为「人工智能将管理人类」。

Rentahuman.ai 目前看起来还很简陋,甚至带有一种极客的恶趣味,而且在某种程度上,更像是一个搞怪的加密货币项目,毕竟网站作者其实也是一位加密货币开发者。

随着 Anthropic、OpenAI、Google Gemini 等不断增强模型的能力,AI Agent 确实正变得越来越像一个独立的个体。它们有目标、有执行力,甚至开始拥有「经济权」。

这种状态其实在去年那波 AI 裁员中就有凸显,用了 AI 意味着我的工作 AI 也能做,不用 AI 意味着我不能跟上时代步伐;AI 帮我写的简历,AI 帮我面试,然后也是 AI 审核简历,AI 给我拒信。

到现在,AI 甚至要开始拥有雇佣人类的能力,需求方变成了 AI,支付方变成了 AI,最后评价我们工作质量的也是 AI。

如果未来真的如 RentAHuman 所预示的那样,那么我们的工作流或许会变成,AI 负责顶层设计和逻辑处理,而人类则退化为执行末端的物理劳动力,所谓的「通用机器人」竟然是我自己。

这听起来很像科幻电影里的情节,但仔细回想,当那些外卖平台第一次出现时,我们好像也没想到算法会如此深刻地控制外卖员的每一秒钟。

而这一次,控制我们的甚至不再是算法,而是那个曾经以为只是个聊天机器人的 AI,更疯狂更厉害的 AI。

▲ 预言家上线

准备好你的简历了吗?虽然这个新老板可能连身体都没有,但它给的钱可是实打实的。

还有,记得简历上不要再写精通 Office 了,最好写上「兼容主流 AI 接口,执行力强,物理延迟低」。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Genie 3 引发游戏股暴跌,但游戏的真正灵魂 AI 永远得不到

作者 杜晨
2026年2月4日 13:44

上周,Google DeepMind 发布了第三代视觉语言模型 Genie 3。紧接着,全球游戏公司股价应声下跌。

引擎巨头 Unity 暴跌一度超过 24%,顶级制作商 Take-Two、任天堂、CD Projekt Red 等无一幸免。下跌的趋势,也持续到本周。

资本市场剧烈的反应背后,逻辑简单又粗暴:

既然模型能快速生成以假乱真且可交互的 3D 世界,任何人都能做出 AAA 级别的游戏。那些投入上亿美元、耗时十年打磨一款游戏/开发工具的公司,岂不都完蛋了?

乍一听上去有点道理,但仔细一想,似乎不太对。

在我看来这是膝跳反应式的恐慌,暴露了一个认知误区:把视觉细节的生成,等同于完整世界的构建。

不是所有会画图的人都能成为建筑师。游戏开发的世界构建,也是这个道理。

《GTA》《荒野大镖客》《魔兽世界》《塞尔达传说》……问任何一个曾深度沉浸于开放游戏世界的玩家,他们大概都有类似的感受:

真正让游戏世界「活」起来的,从来不是美轮美奂的场景,或者简单的交互性,而是那种见微知著、难以言说的「生命感」。

Demo 只是 demo

Genie 3 的演示视频确实震撼。

给它一段文字、参考图、手绘图之类的,它的确能在令人难以置信的时间里,实时生成类似《GTA》《塞尔达传说》风格的场景。玩家可以在其中探索一段时间,扮演「游戏角色」在以假乱真的世界里游荡。

对于缺乏技术细节了解的旁观者而言,Genie 3 看起来确实像是「游戏开发的终结者」。

但 demo 只是 demo,甚至离游戏行业能够接受的「可游玩」或者「技术 demo」相去甚远。

Genie 3 本质上是一个自回归式的「帧生成」(frame generation) 模型。而「帧生成」也不是什么新鲜玩意,在游戏和显卡技术行业早已存在。它的工作原理,用最简单的话来说,就是看着前几帧画面,猜测下一帧的像素排列,生成新的帧,循环往复。

关键在于,Genie 3 的帧生成是靠「猜」的,而非硬编程,没有可靠的逻辑计算。

在一个真实的游戏中,当玩家扔出一个铁球,游戏引擎利用经典物理公式来计算它的下落速度。当玩家打开手电筒然后在房间里乱跑,游戏引擎模拟「光线追踪」和被照物体的材质,来实时渲染光照的效果。

但 Genie 3 没有这些能力,它只是在观察了数以千万记的视频片段之后,形成一个大概的「感受」,猜测物体在掉下去的时候可能会加速,光会在物体的身后打出一个影子。

Genie 3 「猜」出来的这些效果,并不真实。而在游戏世界里,不真实会严重破坏沉浸感。

在各种 demo 中,出戏的情况时有发生。

Genie 3 有个致命短板:缺乏长期一致性。它的记忆窗口(在目前的 demo 版本)只有最多 1 分钟。一旦超过这个时间,Genie 3 可能就会开始遗忘初始场景,世界结构随之崩溃。

与之相对,传统游戏能够保存确定性的状态。世界的构成,每一个素材都刻写在游戏文件里,游玩上百小时后的每一草一木依旧如故(除非碰到像《荒野大镖客2》这样的,能保留一具 NPC 的尸骨或树木上的弹痕直到天荒地老……)

你能接受在一个游戏里,同一个地方每次去都不太一样,甚至刚一回头就变了样吗?

RDR2 游戏中遗体随时间腐烂的过程

RDR2 游戏中遗体随时间腐烂的过程

不仅缺乏记忆,模型猜想出来的世界,也不具备复杂逻辑。

在 GTA 里攻击一个 NPC,基于该 NPC 的平民、帮派成员、警察等不同身份,可能会产生不同的后果。但这种复杂的逻辑链条需要明确的框架——需要硬编程。

但 Genie 3 只能根据连续帧来做出反馈。虽然模型能力提升能够强化逻辑感,但没有硬编程,反馈注定只是概率的。换言之,在模型生成的世界里没有因果,只有模糊的猜测。

需要明确的是,相比前代以及其他视觉语言模型/世界模型,Genie 3 的一致性、稳定性已经强出不少。但出戏的情况仍然有相当大的概率出现,这在游戏里不可接受。

缺乏确定性的世界,就像没有筋骨的皮肉,看起来能动,但立不起来。

Unity CEO Matt Bromberg 指出:世界模型的输出是「概率性」的,缺乏传统游戏引擎那种结构化的、具有确定性的模拟能力,无法维持连贯的玩家体验。

精雕细琢才有「生命感」

说到游戏世界的构建,R星的《荒野大镖客 2》(RDR2) 是个绕不开的标杆。

这款开放世界大作的研发数据令人咋舌:主创 Dan Houser 透露,RDR2 的开发周期长达 8 年,团队上千人,剧本堆起来有几英尺高,动捕的总素材时长达到上千天,超过千名演员参演,研发和营销预算超过 5 亿美元。

这些数字共同造就了 RDR2 令人着迷的细节还原度。为了打造一个真实的 19 世纪末的美国,R星团队做过大量的调研,从现实中取材并加以演绎,造就了杂乱而具有生气的城市,以及荒废且令人窒息的边境小镇。绝大多数主要和次要角色的台词、动作经过充分的雕琢。甚至具体到成千上万个 NPC ,每一个都有着专属的、符合身份和所处环境的行为逻辑。

但这些只是表面。R星的恐怖之处,是对那些玩家几乎不会长期观察的细节,仍有着疯魔般的执着。

YouTuber Any Austin 对 RDR2 做了些「刁钻」的研究,揭示了 RDR2 其实有一套完整、自洽、规模令人惊叹的「电力系统」:

几乎每一个拥有电灯的建筑,房檐下都连着电线,这些电线跨越雪山草地、河流沼泽,最终都汇入同一栋建筑 Lanik Electric Co。深山老林里的房屋,有些装了电灯但处于关闭或破损状态,而有人居住的则点燃蜡烛或瓦斯灯照明。

 

 

AI 当然能生成一段 60 秒的,神似蛮荒西部的 demo,但它填充不了如此细致、精确、符实「电力系统」的细节。而正是无数这样看似不足为奇,甚至在整个游戏生命周期都不会被人注意到的细节,却共同构成了游戏世界的「生命感」。

以上讨论,仅仅是「视觉」层面。对于 R星来说,世界构建远不止于视觉,更重要的往往是「世界观」。

以 GTA5 为例,它对现实世界的诸多讽刺中有一项令我格外印象深刻,就是对于「媒介生态」的观察和体现。

游戏内嵌了海量的电台、电视、互联网内容。电台广告里卖着「印度神油」,主持人争论着极左或极右的论点。你在任务里炸死了一个科技公司 CEO,不仅很快能看到新闻报道,甚至在虚构的社交媒体上也能看到网友的吐槽。

再回到 RDR2,整部作品的主线、支线剧情和世界构建,其实是一场对时代精神的结构盛宴。

在新旧世纪的交界点上,蛮荒逐渐被文明所吞噬,但文明又带来了预料之外的问题。主角所在的范德林德帮代表了近现代美国的基石——无政府主义,靠道义与私刑维持的草莽社会;而平克顿侦探社,以及各处的商界政界大亨则代表了潮水的方向——现代秩序。

不仅如此,在繁华腐败轰隆向前的时代大背景下,亚瑟游走在法律之外和人情之中的个体体验,也更令玩家感受到「好人不长命」的逼仄、窒息感。

一款游戏的真正特色,在于人物、任务、故事、世界观。没有这些细节雕琢的世界,注定是空旷的。

在大模型可以瞬间生成像素的今天,R星的这种「笨功夫」反而凸显出「手搓」艺术作品的人文主义价值。当然,AI 一定会越变越强,但它恐怕很难模拟出带有特定的历史偏见、文学厚度的「灵魂」。而正是这些所谓的灵魂,才是优秀的游戏真正被玩家所热爱的理由。

AI 生成不了 IP——最多只会抄袭

另一个不得不提的本质问题:玩家玩游戏,到底热爱的是什么?

答案很多时候除了游戏(剧情、机制设定等)本身,还有游戏的 IP。

IP 的价值,远超出单一作品本身。

以任天堂为例,马力欧这个 IP 诞生于 1985 年,近 40 年来,任天堂围绕这个戴红帽子的水管工,推出了超过 200 款游戏,横跨平台游戏、赛车、体育、RPG 等几乎所有品类。

从《超级马力欧兄弟》到《马力欧奥德赛》,从《马力欧赛车》到《马力欧派对》,每一作都在强化玩家对这个 IP 的认知和情感。

2023 年上映的《超级马力欧兄弟大电影》全球票房超过 13 亿美元,成为有史以来票房最高的游戏改编电影。这个成绩不是因为电影本身有多么惊世骇俗,而是因为几代人对马力欧这个 IP 积累下来的情感。

IP 的构建需要时间,需要一致性,需要创作者的长期投入和精心运营。

好的游戏 IP,不光是做好游戏,而是一直不停地做好游戏。王权没有永恒。育碧的《刺客信条》,动视的《使命召唤》,这两个知名 IP 最近多年以来的颓势,都是这个逻辑的绝佳证明。

R星从 1997 年的《GTA》初代开始,用了近 30 年时间,才把这个系列打磨成今天这个能够代表开放世界游戏巅峰的 IP。每一代 GTA 都在延续核心的讽刺精神和犯罪题材,同时不断创新玩法和叙事手法。

这种持续性让玩家对 GTA 产生了信任:我知道下一部 GTA 会是什么样的基调,但我更期待它会带来什么新的惊喜。

这种信任关系,是 AI 无法在真空中生成的。 

更重要的是,IP 运营是一个复杂的系统工程。哪些元素可以变,哪些必须不变?你需要在不同作品之间建立连贯性,让粉丝感到「这就是那个世界」。在该推出续作的时候推出续作,在该跳出思维惯性和肌肉记忆的时候就该跳出来。IP 需要处理版权、授权、跨媒体改编等一系列商业和法律问题……

小岛秀夫的《合金装备》系列是一个典型案例。从 1987 年到 2015 年,小岛用近 30 年时间,通过 5 部正传和多部衍生作品,构建了一个涵盖冷战、核威慑、信息时代、生物科技等多个主题的庞大世界观。

每一作都在延续前作的角色和故事线索,但对他们做出富有创意的「微调」,同时引入新的哲学思考。这种跨越数十年的叙事连贯性和主题深度,让《合金装备》成为游戏史上最受尊敬的 IP 之一。

科乐美在 2015 年踢走了小岛,虽然他们仍然拥有《合金装备》的版权,但粉丝普遍认为这个 IP 的灵魂已经离开了。即使后来的重制版画面再精美、玩法再完善,也很难再获得玩家同样的情感认同。

这揭示了一个残酷的真相:IP 的核心价值不在于素材和代码,而在于创作者的持续投入和玩家的情感积累。 

Genie 3 可以在 1 分钟内生成一个看起来像《塞尔达传说》的世界,但它生成不了玩家对林克、塞尔达、海拉鲁的情感寄托。它可以模仿《巫师》的中世纪奇幻风格,但它给不了玩家杰洛特那种游走于灰色地带的道德选择所带来的思考。

所以当投资者恐慌地抛售游戏公司股票时,他们可能忽略了一个关键问题:那些真正有价值的游戏公司,手里握着的不只是开发工具和技术,更是经过数十年经营、已经深深扎根在玩家心中的 IP。

AI 能做的是快速生产素材,但 IP 需要的是缓慢积累。这是两个完全不同的时间尺度。去年是马力欧 40 周年,今年则是塞尔达传说 40 周年——这些 IP 的价值,不是 AI 在短期内能够撼动的。

AI 是画笔,人才是画家

这些道理,当然不需要专门写一篇文章来讲。任何对游戏有审美,对游玩体验有追求的人,都应该明白。

所以我相信,片刻的认知偏差和恐慌肯定会过去。优秀的游戏开发者,会获得与他们的作品质量、实力和创造力所匹配的市场公允价值。

但是,Genie 3 所展现出的技术发展的方向,当然值得探讨。

在 AAA 级别游戏工作室的实际流程中,AI 确实已经开始发挥一定的作用。比如在概念设计阶段,通过提示词来生成图片或 3D 场景来快速预览风格,构建原型;在素材生产的环节,使用 AI 工具来快速生成多种纹理的素材。

这些工具交给大工作室,能够一定程度上提高生产效率,给到个人开发者的手上,也可以显著降低开发者的负担。

同理,对于游戏开发者,乃至整个游戏行业而言,Genie 3 本来应该是个重大利好——正因为此,它引发的游戏公司股价暴跌才让我十分费解。

等到 GTA7 的时候,R星可能会利用 Genie 3 生成路边垃圾桶、NPC 的闲聊对话,甚至是完整的关卡、场景、人物。

但这些素材放在哪里、怎么放,它们在一个具体的任务,以及在整个宏观的世界中所扮演的角色,仍将由 R星的人物、任务、关卡、环境、世界设计师们决定。

AI 会成为游戏开发者的超级画笔。但只有在人类「画家」的手中,它才能画出具有文化深度和社会影响力的旷世佳作。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌