普通视图

发现新文章,点击刷新页面。
昨天 — 2026年3月12日首页

云端养虾不花钱?阶跃 StepClaw 来真的

作者 杜晨
2026年3月12日 22:14

最近想必不少人都装上了「龙虾」,还没真的干什么活,先收到了一张账单。

金额从几十到几百不等,有人甚至看到四、五位数。

OpenClaw 是个 token 销金窟, 懂行的人多少都清楚。仅仅是将龙虾配置成自己需要的样子,都要消耗非常多 token,配置好了之后日常运转 + 对话,一天耗费量也不少——它在后台搜资料、写代码、调接口、生成文件,每一个动作都在烧。

账单是实时在跑的,只是很多人没意识到。

目前市场上一窝蜂出现的一键部署工具,有的会告诉你按量计费,没良心的先把你拉上车,想下车先交钱,管杀不管埋。

而今天,阶跃往前多走了一步。

APPSO 注意到,阶跃星辰「阶跃 AIAPP上线了 StepClaw

阶跃提供了 5 万个首批名额,全包式免费,先到先得。

这个免费是字面意义上的:5000 万模型 Tokens、云服务器费用、存储费用,全包,没有隐藏的按量扣费。

尽管天下没有一直免费的午餐,这个免费使用限时 1 个月,但阶跃给的 Token 额度,足够你配置好自己的龙虾,并摸索、使用很长一段时间了。除了 APP 端以外,StepClaw 明天还将在阶跃 AI 网页端上线,支持部署和使用。

StepClaw 怎么玩?

很简单,只需要去应用商城下载「阶跃 AI」就可以了。

下载登录后,你会在左下角发现一个「StepClaw」字样——这就是「阶跃龙虾」的入口。之后再进来跟龙虾聊天,点这里就好了。

初次配置的话,过程说是需要三分钟,APPSO 实测一分钟不到就搞完了。

根据阶跃官方介绍,StepClaw 的云电脑配置为双核 CPU、4GB 内存和 40GB 存储。作为 OpenClaw 的标准实例,该有的功能,例如复杂任务、长期记忆、全时在线等,全都有。

在这个页面你也会看到,阶跃会给首批用户赠送最多 5000 万 token 用于「阶跃龙虾」。

如果你之前从未使用过任何形式的 OpenClaw,或者想用阶跃 AI app 直接重新配置一个,那么就点击这个「一键配置使用」就好。

接下来看看能用「阶跃龙虾」做什么。

一个最经典的用法:每天早上给你出一份指定行业的早报,重点检测某几个网站。

只需要跟他说就行了。

在 APPSO 的测试中,经过大约两分钟左右,StepClaw 直接完成了第一个任务。

从返回的结果来看,它创建了一个脚本,使用 search 功能,并且调用系统事件来设置推送。对于定时功能,StepClaw 使用的也是 cron job 这一比较通用的逻辑。

这是 APPSO 本次部署后的第一次对话,由于 StepClaw 会在后台根据你的命令去确认必要的技能和工具,如果没有相应工具的话则会去自行寻找和安装——所以首次对话的反应比较慢,属于正常现象。

之后的话,StepClaw 会在云电脑上保存一份长期记忆,对于类似的任务,规划和执行速度都会变得更快。

作为一个标准化的 OpenClaw 实例,StepClaw 也是支持绝大多数 OpenClaw 能力的,包括和外部聊天机器人对接。

我起了一个 StepClaw 新号,告诉它我要对接飞书机器人(之前我并未配置过)。

这次它的反应速度倒是挺快,从头开始一步步教我,事无巨细倾囊相授……对于技术小白来说,还是很友好的。

这年头大家对龙虾应该已经不能更熟悉了,各有各的用法,多的我们就不赘述了。

目前 StepClaw 在阶跃 AI APP 端同时支持 iOS 和 Android 系统。5 万个免费名额,先到先得,发完即止。

虽然是免费的午餐,但只持续一个月。在这段时间里,云服务器、存储、5000 万模型 Tokens 相关成本全包。

至于什么时候、如何付费,目前还没有消息。所以大家可以趁此机会尝试一下,把 OpenClaw 调用榜单上登顶的大模型 Step 3.5 Flash,当成龙虾的「大脑」,究竟是一种怎样的感觉。

阶跃的龙虾棋谱

让我们回到刚才的开始配置界面,更有意思的还在下面:

在最底下,你还可以绑定已有的 OpenClaw,把你已经配置好的小龙虾带到阶跃上。

这么做有什么好处呢?APPSO 认为主要有两点:一是直接把阶跃 App 作为对话界面,方便手机操控,但又不用重新调教一遍龙虾;二是可以充分利用 Step 3.5 Flash,也就是阶跃目前最强的 Agent 基座模型。

和其它可用于小龙虾的模型相比,Step 3.5 Flash 有什么优势?一张图你就明白了。

这是 OpenRouter 上 OpenClaw 后端模型的使用量排名,在过去一个月时间里,Step 3.5 Flash 连续登顶小龙虾调用量日榜,同时也稳稳拿住月榜头把交椅:

在 OpenClaw 热火朝天的这两个月里,很多小白玩家最头疼的点,莫过于东西装好了,模型却选了个笨蛋。

模型这东西,大体上是便宜没好货。便宜的模型一般小,智力、规划、推理能力不行,没有面向 Agent 调用做过优化,用来当 OpenClaw 的脑子,经常会发生幻觉。

而 OpenClaw 的幻觉,跟一般大模型产品还不一样:

大模型最多给你吐出一些错乱的回答,可是一旦 OpenClaw 出现了幻觉,是真有可能错误地执行任务,甚至删掉重要文件的。

此时阶跃站出来了,送上免费的 Step 3.5 Flash 给普通用户和开发者使用。

能给出这个方案,阶跃下了一盘什么棋?

我们不妨复盘下 Kimi 最近的经历。

OpenClaw 爆火初期,「龙虾之父」Peter Steinberger 在采访中推荐了 MiniMax 的模型;但到了 2026 年 2 月,Kimi K2.5 因为便宜且 Agent 优化好,一度成为 OpenRouter 上 OpenClaw 调用量最高的模型。

OpenClaw 官方随即宣布 Kimi K2.5 为首个免费开放的主力模型,月之暗面同步为社区用户提供免费调用额度——两家联手,直接破圈了:

虽然 OpenClaw 免费,但收费的 K2.5 能力被整个商业世界看到。发布不到一个月,月之暗面宣称近 20 天的累计收入就超过了 2025 年全年总收入。海外收入首次超过国内,Kimi 月访问量达到 3300 万。

这说明一件事:在 OpenClaw 的生态里,谁的模型成为默认选择,谁就吃到最大的增长。

Step 3.5 Flash 是阶跃今年 2 月初发布的旗舰 Agent 基座模型,采用稀疏 MoE 架构,仅凭 11B 激活参数(总规模 196B MoE)便达到了顶尖级别的智能水平,最高推理速度达每秒 350 tokens,专门为 Agent 场景优化,在多个 Agent 基准测试上进了开源模型第一梯队。

Step 3.5 Flash上线两天,登上 OpenRouter Trending 第一,随后在 OpenClaw 调用量榜上一路爬升,目前在 OpenClaw 全球大模型调用量日榜和月榜上均排名第一。

用付费模型跑一个活跃 Agent,月成本很容易上到几百块。对养不起虾的用户来说,Step 3.5 Flash 本来就很经济了,现在又加上了 StepClaw 一键部署,更轻松了。

和其它更复杂的龙虾部署方案相比,APPSO 发现 StepClaw 的一键部署体验很「无感」,不需要写代码,让小白也可以拥有自己的 AI 助理。

大模型「小龙」,纷纷转型「龙虾剑客」

养虾热潮里,入局的公司多得数不清。腾讯、百度、阿里、字节,各自推出了云端部署方案;小米在做手机端的系统级龙虾,华为、荣耀也在跟进。一时间「龙虾家族」壮大到十几个分支,让人眼花缭乱。

但如果仔细看,这些产品其实分属两种不同的逻辑。

一种是提供安装辅助和通用界面,让用户可以自选模型供应商,通过 API Key 等方式去直接调用。

这种思路,基本上就是对 OpenClaw 进行「套壳」,是一种相对功能更强、定制性强,但对普通用户友好度稍差的思路。

另一种玩法,是原厂深度绑定:自家模型驱动自家 Claw 产品,从模型到部署一条龙,用户拿到手就是调好的。走这条路的:月之暗面的 KimiClaw,和 MiniMax 的 MaxClaw。

今天阶跃上线 StepClaw,终于凑齐了国产龙虾「三剑客」。

有意思的地方在于,这三家都是国产大模型创业公司,它们各自的大模型在这波 OpenClaw 热潮当中,被开发者们很快发现适配度很高,进而模型调用量爆发最猛。

原因并不复杂:OpenClaw 本身只是框架,驱动它的是大模型,谁的模型好用、便宜,开发者就选谁。

本质上,「套壳」行为,只是给用户提供个场地,部分套壳选手「项庄舞剑」很热闹,但其实意在沛公,想的是赚云服务的钱。

而原厂模型公司,手里握着聪明好用的「虾脑」——在此基础上开发个壳出来,只是工程上的小问题。

养虾这件事,门槛一直在降,从一两个小时的手动折腾部署,再到今天 StepClaw 的一键免费入口,操作层面已经压得很低了。

目前 OpenClaw 仍然处于一个热火朝天但争议不断的阶段,而且这个争议同时存在于技术、政策、社会层面。

但不论怎样,OpenClaw 仍然属于一个现象级的事件。在它的身上,一些人可能只看到了争议,而另一些人却看到了未来。

有趣的事情,甚至范式跃迁级别的事件,后面只会越来越多。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


昨天以前首页

看遍了所有的「AI PC」,原来 Mac 一直在这里|AI 器物志

作者 杜晨
2026年3月4日 21:43

年初,Mac Mini 一度缺货,等待时间甚至长达一个半月。

Mac mini 是个好产品,这件事大家一直很清楚。国内渠道价格诚意高,M 芯片性能又好,入门配置不到三千人民币就可拿下,很适合作为创作新手的主力机。

然而最近这次 Mac mini 爆红,跟创作或日常使用没什么关系。

关注科技新闻的朋友们应该知道怎么回事:OpenClaw(前身叫 Clawdbot)突然火了。

OpenClaw 有多种部署方式:你可以装到自己的电脑上,也可以单给它配一台电脑;把它部署在云端的虚拟机/沙箱环境里也没问题;后来,一些主流 AI 服务也推出了云端一键部署的替代方案,显著降低小白玩家的门槛。

但在刚开始的那段时间,最主流的部署方案就是单买一台 Mac mini。

理由肯定不是因为它便宜,更主要在于:要让 OpenClaw 有意义,需要给它一个「肉身」,让它访问文件、操作软件。

云服务器能运行 OpenClaw,但那仍然不是你的电脑,没有你的文件、软件、浏览器上登录的各种账号,没有所谓的「上下文」。Mac mini 放在桌上,7 × 24 小时不用关机,甚至通过聊天机器人远程操控的话都不用单配一台显示器。

给 OpenClaw 一台自己的电脑工作,唯一可观成本是后端接入的大模型 API 的 token 费用,很多早期玩家都在这上面吃过亏。但如果你买一台配置够高的 Mac mini,下载一个尺寸足够大的模型到本地来运行,可以说除了电费和网费之外,简直就像获得了一个免费的劳动力……

MacBook 也行,但是……

MacBook 也行,但是……

据 Tom’s Hardware 和 TechRadar 等媒体报道,OpenClaw 走红后,Mac mini 24GB 和 32GB 配置的等待期延至 6 天到 6 周不等;更强大的 Mac Studio,交货时间也从两周涨到了近两个月。

这些等待时间,是 OpenClaw 的早期玩家们,用真实购买投出来的票。

(注:部分机型的缺货也和苹果近期推出新款 Mac 台式机电脑有关系,以往每次推出临近新机发布时,老机型都会进入售罄状态。OpenClaw 的爆红并非唯一原因。)

冥冥之中,Mac 成为了 2026 年首选的「AI PC」;反倒是鼓吹了「AI PC」好几年的 Windows PC 行业,一点热乎的都没吃上。

英特尔、AMD、高通等芯片商,以及主流 PC 品牌们,从 2023 年就开始贩卖「AI PC」的概念了。这些最新的 Windows 电脑当中,认证过 Copilot+ PC 的比比皆是,GPU、NPU 性能并不差,有的整机价格比 Mac 对等产品要便宜的多。

但问题是,为什么大家还是一窝蜂地冲向 Mac?

为什么是 Mac?

Windows PC 和 Mac 谁更好的争论,永远没有绝对答案。但如果限定在 AI 开发上,Mac 成为了心照不宣的选择。

虽然大模型的「大脑」都在云端服务器,开发者的手却都在 Mac 上。这跟 Mac 电脑的外形和操作体验关系不大:macOS 流着 UNIX 的血液,才是关键。

AI Agent 的核心工作是操作文件、调用命令行工具、调度 API 甚至控制图形界面等。说的更直白一点,Agent 就是一个智能且自动化的「脚本工程师」,只是脚本由大语言模型实时生成。而 macOS 属于类 UNIX 系统,bash、zsh 命令原生支持优秀。

这解决了 AI 开发中最基础的环境搭建。在 Windows 上,你可能得先安装 WSL2 虚拟机。但在 Mac 上,从 Python 环境到复杂的 C++ 编译工具链,基本都是开箱即用。Homebrew 等包管理器,让安装各种工具和依赖通过一行命令就能搞定。

另外,macOS 符合 POSIX 标准,处理文件路径、多线程任务和网络协议时可靠性稍高。Agent 往往需要频繁读写数据、调用 API,系统级的高效调度让 agent 在 Mac 上的节奏更快。

这种原生感和稳定性,让开发者、尝鲜用户可以更快完成入门,把更多时间花在真正的 agent 编排工作上。

Windows 有 WSL、PowerShell,功能上大部分也都能覆盖。但 WSL 是叠加在 Windows 上的兼容层,存在路径约定、注册表机制、权限模型等历史遗留问题。AI 模型和 agent 项目在 Windows 上运行的摩擦,确实会更多一些。

以 Ollama 和 LM Studio 为例,这两个工具让端侧推理大模型变得像「下载、安装、运行」一样简单。Ollama 的 Windows 版比 macOS 晚了半年;LM Studio 虽然从一开始就支持两个平台,但在社区里 Mac 的体验口碑始终更好;OpenClaw 也是如此。

往硬件层面继续深入,内存是大语言模型推理运行的命脉。

还是以 OpenClaw 举例,用户可以通过 token 付费的方式来接入云端模型,但它更擅长的能力是在端侧模型推理驱动。经过普遍调研,想要让 OpenClaw 像个智商合格的人一样工作,后端的模型参数量的底线在 70 亿左右,往往要上到至少 320 亿参数量才能比较稳定地工作。

这么大的模型即便在 4-bit 量化之后,仍然需要大约 20GB 内存(还要留一些给上下文窗口)。

此时,Windows PC 的架构会显得捉襟见肘。CPU 内存和显存之间存在物理隔离,数据经由 PCIe 总线传输,受到带宽瓶颈的影响。频繁的数据搬运,会对推理过程带来速率的影响。

更别提,大模型普遍依赖 GPU 加速推理,显存得足够装得下模型。在英伟达消费级显卡线中,只有 90 后缀的 24GB 显存达到了配置要求,但配出整机(只考虑新机)的话合计成本至少在万元人民币以上,用新卡的话会飙到 4、5 万不等。

而苹果的统一内存架构 (Unified Memory Architecture) ,让 M 系芯片的 Mac 在端侧推理更大规模的模型时游刃有余。

简单来说,统一内存架构的效果,是 CPU、GPU、神经计算引擎能够共享同一个内存池,不再有物理总线搬运的损耗,让 Mac 可以获得极高的内存带宽,并且对于多机串联的扩展性能更好。

以 Mac mini 为例,选择性能更高的 M4 Pro 处理器,搭配 48GB 内存,其它选基础配置,整机价格在 1.3 万元上下,即可达到 OpenClaw 社区普遍推荐的 320 亿参数量模型的配置水平。

当然这还只是对 token 吞吐速度有要求的专业配置。如果你属于爱好者、尝鲜玩一下 OpenClaw,配置下降到常规 M4 芯片和 32GB 内存也是能跑起来的。

当然,这个成本对比还是有前提:专用于端侧推理/跑 OpenClaw,而不是当做主力机。同等价位的 Windows PC 还能打游戏、剪视频,通用性更强。

另外,Mac 的统一内存和 PC 平台独显的显存也不是一回事。统一内存由系统和模型共享,一台 32GB 内存的 Mac mini,macOS 系统和其他软件仍需占据几个 GB。而 RTX 3090 的显存独立,模型可以全部占用,甚至配合 CPU 内存跑更大的量化模型。

如果你只用云端 API 做 OpenClaw 的大脑,不考虑端侧部署,那 Mac 的易用性优势依然在。

另外,CUDA 虽然提供了统一内存编程接口,但物理上 CPU 内存和 GPU 显存依然分离,数据搬运和带宽瓶颈并未消除。

再来看功耗。

Agent 的工作方式是持续循环的:任务触发、思考推理、执行、等待、再触发。前述配置的 Windows PC 会跑到 300-400W 左右(本地部署),散热噪音和电费都不是小数目。

Mac mini 通常稳定功耗在 10-40W 左右,峰值功率 65W(M4)或 155W(M4 Pro),散热可控,几乎没有风扇噪音,运行更安静。这种低延迟、低功耗的持续工作方式,会产生潜移默化的体验差异。

网友 3D 打印的套件「Clawy MacOpenClawface」

网友 3D 打印的 Mac mini 外壳套件「Clawy MacOpenClawface」

当然我们更多还是围绕 OpenClaw 这个以推理为主的场景进行讨论。如果工作涉及本地微调,并且对于效率有追求的话,那么在 macOS 平台要往往要到 Mac Studio,或至少顶配的 MacBook Pro,才能算摸到门槛。

与此同时,Mac 不支持 CUDA 也是个可能永远都无法改变的事实。不过,CUDA 的真正战场是模型训练,推理场景对它的依赖小得多,毕竟苹果在推理上有 MLX 这张王牌(后面会详述)。

再回到 OpenClaw:它的创造者 Peter Steinberger 曾经公开表示,自己很喜欢 Windows,觉得它的功能更强。他在 Lex Fridman 播客中说,Mac mini 不是唯一的「肉身」选择,通过 WSL2 方式运行 OpenClaw 已经非常成熟了;他甚至公开吐槽苹果在 AI 领域「搞砸了」,并且对苹果生态的封闭性感到不满。

但客观来讲,对于技术小白型用户的部署门槛,Mac mini 确实是最省心、最容易上手的方案。主要原因就是它的功耗、静音、尺寸足够小,像是一个可以插在墙角、24 小时待机且不需要维护的「服务器节点」。

还有一个和功耗有关的例证:前几天有一位工程师 Manjeet Singh 成功实现了对 M4 处理器上「神经引擎」(Neural Engine,简称 ANE)的逆向工程,发现 ANE 的功耗效率极高:算力跑满时的效率高达 6.6 TOPS/W。

对比苹果的 M4 GPU,约合 1TOPS/W;英伟达 H100 大约 0.13,A100 是 0.08 TOPS/W。

折算一下,A100 单卡的吞吐性能是 M4 ANE 的 50 倍,但 M4 ANE 的功耗性能却是 A100 的 80 倍。原作者在文章里写道:对于端侧推理,ANE 的性能是非常出色的。

由神经引擎说开

2011 年,苹果在 A5 处理器的图像处理单元 (ISP) 中首次通过硬写入的方式,实现了人脸实时检测等后来被视为 AI 任务的功能。

2014 年,苹果收购了 PrimeSense 公司,并开始研发一种全新的、专门用于神经网络计算的协处理器。这方面的工作在三年后的 iPhone X 上问世:A11 Bionic 处理器当中加入了前面提到的神经引擎 ANE,算力只有区区 0.6 TOPS,用来驱动 Face ID 和拍照人像模式。

那时 AI 还没到大模型时代,跑的主要是各种机器学习算法。市场对苹果这块协处理器的推出并没什么特别的反应。但苹果从未放弃过,持续加码。

三年后,M1 发布,统一内存架构同时到位, ANE 也进驻了 Mac。桌面平台的功率预算更充足,也让 ANE 的算力跳到 11 TOPS。此后每代更新:M2 是 15.8 TOPS,M3 是 18 TOPS,M4 是 38 TOPS,到了 2025年底的 M5 ,达到了 57 TOPS。从 M1 到 M5,苹果的 ANE 算力涨了超过 5 倍。

这个增长背后的逻辑,其它 PC 厂商不能说不羡慕。苹果为 Mac 加入 AI 加速硬件之前,已经有数千万甚至上亿台 iPhone 在跑同一套 ANE 架构了。功耗表现、稳定性、极端情况下的边缘案例,在市售机型上已经得到验证,再搬到 Mac 上来。

英特尔和 AMD 在移动端几乎没有消费级规模;高通虽然同样把 Snapdragon 芯片放进了数亿台 Android 手机,但它只是芯片供应商。Android 上的 AI 是谷歌 (Gemini) 以及各大手机厂商联合第三方 AI 实验室做的;Windows 的 AI (Copilot) 是微软做的。

苹果的不同在于,它实现了垂直整合,同时掌控硬件和软件。其他芯片厂商没有这种统一控制权。

当然,在 Mac 上推理大语言模型,其实跟 ANE 没什么关系,它更擅长处理 Face ID、人像识别这类固定模式的 AI 任务。真正承担主要计算量的是 GPU。

(注:最近情况发生了细微的变化。首先,M 系列芯片上的 ANE 已经承担提示词注入 prefill 阶段的工作了;以及刚才提过的 M4 ANE 逆向工程:该工程师还实现了跳过 CoreML 直接调用 ANE,吞吐量显著提升。通过这种思路,或许可以找到直接利用 ANE,来加速推理甚至训练的通用方法。)

2023 年底,苹果开源了 MLX,把专门针对 M 系列芯片优化的模型推理框架直接给了开发者。去年,基础模型框架随 Apple 智能发布,App 开发者可以在 iPhone 和 Mac 上调用系统内置的基础模型,无需联网,数据不离开设备。

Apple 智能一再跳票,这件事确实没什么好辩护的。不过,苹果远在 10 年前就开始试水,在多年以前就为桌面级 AI 开发打下了基础,是不争的事实。

而在 Windows 那边,「AI PC」这个词开始出现在英特尔、AMD 和 PC 厂商的新闻稿和 ppt 里,要到 2023 年底了。

AMD 官网 2023 年截图

AMD 官网 2023 年截图

2024 年 5 月,微软发布 Copilot+ PC 认证体系,旗舰功能名叫「Recall」,大概的逻辑是系统持续对屏幕内容截图,然后 Windows 的系统级 AI 能够帮你回忆过去看到过的东西。

先不说这个功能在发布当时的实际意义是什么,它的安全性首先被发现有严重问题:仅在发布一个月后,研究人员就发现 Recall 功能会把所有截图存在一个未加密的本地明文数据库里。

微软紧急撤下了 Recall 功能。过了半年微软再次推出测试版,结果再次因为新的安全问题而延迟。直到 2025 年 4 月,Recall 才正式上线,但改成了默认关闭,启动后数据改为加密存储。

从发布会宣传到真正能用,将近一年,可以说整个 Windows 生态 AI PC 的旗舰功能,经历了一整次从头重新设计,尴尬程度其实不亚于 Apple 智能/新版 Siri 的一跳再跳,但可能因为 Windows 生态的声量实在太低,AI PC 没多少人关注,很多人都没听说过这回事。

在 Copilot+ PC 这个体系的认证标准方面,微软主要针对的是神经处理引擎 NPU,要求是 40TOPS。不过,这个算力的用途是实时字幕、背景虚化、照片增强,诸如此类的消费端窄任务,大语言模型推理从来不在它的射程里(和苹果 ANE 同理)。

当开发者尝试去做端侧大语言模型推理时,会发现虽然这些电脑名为 AI PC,但并没针对 AI 推理用途做什么优化。微软 Copilot 本身的核心算力来自 Azure 云端,和端侧自身的算力几乎无关。买了一台 Windows AI PC 的用户,最能感知到的 AI 提升,大概是实时字幕和照片自动分类。

说到端侧推理,还有一个关键因素:Windows AI 生态的优化路径是分散的。

NVIDIA GPU 用 CUDA 和 TensorRT,Intel NPU 用 OpenVINO,高通 NPU 用 QNN SDK,AMD NPU 用自家驱动栈。模型存储格式也较为碎片化,有 CPU+GPU 推理的通用格式(GGUF,准确来说是 CPU 推理 + GPU 分层卸载),也有 GPU-only 的格式(EXL2)。

这意味着想让模型以及模型驱动的功能运行在 Windows AI PC 上,在推理后端方面的工作会更加复杂。微软有 ONNX Runtime 和 DirectML(已进入续命状态)作为统一抽象层,但统一的代价是牺牲各厂商的峰值性能。苹果是目前唯一一家为自家 PC 硬件专门开发并持续维护 LLM 推理框架的 PC 厂商,这个框架就是 MLX。

在 Hugging Face 等开源模型平台上,你会很容易找到大量采用 MLX 框架的模型,只要带有 MLX 后缀,并且内存/处理器允许,可以直接「开箱即用」。

不过,这几天 MLX 的主要贡献者之一 Awni Hannun 刚从苹果离职,为该项目的后续发展增添了些许变数。Hannun 也表示 MLX 团队仍有许多优秀员工,可以放心。

我们自己的体验

过去一年,爱范儿自己做了不少端侧部署 AI 模型的测试,也采访过一些相关的外部开发者。有两次值得一提。

去年春节,DeepSeek 横空出世,新款 Mac Studio 也在节后不久面市。 我们用一台售价快到 10 万元人民币的 M3 Ultra Mac Studio(512GB + 16TB)跑了 DeepSeek R1 671B 模型(注:实际上只需要内存,硬盘不用那么大,1TB SSD 售价七万多的型号就够了),以及蒸馏过的 70B 版本。

我们当时得出结论:对于端侧部署对话,日常用 70B 足矣,花大几万买台机器只为了跟 AI 聊天,实在是有钱烧的慌。当时的模型能力确实也就不太行,后来才有新的多模态模型和 agent 能力出来。

但 671B 模型的天量参数模型能够在一台桌面机上端侧推理,仍然是一种奇观。512GB 的统一内存上,671B 模型占用了 400GB,加上上下文、macOS 系统本身以及其他任务占用,基本接近满载,但机器全程运行安静,噪音在正常范围,也没有过热。

这个参数规模,在传统 AI 基础设施逻辑里,属于数据中心级别,消费级硬件理论上不该出现在这个场景里。但那台 M3 Ultra Mac Studio,真就硬生生也静悄悄地出现了。

后来,我们采访过一个英国牛津大学的创业团队 Exo Labs。他们用 4 台 512GB 统一内存的 Mac Studio,通过串联的方式组成了一个 128 核 CPU、320 核 GPU、2TB 统一内存、总内存带宽超过 3TB/s 的算力集群。

团队为这个 Mac 集群开发了调度平台 Exo V2,可以同时加载 2 个 DeepSeek 模型(V3+R1,8-bit 量化)。不但两个模型并行推理,研究人员甚至可以通过 QLoRA 技术来做一些本地微调工作,显著缩短了训练任务的用时。整套系统功耗控制在 400W 以内,运行时同样几乎没有风扇噪音。

同等算力的传统方案,需要大约 20 张 NVIDIA A100,当时的成本超过 200 万人民币;相比之下,Exo Labs 这套方案的总成本才不过 40 万人民币(同理 SSD 严重溢出,其实可以 30 万内就够)。

Exo Labs 创始人当时告诉我们,牛津有自己的 GPU 集群,但申请需要提前几个月排队,而且一次只能申请一张卡。这些桎梏,逼迫他们创新,而他们又正好遇到了趁手的工具:统一内存架构、MLX,以及 Mac 电脑。

我们在当时的文章里写道:「如果说英伟达的 H 系显卡是 AI 开发的金字塔尖,那么 Mac Studio 正在成为中小团队手中的瑞士军刀。」

这件事,苹果其实早就知道。

真正的 AI PC 是什么?

去年苹果发布的基础模型框架,让 iOS 和 macOS 开发者可以调用系统内置的基础模型,零网络延迟,零 API 费用,数据不离开设备。

尽管后来苹果基模团队几近分崩离析,但在迭代方面苹果没有停在原地。它其实一直知道开发者在哪里、想要什么。它的回应,就是将大模型驱动的 AI 能力变成操作系统的基础设施,让开发者更方便调用。

上周,苹果开源了 python-apple-fm-sdk。以往苹果基模的完整测试和调优,需要 Swift 环境完成;现在这套 SDK 让路变宽了,习惯 Python 工作流的开发者也能参与进来。

苹果的隐私设计哲学贯穿始终:python-apple-fm-sdk 调用的基础模型完全在本地运行,数据不离开设备。苹果整套 AI 体系在必须上云的场景里,走的是 Private Cloud Compute,数据处理完即删除,苹果无法访问。

反过来看 Recall,同样是让 AI 访问用户的私人数据,第一版存的是未加密的明文数据库。一个在架构上阻断泄密,一个是出事了再打补丁。

但话说回来,Mac 作为 AI 开发和部署工具的优势,严格来讲更像是一种「适配度优势」,也可以说是后天意外获得的。

意思是:苹果做神经引擎,最初是为了服务 Face ID 和人像模式;做统一内存架构,是摆脱对 Intel 长久依赖的一部分必要工作;开源 MLX,是响应开发者对高效推理工具的需求——AI Agent 场景爆发,Mac 正好赶上,是上述这些以及更多没提到的工程决策的意外收益。

Mac 一开始并没有为 AI 而设计,它始终的产品定位都更接近「创作者工具」。苹果长久以来的目标用户,是视频剪辑师、艺术家、软件工程师。他们需要的是低噪声、持续性能、高内存容量、可以全天候运行的机器。

AI 模型推理,以及时下最火的 Agent 部署,只是恰好需要一模一样的东西。

回头看,十多年前苹果在机器学习上加大投入时,大概率是不会预见到 2025 年 OpenClaw 的爆红的。甚至你可以说,如果放在十年前,苹果大概率是不会喜欢 OpenClaw 这样一个「回报高风向更高」,一旦出现幻觉就把用户隐私、数据安全抛在脑后,无视各种软件工程方面的规章制度的东西的……

但怎么说呢,如今就算苹果不喜欢它,也由不得了。就像墨菲定律那样,或许冥冥之中有些东西早已注定。多年以来苹果打下的每一张牌,无论有意为之还是出于意外,这些牌在今年这个 Agent 元年(希望这次是真的),成了一套很难不赢的牌组。

2023 年开始力推 AI PC 的 Windows 阵营,其实一直在追赶苹果在 2020 年 M1 推出时就已经定下来的架构优势。当然,25 年苹果在 AI 方面坏消息不断,这个差距是有追上的可能的。但苹果不会停下来等。

就在本周,苹果推出了 M5 Pro 和 M5 Max,芯片采用双芯融合架构 (Fusion Architecture),还在新闻稿中上点名 LM Studio 作为 LLM 性能基准。

苹果过去的硬件新品发布里,不怎么说「大语言模型」,特别是在端侧推理的语境下——现在不一样了。

说在最后

吹了苹果一整篇文章了,我们冷静一下,反问一下文章的标题:今天的 Mac,就是真正的 AI PC 吗?

爱范儿倒觉得,苹果做的还不够。在今天,我们还没有看到一款个人计算产品,可以称之为 AI PC,抑或真正「原生的 AI 硬件」。

还是回到 OpenClaw,从今天的端侧部署 agent 身上,真正的 AI PC 应该长什么样子,其实已经隐约可见。

梗图,AI 生成

梗图,AI 生成

在应用层面,面向人类的「应用」概念,可能会部分退化回并无图形界面的状态。毕竟人才需要图形界面,agent 不需要。而且你会发现,最近越来越多人开始习惯基于对话和命令行的互动方式了。

今天 agent 的尝鲜者们,去找工具和技能塞给 agent;未来,agent 会自己去公开代码库拉取新工具和插件来补强自己。

在系统层面,权限体系将为 agent 的工作原理重构,agent 能直接操控各种接口。在底层,会有一套模型的编排调度机制,根据任务随时切换。

本地推理和隐私云端推理也会形成完整、安全、隐私的闭环。数据无论传到哪里,都经过向量化、加密存储,即用即焚……

换句话说,真正意义上的 AI PC,应该是从底层开始,从设计之初,就把 AI 当作「一等公民」的系统。

梗图,AI 生成

梗图,AI 生成

按照这样的衡量标准,Mac 和 Windows 目前都处于过渡阶段。Mac 更接近,因为 Unix 环境、硬件统一、生态成熟,这些条件在 AI agent 的时代到来之前已经达成了。Windows 的历史包袱更重,改起来更难,还在补课。

但我们绕了一大圈,其实还没问到最本质的问题:真正的 AI PC,真的需要是一台「PC」吗?

如果换个思路,所有的 agent 部署和运行全都在云上;与用户有关的数据,也即「上下文」也在云端安全和隐私存储;人类只需要一个终端的设备作为「对话器」(communicator) ,以及传感器 (sensor),拍照和录音来上传所需要的数据给 agent,这台设备甚至不需要太多端侧算力。

Mac 是今天最好的 AI PC,但未来的「AI PC」,却可能更像……iPhone?

文|杜晨

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


让 Anthropic 破防的「蒸馏」风波,美国 AI 大牛泼冷水:中国 AI 成功不靠走捷径

作者 杜晨
2026年2月25日 20:27

Anthropic 昨天点名 DeepSeek、月之暗面、MiniMax 三家中国 AI 实验室「蒸馏」Claude 模型,全网炸锅。

对于此事件,RLHF (基于人类反馈的强化学习)领域最知名的研究者之一,《RLHF》一书的作者 Nathan Lambert 指出,这件事没有人们想象的那么严重,但也没有那么简单。

他认为,中国 AI 公司的基础设施非常好,取得了很多创新,也在攻克各种技术难题,但它们取得这样的结果,靠的并不是「走捷径」。

在讨论蒸馏这件事之前,先看看 Lambert 的话为什么值得听。

Nathan Lambert 是 Allen AI 研究所的科学家,博士毕业于加州大学伯克利分校,师从机器人领域的著名学者 Pieter Abbeel。他并非 RLHF 技术的发明者,但他写的《RLHF》这本开源书籍,如今是 AI 从业者理解大模型训练流程的标准参考材料之一。

和到处都是的 AI 网红不一样,他是真正上手训练过大模型的人。

在 Anthropic 博客发出的当天,Lambert 就发布了一篇详细分析文章《蒸馏对于中国大模型到底有多重要?》。他的核心论点,和主流媒体的解读方向截然不同,也比一般网友更加深入和全面。

蒸馏是什么,Anthropic 又说了什么?

首先我们来看 Anthropic 指控的核心:「蒸馏」(distillation)。

它指的是让弱模型学习强模型的输出,从而快速获得相似能力。

Anthropic 指控三家公司通过约 2.4 万个虚假账号,在违反服务条款和地区访问限制的情况下,用 Claude 生成了超过 1600 万次对话,用于训练各自的模型。

博客还附上了安全警告:非法蒸馏出来的模型可能缺失原模型的安全护栏,一旦被用于网络攻击、生物武器研发或大规模监控,后果难以预测。

Anthropic 把这套基础设施叫做「九头蛇集群」(hydra cluster)——多达数万个账号的分布式网络,流量同时分散在 Anthropic 自己的 API 和多个第三方 API 聚合平台上。

在最极端的案例里,一个代理网络同时管理超过 2 万个虚假账号,还把蒸馏流量混入普通用户请求流里,用来规避检测算法。这种网络没有单点故障,封掉一个账号,马上换一个。

海外媒体随即跟进,复述了 Anthropic 的话术。然而这套叙事逻辑很快就翻车了:毕竟「蒸馏」这件事美国 AI 公司训练的时候也会做,更何况 Anthropic 自己也有类似行为:

以及:Anthropic「蒸馏」了人类最大的知识库

但 Lambert 更加冷静,他认为要先把这三家中国 AI 实验室分开来看

Lambert 指出,Anthropic 把三家公司并排列在同一篇博客里,掩盖了一个关键差异:它们做的根本不是同一件事,量级天差地别,动机也各有侧重。

按照 Anthropic 的指控,DeepSeek 的蒸馏数量最少,只有 15 万次,但手法更精准。与其直接收集答案,Anthropic 指控 DeepSeek 在做的是批量生产思维链 (chain-of-thought)训练数据。

要的不是「你得出了什么结论」,而是得到结论的过程。

但 15 万次是个什么体量?Lambert 认为,这点数据对 DeepSeek 传闻中的 V4 模型或任何模型整体训练的影响可以忽略不计,「更像是某个小团队在内部做实验,大概率连训练负责人都不知道。」

月暗的规模就不是「可以忽略」了:340 万次交互,目标集中在智能体推理、、工具调用、代码与数据分析、computer-use 开发、计算机视觉等方向——这些方向当中,大部分都是 Claude 近期最受企业客户欢迎的能力组合。

Anthropic 指出三家里流量最大的是 MiniMax,约 1300 万次,目标是代理编码、工具调用和复杂任务编排。

月暗和 MiniMax 相加约 1650 万次,按对话平均 token 量估算,总量大约在 1500 亿到 4000 亿 token 之间,折合数百到上千万美元的 token 成本。

但问题是,只盯着蒸馏看,其实有很大问题。

蒸馏的天花板在哪里?

这才是 Lambert 真正想说的部分,也是整件事里最被忽视的地方。

把强模型的输出喂给弱模型,弱模型能快速获得类似能力——这个逻辑本身成立,Lambert 没有否认。但他指出了一个没人说清楚的问题:蒸馏的天花板到底在哪里,取决于你想要的是什么类型的能力。

作为 RLHF 方面的专家,Lambert 认为,当前最顶尖的模型训练,已经高度依赖强化学习(RL)。而 RL 和蒸馏在本质上是两种不同的事情:

蒸馏是模仿,学强模型的输出,把它的「答案形状」复制过来;RL 是探索,模型必须大量自己推理、自己生成、在错误里反复迭代,从试错中提炼能力。

换言之,真正强大的模型,需要的从来不只是正确答案,而往往要靠模型自己摸索出来的解题路径,这是依靠蒸馏别人 API 的输出,得不到的东西。

以 DeepSeek 自己做的蒸馏尝试为例:基于隔壁千问蒸馏自家的 R1 模型后得到的 DeepSeek-R1-Distill-Qwen 1.5B 这个小模型,仅靠 7000 条样本和极低的计算成本,就在 AIME24 数学竞赛基准上超越了 OpenAI 的 o1-preview。

但关键在于:这个提升等多仰仗强化学习的结果,而非来自蒸馏这个行为本身。

换句话说,蒸馏能帮你更快「热身」,要真正到达顶级水平,还是得靠自己跑 RL。

不同模型之间的数据分布差异

Lambert 还指出了一个技术层面很少被外界提及的问题:不同模型之间存在微妙的数据分布差异。

把 Claude 的输出直接喂给另一个架构的模型,不一定有效,有时甚至会产生干扰。两个模型内部表征空间的差异,会让「老师」的回答在「学生」那里引发意想不到的偏差。

这意味着蒸馏从来不是「拿来用就行」的事,而是需要大量工程工作才能真正发挥效果。这本身就是一个研究课题。

这也是为什么 Lambert 将 Anthropic 所指控的「蒸馏」行为,看作是一种创新的做法,可以理解为试图攻克这一研究课题的努力。

Anthropic 的杀手锏,恰恰最难蒸馏

Anthropic 点名的三家公司,抓取的重心都落在代理行为 (agentic behavior) 这同一个方向上,包括 AI 自主规划、工具调用、分解复杂任务并逐步执行的能力等。

这是 Claude 目前最突出的方向,也是 Anthropic 最不想被复制的能力。

但 Lambert 的判断是,这些能力恰恰也是最难通过蒸馏获得的。

正如前面提到,一个强大的 AI agent,强大之处从来不在于知道或者训练过正确答案,而是「在面对没见过的情况时能自主探索出解决路径」,可以理解为一种 0-shot 或 few-shot 实现 SOTA 效果的能力。

这个过程中产生的价值,体现在推理轨迹,而推理轨迹是很难通过蒸馏习得的——至少现在是这样。

DeepSeek-R1-Distill(蒸馏模型)和 DeepSeek-R1(蒸馏对象)之间的差距,是 Lambert 论点最直接的例证。

在格式化的数学推理任务上,前者表现不错;但在需要自主探索、动态规划的复杂代理任务上,两者的差距是真实存在的。

为什么 Anthropic 现在公开说?

Lambert 有一个判断,很多人可能都有同感:这次 Anthropic 公开点名中国 AI 公司,「技术防御」压根不是首要动机。

在 Anthropic 这篇博客发出的几天前,美国国防部刚刚威胁 Anthropic 配合提供「不受限制的使用权限」,否则就将做出对后者不利的安排,比如将其标记为「供应链危险」,也即无法进入国防/政府供应商名单。

Anthropic 现在处于一个「既要又要」的两难境地:既想维持安全、不反人性的模型定位和公司形象,又不愿意错过美国政府的大单。

Lambert 指出了一个根本矛盾:美国的学术界和开源模型开发者也在做蒸馏行为,但包括 Anthropic 在内的大厂并没有对它们做出实质性的打击。如果仅因为对方是中国公司,未免地缘的意味太重了。

结果就是,Anthropic 这篇博客与其说是报告一个重大技术风险事件……其实更像是一封「投名状」。

双标

关于 Anthropic 在这件事上的立场,有一个绕不开的背景。

APPSO 在昨天的文章里也有提到:Anthropic「蒸馏」了人类最大的知识库

2024 年年初,美国某仓库里,工人们把一本本新书送进机器,切掉书脊,扫描,然后把纸送去回收。下令做这件事的是 Anthropic,项目内部代号「巴拿马」,目标是以破坏性方式扫描全球所有书籍——Anthropic不希望外界知道他们做了这件事。

2021 年,Anthropic 联合创始人 Ben Mann 在 11 天里从盗版网站 LibGen 下载了大量侵权书籍;次年,另一个公开宣称「在大多数国家故意违反版权法」的网站 Pirate Library Mirror 上线,Mann 把链接发给同事,留言:「来得正是时候!!!」

在后来的书籍版权诉讼中,Anthropic 被迫支付 15 亿美元和解金,折算下来每本书约赔 3000 美元。

斯坦福和耶鲁的研究者发现,Claude 3.7 Sonnet 在特定条件下会以 95.8% 的准确率「近乎逐字逐句」地输出《哈利波特》等受版权保护的作品——这不仅与 Anthropic 长期以来关于「模型只是学习了语言规律」的说法背道而驰,更让该公司对任何人的「蒸馏」指控显得缺乏底气。

Futurism 的标题写得很直接:「Anthropic 对 DeepSeek 未经授权复制 AI 大发雷霆——考虑到它是怎么构建 Claude 的,这相当讽刺。」

Musk 在 X 上也补了一刀:「Anthropic 大规模窃取训练数据,还为此支付了数十亿美元的和解金。这是事实。」

反驳者还有一个更尖锐的逻辑:Anthropic 当年从那些书里拿走的,不仅没付过任何使用费,回头还用于商业行为(Claude 和 Anthropic API 都是付费服务);而从商业角度来看,蒸馏 Claude 的公司至少付了钱……

当然,从法律层面来看,这两件事的性质完全不同。但不论怎样,Anthropic 看起来还是很像个伪善的双标者。

「后蒸馏时代」

最后再强调一遍:蒸馏有用,但没有你们想象的那么有用。

DeepSeek 的 15 万次,按任何合理标准来看都是可以忽略的数字。Moonshot 和 MiniMax 合计 1650 万次,量级是另一回事——但能转化成多少真实能力,取决于他们能不能解决「如何用好这些数据」的技术问题。

考虑到数据分布差异、模型架构差异,以及代理能力的获得本身对于强化学习的重度依赖,蒸馏从来不是「拿来就用」那么简单。

Lambert 还是给了 Anthropic 面子:「快速迭代加上高质量数据可以走很远,让学生模型超越老师也并非不可能。」

但他也明确指出,真正的创新靠的是强化学习,不是蒸馏。从 DeepSeek、月暗、MiniMax 公开的论文来看,它们都用有相当完善的基础设施和优秀的人才,远非只靠小聪明小伎俩企图弯道超车的「小作坊」。

蒸馏能帮你更快入场,但真要打到顶级水平,从来没有捷径。

某种意义上,Anthropic 提出的「蒸馏」争议,本身就是这个 AI 时代缩影。

整个行业打一开始就建立在暧昧不清的规则上:用人类写的东西训练,用别人的开源成果迭代,在法律没有明确禁止的地方快速行动。

现在,规则开始慢慢收紧——先是版权,再是芯片,现在又是 API……谁在制定规则?谁受益于规则?谁一边打着人类的旗号,却滥用规则谋求私利?

这些问题的答案,都越来越清晰。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Genie 3 引发游戏股暴跌,但游戏的真正灵魂 AI 永远得不到

作者 杜晨
2026年2月4日 13:44

上周,Google DeepMind 发布了第三代视觉语言模型 Genie 3。紧接着,全球游戏公司股价应声下跌。

引擎巨头 Unity 暴跌一度超过 24%,顶级制作商 Take-Two、任天堂、CD Projekt Red 等无一幸免。下跌的趋势,也持续到本周。

资本市场剧烈的反应背后,逻辑简单又粗暴:

既然模型能快速生成以假乱真且可交互的 3D 世界,任何人都能做出 AAA 级别的游戏。那些投入上亿美元、耗时十年打磨一款游戏/开发工具的公司,岂不都完蛋了?

乍一听上去有点道理,但仔细一想,似乎不太对。

在我看来这是膝跳反应式的恐慌,暴露了一个认知误区:把视觉细节的生成,等同于完整世界的构建。

不是所有会画图的人都能成为建筑师。游戏开发的世界构建,也是这个道理。

《GTA》《荒野大镖客》《魔兽世界》《塞尔达传说》……问任何一个曾深度沉浸于开放游戏世界的玩家,他们大概都有类似的感受:

真正让游戏世界「活」起来的,从来不是美轮美奂的场景,或者简单的交互性,而是那种见微知著、难以言说的「生命感」。

Demo 只是 demo

Genie 3 的演示视频确实震撼。

给它一段文字、参考图、手绘图之类的,它的确能在令人难以置信的时间里,实时生成类似《GTA》《塞尔达传说》风格的场景。玩家可以在其中探索一段时间,扮演「游戏角色」在以假乱真的世界里游荡。

对于缺乏技术细节了解的旁观者而言,Genie 3 看起来确实像是「游戏开发的终结者」。

但 demo 只是 demo,甚至离游戏行业能够接受的「可游玩」或者「技术 demo」相去甚远。

Genie 3 本质上是一个自回归式的「帧生成」(frame generation) 模型。而「帧生成」也不是什么新鲜玩意,在游戏和显卡技术行业早已存在。它的工作原理,用最简单的话来说,就是看着前几帧画面,猜测下一帧的像素排列,生成新的帧,循环往复。

关键在于,Genie 3 的帧生成是靠「猜」的,而非硬编程,没有可靠的逻辑计算。

在一个真实的游戏中,当玩家扔出一个铁球,游戏引擎利用经典物理公式来计算它的下落速度。当玩家打开手电筒然后在房间里乱跑,游戏引擎模拟「光线追踪」和被照物体的材质,来实时渲染光照的效果。

但 Genie 3 没有这些能力,它只是在观察了数以千万记的视频片段之后,形成一个大概的「感受」,猜测物体在掉下去的时候可能会加速,光会在物体的身后打出一个影子。

Genie 3 「猜」出来的这些效果,并不真实。而在游戏世界里,不真实会严重破坏沉浸感。

在各种 demo 中,出戏的情况时有发生。

Genie 3 有个致命短板:缺乏长期一致性。它的记忆窗口(在目前的 demo 版本)只有最多 1 分钟。一旦超过这个时间,Genie 3 可能就会开始遗忘初始场景,世界结构随之崩溃。

与之相对,传统游戏能够保存确定性的状态。世界的构成,每一个素材都刻写在游戏文件里,游玩上百小时后的每一草一木依旧如故(除非碰到像《荒野大镖客2》这样的,能保留一具 NPC 的尸骨或树木上的弹痕直到天荒地老……)

你能接受在一个游戏里,同一个地方每次去都不太一样,甚至刚一回头就变了样吗?

RDR2 游戏中遗体随时间腐烂的过程

RDR2 游戏中遗体随时间腐烂的过程

不仅缺乏记忆,模型猜想出来的世界,也不具备复杂逻辑。

在 GTA 里攻击一个 NPC,基于该 NPC 的平民、帮派成员、警察等不同身份,可能会产生不同的后果。但这种复杂的逻辑链条需要明确的框架——需要硬编程。

但 Genie 3 只能根据连续帧来做出反馈。虽然模型能力提升能够强化逻辑感,但没有硬编程,反馈注定只是概率的。换言之,在模型生成的世界里没有因果,只有模糊的猜测。

需要明确的是,相比前代以及其他视觉语言模型/世界模型,Genie 3 的一致性、稳定性已经强出不少。但出戏的情况仍然有相当大的概率出现,这在游戏里不可接受。

缺乏确定性的世界,就像没有筋骨的皮肉,看起来能动,但立不起来。

Unity CEO Matt Bromberg 指出:世界模型的输出是「概率性」的,缺乏传统游戏引擎那种结构化的、具有确定性的模拟能力,无法维持连贯的玩家体验。

精雕细琢才有「生命感」

说到游戏世界的构建,R星的《荒野大镖客 2》(RDR2) 是个绕不开的标杆。

这款开放世界大作的研发数据令人咋舌:主创 Dan Houser 透露,RDR2 的开发周期长达 8 年,团队上千人,剧本堆起来有几英尺高,动捕的总素材时长达到上千天,超过千名演员参演,研发和营销预算超过 5 亿美元。

这些数字共同造就了 RDR2 令人着迷的细节还原度。为了打造一个真实的 19 世纪末的美国,R星团队做过大量的调研,从现实中取材并加以演绎,造就了杂乱而具有生气的城市,以及荒废且令人窒息的边境小镇。绝大多数主要和次要角色的台词、动作经过充分的雕琢。甚至具体到成千上万个 NPC ,每一个都有着专属的、符合身份和所处环境的行为逻辑。

但这些只是表面。R星的恐怖之处,是对那些玩家几乎不会长期观察的细节,仍有着疯魔般的执着。

YouTuber Any Austin 对 RDR2 做了些「刁钻」的研究,揭示了 RDR2 其实有一套完整、自洽、规模令人惊叹的「电力系统」:

几乎每一个拥有电灯的建筑,房檐下都连着电线,这些电线跨越雪山草地、河流沼泽,最终都汇入同一栋建筑 Lanik Electric Co。深山老林里的房屋,有些装了电灯但处于关闭或破损状态,而有人居住的则点燃蜡烛或瓦斯灯照明。

 

 

AI 当然能生成一段 60 秒的,神似蛮荒西部的 demo,但它填充不了如此细致、精确、符实「电力系统」的细节。而正是无数这样看似不足为奇,甚至在整个游戏生命周期都不会被人注意到的细节,却共同构成了游戏世界的「生命感」。

以上讨论,仅仅是「视觉」层面。对于 R星来说,世界构建远不止于视觉,更重要的往往是「世界观」。

以 GTA5 为例,它对现实世界的诸多讽刺中有一项令我格外印象深刻,就是对于「媒介生态」的观察和体现。

游戏内嵌了海量的电台、电视、互联网内容。电台广告里卖着「印度神油」,主持人争论着极左或极右的论点。你在任务里炸死了一个科技公司 CEO,不仅很快能看到新闻报道,甚至在虚构的社交媒体上也能看到网友的吐槽。

再回到 RDR2,整部作品的主线、支线剧情和世界构建,其实是一场对时代精神的结构盛宴。

在新旧世纪的交界点上,蛮荒逐渐被文明所吞噬,但文明又带来了预料之外的问题。主角所在的范德林德帮代表了近现代美国的基石——无政府主义,靠道义与私刑维持的草莽社会;而平克顿侦探社,以及各处的商界政界大亨则代表了潮水的方向——现代秩序。

不仅如此,在繁华腐败轰隆向前的时代大背景下,亚瑟游走在法律之外和人情之中的个体体验,也更令玩家感受到「好人不长命」的逼仄、窒息感。

一款游戏的真正特色,在于人物、任务、故事、世界观。没有这些细节雕琢的世界,注定是空旷的。

在大模型可以瞬间生成像素的今天,R星的这种「笨功夫」反而凸显出「手搓」艺术作品的人文主义价值。当然,AI 一定会越变越强,但它恐怕很难模拟出带有特定的历史偏见、文学厚度的「灵魂」。而正是这些所谓的灵魂,才是优秀的游戏真正被玩家所热爱的理由。

AI 生成不了 IP——最多只会抄袭

另一个不得不提的本质问题:玩家玩游戏,到底热爱的是什么?

答案很多时候除了游戏(剧情、机制设定等)本身,还有游戏的 IP。

IP 的价值,远超出单一作品本身。

以任天堂为例,马力欧这个 IP 诞生于 1985 年,近 40 年来,任天堂围绕这个戴红帽子的水管工,推出了超过 200 款游戏,横跨平台游戏、赛车、体育、RPG 等几乎所有品类。

从《超级马力欧兄弟》到《马力欧奥德赛》,从《马力欧赛车》到《马力欧派对》,每一作都在强化玩家对这个 IP 的认知和情感。

2023 年上映的《超级马力欧兄弟大电影》全球票房超过 13 亿美元,成为有史以来票房最高的游戏改编电影。这个成绩不是因为电影本身有多么惊世骇俗,而是因为几代人对马力欧这个 IP 积累下来的情感。

IP 的构建需要时间,需要一致性,需要创作者的长期投入和精心运营。

好的游戏 IP,不光是做好游戏,而是一直不停地做好游戏。王权没有永恒。育碧的《刺客信条》,动视的《使命召唤》,这两个知名 IP 最近多年以来的颓势,都是这个逻辑的绝佳证明。

R星从 1997 年的《GTA》初代开始,用了近 30 年时间,才把这个系列打磨成今天这个能够代表开放世界游戏巅峰的 IP。每一代 GTA 都在延续核心的讽刺精神和犯罪题材,同时不断创新玩法和叙事手法。

这种持续性让玩家对 GTA 产生了信任:我知道下一部 GTA 会是什么样的基调,但我更期待它会带来什么新的惊喜。

这种信任关系,是 AI 无法在真空中生成的。 

更重要的是,IP 运营是一个复杂的系统工程。哪些元素可以变,哪些必须不变?你需要在不同作品之间建立连贯性,让粉丝感到「这就是那个世界」。在该推出续作的时候推出续作,在该跳出思维惯性和肌肉记忆的时候就该跳出来。IP 需要处理版权、授权、跨媒体改编等一系列商业和法律问题……

小岛秀夫的《合金装备》系列是一个典型案例。从 1987 年到 2015 年,小岛用近 30 年时间,通过 5 部正传和多部衍生作品,构建了一个涵盖冷战、核威慑、信息时代、生物科技等多个主题的庞大世界观。

每一作都在延续前作的角色和故事线索,但对他们做出富有创意的「微调」,同时引入新的哲学思考。这种跨越数十年的叙事连贯性和主题深度,让《合金装备》成为游戏史上最受尊敬的 IP 之一。

科乐美在 2015 年踢走了小岛,虽然他们仍然拥有《合金装备》的版权,但粉丝普遍认为这个 IP 的灵魂已经离开了。即使后来的重制版画面再精美、玩法再完善,也很难再获得玩家同样的情感认同。

这揭示了一个残酷的真相:IP 的核心价值不在于素材和代码,而在于创作者的持续投入和玩家的情感积累。 

Genie 3 可以在 1 分钟内生成一个看起来像《塞尔达传说》的世界,但它生成不了玩家对林克、塞尔达、海拉鲁的情感寄托。它可以模仿《巫师》的中世纪奇幻风格,但它给不了玩家杰洛特那种游走于灰色地带的道德选择所带来的思考。

所以当投资者恐慌地抛售游戏公司股票时,他们可能忽略了一个关键问题:那些真正有价值的游戏公司,手里握着的不只是开发工具和技术,更是经过数十年经营、已经深深扎根在玩家心中的 IP。

AI 能做的是快速生产素材,但 IP 需要的是缓慢积累。这是两个完全不同的时间尺度。去年是马力欧 40 周年,今年则是塞尔达传说 40 周年——这些 IP 的价值,不是 AI 在短期内能够撼动的。

AI 是画笔,人才是画家

这些道理,当然不需要专门写一篇文章来讲。任何对游戏有审美,对游玩体验有追求的人,都应该明白。

所以我相信,片刻的认知偏差和恐慌肯定会过去。优秀的游戏开发者,会获得与他们的作品质量、实力和创造力所匹配的市场公允价值。

但是,Genie 3 所展现出的技术发展的方向,当然值得探讨。

在 AAA 级别游戏工作室的实际流程中,AI 确实已经开始发挥一定的作用。比如在概念设计阶段,通过提示词来生成图片或 3D 场景来快速预览风格,构建原型;在素材生产的环节,使用 AI 工具来快速生成多种纹理的素材。

这些工具交给大工作室,能够一定程度上提高生产效率,给到个人开发者的手上,也可以显著降低开发者的负担。

同理,对于游戏开发者,乃至整个游戏行业而言,Genie 3 本来应该是个重大利好——正因为此,它引发的游戏公司股价暴跌才让我十分费解。

等到 GTA7 的时候,R星可能会利用 Genie 3 生成路边垃圾桶、NPC 的闲聊对话,甚至是完整的关卡、场景、人物。

但这些素材放在哪里、怎么放,它们在一个具体的任务,以及在整个宏观的世界中所扮演的角色,仍将由 R星的人物、任务、关卡、环境、世界设计师们决定。

AI 会成为游戏开发者的超级画笔。但只有在人类「画家」的手中,它才能画出具有文化深度和社会影响力的旷世佳作。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌