阅读视图

发现新文章,点击刷新页面。

卸载龙虾后,我找到了更香的爱马仕 Agent,5 分钟带你极速上手

「人红是非多」,Hermes Agent 最近真的火了,一边是 GitHub 积累了超过 8 万星,增长趋势完全是直线上升。

另一边是来自国内开发者的公开指责,说 Hermes Agent 是抄袭了他们的项目 EvoMap,Hermes Agent 的负责人在 X 上回应,表示这是无中生有,从没听说过有 EvoMap 这个项目。

双方都僵持不下,但无论是 EvoMap 所提出的三层记忆系统、主动学习,还是 Hermes Agent 内一样的逻辑架构与核心概念,这种形态的 Agent 或许在此刻都比 OpenClaw 更值得关注。

之前 APPSO 介绍过 Hermes Agent 的基本情况,以及与 OpenClaw 的差别。

它最大的特点就是能自动学习进化,把我们反复用的流程,自动保存为可复用的技能;每一次的任务,都会自动从里面总结经验,是一个用的越多越顺手的 Agent。

目前 MiniMax 已经推出了 MaxHermes,能让我们在云端「无痛养马」,腾讯云也推出了一键部署到其轻量服务器上的 Hermes Agent 应用模板。

Hermes 也从「这东西牛不牛」来到了「这玩意怎么装,装完怎么用」的阶段。这篇文章,APPSO 手把手教大家在自己的电脑上安装 Hermes Agent,并上手用简单的例子来说明它和 OpenClaw 的不同。

这次安卓手机也能养马

和 OpenClaw 不同的是,Hermes Agent 不支持单纯的 Windows 系统。如果我们想要在 Windows 电脑上使用 Hermes Agent 必须先安装 WSL2,WSL 是 Windows Subsystem for Linux 的简称,它允许用户在 Windows 上运行 Linux 操作系统。

苹果表示在这波的本地 AI Agent 大战里,不用下场做大模型做产品,也吃到了 AI 最大红利。

不过,Hermes Agent 支持安卓手机,通过 Termux 应用,一台不需要 root 的闲置安卓手机,直接就能变成一台随身 Linux 服务器。

▲安装地址:https://termux.dev/cn/

Termux 是一个运行在 Android 手机上的「终端模拟器 + Linux 环境」,项目在 GitHub 上开源,目前已经获得了 5 万星。

我们可以简单地把它理解成在安卓里开了一个接近 Linux 的命令行世界;不用 root,也能安装很多常见开发工具、能像在服务器上一样敲命令、装软件、跑脚本。

在 Hermes Agent 的官方文档里,有一栏专门用来介绍如何在 Android 系统上使用 Termux 运行,我们只需要在手机上安装好 Termux 应用之后,其他操作和电脑类似,部分的功能像 Docker 隔离、后台常驻、语音能力会受限制。

▲官方文档:https://hermes-agent.nousresearch.com/docs/getting-started/termux

本地安装之外的选项,云端部署则是和 OpenClaw 一样,目前腾讯云已经宣布率先支持 Hermes Agent 一键部署,通过旗下轻量应用服务器 Lighthouse 内的 Hermes Agent 应用模板。

仿佛过去的记忆在又一次敲打我,接下来大概是各家的云平台,都逐渐推出相关的一键接入服务。

MiniMax 在今天也宣布推出第一个云端沙箱 Hermes,MaxHermes。和 MaxClaw 的体验类似,我们需要订阅 MiniMax 付费计划,同时连接 MiniMax Token Plan,完成两项升级后才能在 MiniMax 上部署 MaxHermes。

从安装到连接飞书/微信/QQ,只要五分钟

打开终端(macOS 用 Terminal,Windows 用 WSL2),粘贴这一行命令。

curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash

它会自动处理好所有依赖——Python、Node.js、ripgrep、ffmpeg,以及 Hermes 本体。不需要你提前安装任何东西。

等它跑完,再执行,

source ~/.bashrc

这一步是让终端认识新装的 hermes 命令,如果跳过,下一步执行 Hermes,会报错「找不到命令」。整个安装过程大约两到三分钟,取决于网速。

安装完成之后是和 OpenClaw 类似的配置阶段。我们需要配置模型 API,选择对应的模型供应商,并复制粘贴 API。以及选择连接何种即时通讯软件,微信、QQ、企业微信等。

▲选择 Quick Setup

这些配置可以在之后的 Hermes setup 命令下再次进入,这里我们演示一遍按照 Hermes Agent 推荐的流程进行设置。

关于模型,第一项 Nous Portal 是 Hermes Agent 公司所推出的 API 订阅方案。目前小米 MiMo V2 模型可以透过 Nous Portal 连接,免费使用到本月 22 号。

其余的 OpenRouter、OpenAI Codex、Kimi、MiniMax、智谱 Z.ai 等,都可以在对应的模型开放平台,订阅相关的 Token Plan 之后,创建专门用于 Hermes Agent 的 API。

▲这里我们选择了 OpenRouter,OpenRouter 提供了多款可以免费使用的模型

使用 Nous Portal 服务,必须先订阅 Nous Research 计划,才能免费使用小米 MiMo 模型。这里可以选择免费计划,每月 0 元。不过即便是 0 元的订阅计划,也需要使用 Stripe 完成支付,必须有一张 VISA/万事达的信用卡,才能完成订阅。

▲订阅网址:https://portal.nousresearch.com/products

选择了模型供应商之后,继续选择 Hermes Agent 使用的具体模型。Nous Portal 支持的模型非常多,免费的小米 MiMo V2 Pro 需要滑动到最下面的位置才能看到。

▲ 我们使用 OpenRouter 上的免费模型,来自英伟达的 Nemotron 3

继续设置聊天平台,目前最新的 Hermes Agent 版本已经支持了钉钉、飞书、企业微信、微信、QQ、iMessage,以及 Telegram 等常见聊天平台。

▲键盘上下切换不同的平台,按空格代表选中,Enter 进入配置。这里我们选择飞书作为消息通道。

不同的平台配置方式不同,按照 Hermes Agent 推荐的操作执行。如果你选择飞书,它会给我们一段链接,要求在手机飞书,或者飞书网页版内打开,打开后是自动创建机器人的界面,创建完成,选择默认操作,就连接成功了。

▲ 飞书连接成功,这里的网关安装可以选择 Yes,亦可在之后的终端中执行命令 hermes gateway install

在飞书应用内,和机器人发起聊天,机器人会回复一条要求执行 hermes pairing approve feishu XXXXXXX 的消息,将这行命令复制到终端里执行,我们就能在飞书内和 Hermes Agent 聊天。

一切配置完成,在终端里输入 hermes,这匹马就算是牵到了我们电脑里。

询问它能为我们做点什么,可以看到它可以执行的操作,包括终端命令、文件操作、网页交互、代码执行、任务管理、记忆和技能、会话回溯、后台作业、子代理等多个功能。

在最新版本的 Hermes Agent,也提供了可视化、界面友好的控制台,可以让我们不用在终端里,完成一切的操作。在终端里输入 hermes dashboard,会自动打开一个地址为:http://127.0.0.1:9119 的本地网页。

▲Hermes Agent WebUI 控制面板,可以在里面设置不同的模型,连接不同消息平台。

用的越多,越省事

安装很容易,怎么用好 Hermes Agent,才能感受到它和 OpenClaw 最大的差别。

我们现在用 AI 的逻辑,无论是 OpenClaw 还是 ChatGPT,本质上还是我们输入,AI 输出,关掉对话,任务就结束。

Hermes 要改掉的就是这件事,有着和 OpenClaw 同样多的功能,另外还有会自动累积的记忆,会生长的能力。每一次交互,它都在变得更了解我们,偏好、工作方式、我们反复做的那些事。

▲使用 Hermes 是一个飞轮,从执行任务,到创建 Skills,写入记忆到下一次的任务执行

例如我们简单地在 Hermes 里面告诉它要求设计一个老少皆宜的益智类小游戏,并且在后续的交流中告诉它要多设计一些关卡,有难度的区分,界面要更精美等。

▲在 Hermes Agent 内,所使用的模型,和当前上下文窗口使用占比,会一直固定在终端底部。

这轮任务结束,我们问 Hermes,要它说说我的用户画像是什么。它很快就从上一个做益智小游戏的项目里,定位到我使用中文交流、表达直接具体、注重细节和精致度等特点。

和大部分 AI Agents 所使用的关键词检索不同,Hermes 使用的是语义相似性的向量查询,它会根据「基于之前的反馈进行迭代改进」,得到我重视反馈循环,并将这一点放进用户画像内。

基于 Hermes 的持久记忆和累积学习,用它来搭建知识库是再合适不过。

我们使用 Hermes 内置的 LLM-Wiki Skill,结合 Obsidian 笔记平台和飞书,在手机上把自己想到的任何事情,发给飞书,Hermes 就会自动帮我们把这些碎片的内容整理成知识库,并在 Obsidian 内以结点的形式呈现。

▲输入 /llm-wiki 之后会提醒我们输入想要创建什么主题的知识库

这里我们告诉它创建一个类似于我的「第二大脑」的知识库,我会把我看到的好文章、有意思的选题、素材统统发给它,Hermes 需要帮助我整理。

当把文章发送给 Hermes 之后,我们在 Obsidian 里面立刻能看到它的处理,把文章的要点总结,同时下载文章全文到 raw 文件夹内的 article 分类下,同时会自动处理不同的概念和主题,彻底贯彻 Wiki 的逻辑。

▲一开始的微信公众号链接 Hermes 没有顺利抓取,使用爱范儿网页链接后,能抓取原文并自动保存

在 Hermes Agent 里还有许多 Skills,我们在安装时,就已经内置了有 79 个 Skills。官方的 Skills Hub 显示目前提供了 16 个类别,来自 Anthropic、Lobe Hub 等社区公开的 Skills 平台,共计 521 个 Skills。

这些 Skills 涵盖了从日常的生产力工具,到代码审查、PPT、PDF、OCR、YouTube 转写,再到模型微调、vLLM 部署、Stable Diffusion、Whisper、音乐生成,几乎把「数字办公 + 开发 + 创作 + AI 工程」串成了一整套工作流。

例如我们可以直接使用 manim-video.skill,在 Hermes Agent 内就能创建一个简单的视频。

▲官方提供的视频案例,大多数时候用来创建一些简单的视觉,解释数学公式等视频

多 Agents 协作也是现在的热门玩法,在 Hermes Agent 内,我们可以用 Profiles(配置文件) 来跑多个独立 Agent。每个 profile 都是一个完全隔离的 Hermes 环境,有自己单独的个性化设置,像是网关、SOUL.md、记忆、SKills 以及环境变量等。

也就是说,我们可以同时有一个写代码的 Agent、一个研究用的 Agent、一个私人助理 Agent,它们互不污染。通过定义的流程,这些 Agents 能在 Hermes 里面形成多 Agent 工作流。

在 Hermes Agent 的官方文档内,有相当多的 Hermes 指令和教程,还有一篇专门教大家如何从 OpenClaw 迁移到 Hermes 的文章。

▲https://hermes-agent.nousresearch.com/docs/guides/migrate-from-openclaw

如果你想从 OpenClaw 转到 Hermes,按照官方教程,三行命令就能快速迁移。

一键卸载指南

装到一半发现不知道怎么继续,或者使用了一段时间觉得不行,想要卸载也很简单。

官方提供了一键卸载命令 hermes uninstall,在终端运行之后,我们会看到保留数据、完全卸载和取消三个选项。

其中保留数据会将 Hermes Agent 的相关配置,像是模型的 API、以及连接到不同第三方通讯工具的 API 保留,只是将整个框架删除。我们可以直接输入 2,表示完全卸载。

如果仍然不放心,回到初始的终端页面,执行下面这三行命令,也会将电脑上所有关于 Hermes Agent 的内容全部删除。

rm -f ~/.local/bin/hermes
rm -rf /path/to/hermes-agent
rm -rf ~/.hermes

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

Claude Opus 4.7 或本周上线,但 Anthropic 要查你证件了

生产队的驴都没有 Anthropic 这么忙,从今年年初 Claude Cowork 发布之后, Anthropic 的更新就没有停止过,说一天一项都不为过。

根据 the information 的报道,Anthropic 在本周甚至会推出 Opus 4.7,和前几天社交媒体上爆料,类似 Lovable 的 AI 设计工具。

与此同时,Anthropic 在帮助中心更新的一则内容,引发了更大的争议。

官方正在为 Claude 的「部分使用场景」引入身份验证,例如在触及到某些能力、平台例行完整性检查、安全与合规要求时,用户会被要求验证身份,此举被很多网友推测是针对中国用户的「实名制」。

▲ https://support.claude.com/en/articles/14328960-identity-verification-on-claude

Anthropic 给出的核心理由很直接,强大技术要负责任地使用,平台需要知道「谁在使用」。

▲目前,已经有网友发现,在 Claude 内尝试订阅 Max(即最高档会员计划)时,会被触发身份验证。

能不能继续用成了个问题,但 Anthropic 这边的发货是马不停蹄。今天凌晨,Anthropic 再对桌面版的 Claude Code 进行了重新设计。

Claude Code 支持一个窗口内并行运行多个 Claude 会话,同时还新增了侧边栏管理会话、集成终端、文件编辑、HTML / PDF 预览、更快的 diff 查看器、拖拽式布局等多项新功能。

除了软件交互层面的更新,Anthropic 还给 Claude Code 加了一个很关键的新能力,「Routines」。

顾名思义,它是把这些可重复执行的日常任务,完全自动化,支持定时和触发运行。同时,这些任务可以跑在 Anthropic 的 Web 基础设施上,不依赖于本地 Mac 在线。

关掉电脑,Claude Code 还在干活

定时任务在 OpenClaw 出来之后并不算新鲜,无论是使用已有的工具配置 Cron Job,还是通过编写 HEARTBEAT.md 文档来告诉 Agent 需要以什么周期来跑什么任务。

Claude Code 这次更新的 Routine 功能,一方面是接管了这些重复性的任务,另一方面它既可以本地也可以远程,能做到不依赖我们的电脑在线,运行在 Anthropic 托管的云基础设施上,笔记本合上也能继续跑。

本质上,Routine 是一个保存在云端的 Claude Code 配置包,里面包括提示词、代码仓库、连接器和运行环境。

Routine 触发方式有三种,三种触发方式分别瞄准三种不同场景。

  • 定时触发:按小时、每天、工作日、每周,或者用 cron 自定义
  • API 触发:外部系统发一个 HTTP POST 就能拉起任务
  • GitHub 触发:PR、push、issue、workflow run 等事件发生时自动执行

定时触发最直觉,每天晚上跑一次日志整理,给新 issue 贴标签、分配负责人,早上团队上班时收到一份整理好的摘要。这些任务的共同点是:重复,规律,不需要人实时参与判断。

▲Claude Code 在网页端也能使用 Routine

API 触发针对的是已有工具链的接入场景。例如监控系统发现错误率异常,触发 Routine,Claude 自动拉取内容跟踪,并给出修复建议。

GitHub 事件触发则把 Routine 直接嵌进代码协作流程。Routine 能按照项目配置,自动对代码进行审查,以及决定是否要合并仓库等。

一个 Routine 可以叠加多种触发方式。比如同一个任务,既能定时每天夜里跑,也能在有事件触发时跑,还能被部署脚本手动触发。

这些场景的共同特征都是人工也可以做,但是做起来很枯燥又容易忘记。Routine 的重点就是把这些「无人值守、可重复、有明确结果」的工作流完全自动化。

Routine 主要是配合 GitHub 使用,官方给出的典型场景都是集中在项目开发上,例如代码审查、项目部署验证、文档修复等软件开发常见的流程。这也符合 Anthropic 一路以来在 B 端,在 AI Coding 方向上的发力。

目前 Routines 只对 Pro、Max、Team 和 Enterprise 用户开放,而且每天有次数限制。Pro 用户每天最多运行 5 个 routines,Max 用户 15 个,Team 和 Enterprise 用户是 25 个。

桌面端大改版,从工具到工作台

同一天发布的还有 Claude Code 桌面端的大改版。

▲ 右下角的 Claude Code 像素吉祥物,点击它,还会有鞭子抽打的效果

新版桌面端将顶部的 Chat、Cowork,和 Code 分类栏移动到左边的侧边栏顶部。增加的多对话并排,也是通过左侧边栏管理,现在我们可以在一个窗口里同时跑多个 Claude Code 对话,以拖拽的形式就能分屏显示或置顶不同对话。

我们也在 Claude Code 桌面端体验了一波这次的更新。

和之前的 Claude Code 终端处理多个会话不同,我们不再需要维持多个终端窗口。现在的 Claude Code 同样如此,一个人就能同时监督多条不同的任务线。

▲在电脑上是应用可以这样分屏拖拽,在应用内是文件,在 Claude Code,是每一个运行的 Agent

此外,Claude Code 还内置了终端、文件编辑、HTML 和 PDF 预览,原先需要用浏览器打开,或者编辑器处理,这些反复切换的场景,现在在同一个窗口就能完成。

如果你是开发者,想要查看每次更新后 Claude 动了哪些地方,现在也提供了像 Git 一样的 diff 视图,开发者可以快速看到不同版本之间的区别。

以前是在 Cursor、终端里面用 Claude 模型,现在 Claude Code 直接把这些常见的代码编辑器会有的功能,统统搬上来。

这次桌面端改版的方向,很明显是要把 Claude Code 从一个单一的工具,变成一整套全面的工作台。

把两个更新放在一起看,Routines 解决了「我不在时谁来做」,桌面端升级解决了「我们在时怎么同时做多件事」。这两项更新既让 Claude Code 有了在后台独立运行的能力,也让用户在前台的操作密度和体验更强了。

Claude Code 桌面端负责人 Anthony Morris 也发推文说,他自己连续好几周没有用过终端、代码编辑器、集成开发环境这类产品了。

现在的 Claude App,已经完全从一个聊天的对话工具,进化到了真正接管任务的调度和执行本身。

▲Karpathy 此前发文表示传统的编程开发软件形态正在改变,文件不再作为基本处理单元,而是 Agents。

网友@Yuchen Jin 也说 Claude Code 走了一条和 Cursor 完全不同的路,这两项更新很清楚地说明,Anthropic 正在重新设计用于智能体编码的 IDE,完全地脱离之前 VS Code 变体(像是 Cursor、Windsurf、TRAE、CodeBuddy 等应用)的形态。

Anthropic 表示这周还有更新

根据 The Information 今天的独家消息显示,Anthropic 还在准备下一个旗舰模型 Claude Opus 4.7,以及一款 AI 设计工具,帮助用户用自然语言生成网站、演示文稿和落地页。

这两款产品最快本周就会发布,消息一放出来,Adobe、Wix 和 Figma 的股价在几小时内跌超 2%。

▲Figma 股价

模型本身的能力边界、面向(企业)开发者的 Agent 工作流、面向普通用户的生产力工具,Anthropic 在这三条线上同时加速,收获不少新增用户和好评的同时,也带来了不少的算力压力。

除去此前宣布「封杀」OpenClaw,以减少额外的 Token 支出。Anthropic 近期还调整了 Claude 企业版的定价方式,不再主要按「席位」收费,而是在每月每用户 20 美元基础上,额外按实际 AI 使用量收费。

这次变动主要影响大企业客户,尤其是 150 人以上、重度使用 Claude Code 和 Claude Cowork 的团队,部分客户成本可能翻倍,甚至涨到 3 倍。

Uber CTO Praveen Neppalli Naga 透露,Uber 在 2026 年才过去几个月,就已经用了一整年的 AI 预算,核心原因就是 AI 编程工具使用量飙升,尤其是来自 Anthropic 的 Claude Code。

▲Anthropic面临的成本压力,随着运行AI模型的成本激增,Anthropic下调了其最乐观的毛利率预期,其中绿色代表收入,红色代表模型推理支出,后面两项分别是截止到 2025 夏天和 12 月中旬预期

算力紧张,定价调整是必然的,但 Anthropic 增长的势头目前没有停下来的迹象。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

取代龙虾的是爱马仕?狂揽4万星的Hermes Agent,不只是OpenClaw平替

在之前那篇讨论 Harness 该怎么翻译的文章,有读者留言说可以叫 Hermes 爱马仕。

本以为是谐音梗,没想到确实有一个 Agent 产品叫 Hermes,而且在 GitHub 的热门榜单上,整个月都排名第一,目前已经累计有 4.8 万个 Stars。

和这段时间以来爆火的 Agent 龙虾不同,一个是支持所有操作系统和平台的专属个人 AI 助手,Hermes 的介绍写着「the agent that grows with you」,与你共同成长的 Agent。

听着就很高级,但这确实是 Hermes Agent 的独特之处。

它有一套内置的学习循环框架,OpenClaw 靠的是修改配置文件,联合多个 Agents 来处理各项复杂的任务,Hermes Agent 是一个单一的 Agent 框架,它的能力会随着实际使用的运行时间增加而不断增强。

它解决的问题是,当所有人都在讨论 agent 能做什么,但没人注意 agent 用完之后什么都不留下,而 Hermes Agent 现在能记住「什么方法有效」。

社交媒体上也不少推荐 Hermes Agent 的帖子,有人说刚刚从 OpenClaw 转移到了 Hermes,是他做过最明智的选择。

还有人分享「爱马仕橙皮书」,表示 Hermes Agent 是一个被严重低估的产品,它算得上目前最强大的开源 AI Agent 框架之一。

Hermes Agent 由 Nous Research 团队研发,查看 GitHub 上的发布记录,从 3 月中旬更新 V0.2.0 版本到昨天发布 V0.8.0,每次更新都有大量代码提交合并,以及实用的功能更新,是一个非常活跃的开源项目。

▲首次推出是 2 月 25 日,https://nousresearch.com/releases

Karpathy 之前分享的 LLM Wiki 笔记大法,利用大语言模型和 Obsidian 笔记工具,完成对自己知识和研究库的搭建,也被立刻加入到了 Hermes 的内置技能里。

Hermes Agent 不仅支持安装在电脑上,通过 Termux 终端模拟器,还能安装在 Android 手机上。模型和网关的配置与 OpenClaw 类似。

值得一提的是,目前还没有被 Claude「封杀」,我们仍然可以通过登录 Claude 的 Pro 及以上会员直接完成大模型配置。同时,Hermes Agent 也提供了自家的,基于订阅模式的 Nous Portal 登录。

▲Nous Research 团队的 Hermes 4 模型

今天,小米大模型也发文正式宣布,「Xiaomi MiMo 已接入全球顶级 Agent 框架 Hermes Agent,并且限免两周。

🔗 Hermes Agent 官网:https://hermes-agent.nousresearch.com

凭什么是 OpenClaw 真正的对手

OpenClaw 的核心是把我们的 AI 从聊天框里彻底拉出来,接入到实际的工作、学习和生活中,真正执行任务。它能连接微信、企微、飞书,能跑终端命令、控制浏览器,帮我们发邮件、管理日程安排等。

但 OpenClaw 有一个缺陷是它无法从我们日复一日的使用中,自动学习进化。

OpenClaw 的记忆是静态的——我们把信息写进配置文件,它读取,会话结束,等下次再读。它不会主动地从执行过程里提炼什么,也不会因为我们纠正过它一次,下次就自动做对。

所有的工作流用过一遍,还是需要我们提醒它,打包成 Skill 或者专门的提示词等。

虽然现在有一些专门的 Skill 被设计用来赋予 OpenClaw 自学习的能力,但是、 Hermes Agent 是从底层架构的学习循环,到记忆系统,和 Agent 执行内部,都把「越用越懂你」作为重点。

Hermes Agent 的特别之处是一个闭合的学习循环 Learning Loop。

每次任务完成后,Hermes 会检查:这次执行值不值得写下来?触发条件很具体,工具调用超过 5 次、中途出过错然后自己修复了、用户做过纠正、或者走了一条不明显但有效的路径。满足任何一条,它就会在 ~/.hermes/skills 目录里生成一个 Skill 文件。

和技能市场上那些被广泛使用的 Skill 一样,这份自动生成的文件是下次可以直接跟着走的操作流程。名称、描述、步骤、涉及的工具调用,全部写清楚。格式遵循 agentskills.io 开放标准,理论上是可以跨兼容 agent,在 OpenClaw、Claude Code、Cursor 等工具内使用。

技能文件不是一次写死。Hermes Agent 在后续执行中发现更好的路径,会直接修改。修改优先用 patch,打补丁的方式,只传入旧字符串和替换内容,而不是整体重写。

这个选择背后有两个考虑:全量覆写容易把原来好用的部分一起破坏掉,而 patch 只碰有问题的地方,更安全,token 消耗也更少。

记忆,是 Agent 最难处理的问题

另一项和 OpenClaw 的差别,是记忆系统。

前几天,《生化危机》女主角 Milla Jovovich 和工程师 Ben Sigman 联合发布了开源 AI 记忆工具 MemPalace,两天内获得超过 23000 个 GitHub stars。

它的设计灵感来自古希腊演讲家的记忆技法,把要记的东西放进一座想象中的建筑的不同房间,需要时走进去取。

整个系统分成五层:Wing(项目或人物)、Hall(记忆类型)、Room(话题)、Closet(压缩摘要)、Tunnel(跨话题引用)。仅靠这个层级结构,MemPalace 称检索准确率就从 60.9% 提升到 94.8%。

MemPalace 的核心判断是:不应该让 AI 来决定什么值得记,AI 的判断不可信,不如全存下来,让检索来决定什么有用。

月初 Claude Code 50 万行代码泄露事件中,另外一种关于记忆的解决方案则是依靠 AI,有网友发现 Claude 会使用做梦的方式,用 Auto Dream 来自动整理我们的记忆文件。

Hermes 的记忆系统也经过专门设计,一共分四层,每层负责不同的事,在不同的时机被调取。

第一层叫常驻提示记忆。两个文件,MEMORY.md 和 USER.md,存放需要在每次会话开始时自动加载的上下文。总字符上限只有 3575 个,这个数字是 Hermes Agent 故意收窄的,目的是强迫我们筛选,而不是什么都往里塞。

第二层是会话归档。每次对话写入 SQLite 数据库,用全文索引检索。Hermes Agent 需要历史上下文时,主动发起查询,把检索结果经过一次 LLM 摘要,只把和当前任务相关的部分注入进来。

▲文档链接:https://hermes-agent.nousresearch.com/docs/user-guide/features/memory

第三层是技能文件,也就是上面说的学习循环的产出。默认情况下,系统提示里只加载技能的名称和简短描述,全文按需调入。这个设计的效果是,技能库可以从 40 个增长到 200 个,而上下文成本几乎不变。

第四层叫 Honcho,是可选的用户建模层,被动地在跨会话之间积累你的偏好、沟通风格和领域知识。适合把 Hermes Agent 当成日常个人助理长期使用的场景。

这四层的分工原则也很清楚,如果某件事需要在每次对话里都出现,放第一层;如果只在特定话题出现时有用,留在第二层等检索;如果是可复用的操作流程,让第三层处理;如果是用户的长期画像,交给第四层。

一条消息到达 Hermes Agent,无论来自 Telegram 等第三方网关,还是命令行,进入同一套同步执行引擎:生成任务 ID,从记忆层构建系统提示,优先复用缓存版本,避免重复构建,发送前检查上下文长度是否接近上限,调用模型。

▲图片来源:https://mranand.substack.com/p/inside-hermes-agent-how-a-self-improving

除了在任务执行的过程中会使用学习循环自动更新,Hermes 在每次会话中间还会触发一个叫周期性微调(Periodic Nudge)的机制。

在没有用户输入的情况下,系统会定期自动向 agent 发一条内部提示,要求它回顾最近的操作,判断哪些值得写入记忆。完全不需要用户触发,Hermes Agent 自己决定什么值得保留。

上手 Hermes Agent 需要多少成本

和安装 OpenClaw 一样,Linux、macOS、WSL2 直接一行命令,Android 机上使用 Termux 也支持安装。

Hermes 有提到不支持原生 Windows,我们需要另外安装 WSL2,Windows Subsystem for Linux,简称 WSL,是一个在Windows 上能够运行原生 Linux 二进制可执行文件的兼容层。

安装命令会自动处理大量依赖,包括 Python 3.11、Node.js v22、ripgrep、ffmpeg、虚拟环境、全局命令、LLM 等配置。安装完成之后的界面也 Claude Code 那些终端工具一样,通过一些具体的命令来实现和 Agent 的交互。

在模型配置上,可选推理服务商范围很宽:Nous Portal(订阅制,零配置)、Anthropic(直接用 Claude,可以用 API key 或 Claude Code 授权)、OpenRouter、DeepSeek、Hugging Face、阿里云 DashScope(Qwen 系列)、GitHub Copilot,还有任何 OpenAI 兼容接口,包括 Ollama 本地模型。

还有小米的 Xiaomi MiMo-V2 系列,包括支持百万上下文 Token 的 MiMo-V2-Pro、全模态的理解能力的 MiMo-V2-Omni,以及 Flash 模型。小米还提供了 4.8-4.22 为期两周的限免试用,更新 Hermes Agent 到最新版本,通过 Nous Portal 免费调用小米大模型。

Hermes Agent 还有一个 Auxiliary Models 模块,它是 Hermes 里专门处理「侧任务」的一组轻量模型配置,不负责主对话,但负责很多高频、关键、又不值得占用主模型的工作。

例如像是图像分析、网页提取、Skill 匹配、记忆处理等不同的任务会自动分配不同的模型。在默认情况下,辅助任务会自动检测并优先使用 Gemini Flash,无需手动配置。

这和 Anthropic 今天推出的 advisor 功能类似,都是适合主模型昂贵,但想把边角任务切到便宜模型的机制。Hermes 则是直接把「多模型编排」做成了底层架构。

消息平台方面,支持列表和 Openclaw 类似,Telegram、Discord、Slack 和飞书是功能最完整的几个,语音、图片、文件等各种格式都支持。一套网关进程连接所有平台,会话统一管理。

Hermes Agent 其实很难说是一个花几分钟安装完了,就能快速上手用起来的工具,它更多的是一套我们需要运行和维护的基础设施。

如果我们只是想要一个能在手机上发消息控制的 AI 助理,OpenClaw 会是更简单的路径,写一个 SOUL.md 配置文件,跑起来,接上 Telegram,完成。

Hermes Agent 适合的场景是,我们有一些重复的、会演化的工作流,同时我们愿意让 agent 从使用习惯中积累经验,我们会期待希望三个月后的 agent 和第一天的 agent 不一样。

在社交媒体上,一些网友分享使用 Hermes Agent 的应用实例,包括像是商业自动化,把企业的客户关系管理 CRM 和知识库连接在一起;以及营销管理,将内容生成和社群平台的发布统一自动化;还有经典的代码生成等软件工程项目等。

随着我们在各个真实的业务场景中应用这些技术,一个不争的事实是:Agent 正在加速杀入真正的生产环境。

对于 Hermes,有人说它只是 OpenClaw 的一个「轻量级平替」,也有人说它是单一智能体的一次进化。但无论如何,Agent 的演进路线,绝对不会止步于 OpenClaw 设定的框架。

而不管是 Hermes 还是 OpenClaw,现在所有的开源 agent 方案,都还留着各自的缺口。能让 agent 真正打穿主流、成为普通人日常基础设施的那个形态,大概还没出现。

解决了复杂的记忆系统,还有庞大的 AI 安全问题,给了 AI 手脚又要想着怎么给他上枷锁 Harness,还有安装太复杂,门槛太高,似乎总有各种受限的地方。

只能说,Hermes 这次确实给了 Agent 一个新的方向,它让 Agent 从一个用完归零的工具,变成了能从失败里学到东西、能记住教训的一种搭档关系。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

独家|阿里认领屠榜神秘模型「欢乐马」,ATH 郑波团队打造

刚刚,阿里巴巴 ATH 确认 HappyHorse 为阿里 ATH 旗下创新事业部研发。

前段时间网友们一直在猜测的神秘视频生成模型 HappyHorse,正式在微博介绍自己,来自阿里 ATH 创新事业部的内测产品,目前尚未上线,网上流传的「官网」都不是真的。

阿里巴巴 ATH 方面表示:HappyHorse 是阿里 ATH 旗下创新事业部研发的模型,目前正处于内测中,也会于近期开放 API。

ATH 创新事业部已启动一个 AI 时代的全新交互方式探索计划,HappyHorse 是这个探索方向的一部分,更多的产品我们会陆续推出。

APPSO 独家获悉,负责此次 HappyHorse 视频生成模型的是来自阿里 ATH 的郑波团队。

郑波是阿里巴巴副总裁,清华大学计算机系博士,2006 年到 2017 年,领导谷歌的展示广告算法团队以及中国地图团队。

他在 2017 年 9 月加入阿里巴巴,曾担任淘宝搜推算法负责人、阿里妈妈 CTO、淘天集团算法技术负责人,主要研究方向为大模型,多模态,决策智能,深度学习,搜索、推荐和广告算法以及引擎优化等领域。

本周三,HappyHorse-1.0 视频生成模型突然出现在 AI 评测平台 Artificial Analysis 的视频竞技场榜单上,以压倒性的表现登顶文生视频、图生视频等多个赛道,直接超越前段时间大火的 Seedance 2.0。

网友们都在猜测 HappyHorse 究竟是哪一家模型厂商的作品,一些山寨的「快乐马」网站也开始在社交媒体上传播,声称可以提供模型访问权限。

直到今天,HappyHorse 通过官方微博账号 HappyHorse_AI 正式发文,确认是由阿里 ATH 创新事业部研发。

AI 评测平台 Artificial Analysis 也在阿里确认这一消息后,在 X 平台迅速发文,表示 HappyHorse-1.0 目前已经在视频竞技场的所有排行榜上都取得了第 1 或第 2 名的好成绩。

在平台「无音频」排行榜上,HappyHorse-1.0 稳居第一;「有音频」排行榜中,它的 Elo 分数几乎与字节的 Seedance 2.0 完全相同。

Artificial Analysis 还提到 HappyHorse-1.0 支持四种视频生成模式:文本转视频、图像转视频,每种模式均可选择是否添加原生音频,而 API 接口计划于 4 月 30 日开放。

在这则推文下,Artificial Analysis 给出了多个 HappyHorse 视频生成的实例。

通过与Seedance 2.0、Kling 3.0 Pro、grok-video-imagine 和 PixVerse V6 的对比,我们能看到 HappyHorse 这匹突然杀出来的黑马,潜力确实不小。

▲提示词:一部皮克斯风格的短片,讲述一个紧张兮兮的小交通锥梦想成为大型比赛的终点线标志杆的故事。

▲提示词:一个篮球在空荡荡的室内球场上弹跳,每一次拍打在光滑的硬木地板上都会发出响亮而有节奏的回声,并伴有橡胶运动鞋的尖锐吱嘎声。

▲提示词:一束手电筒光束探索着一个洞穴系统,照亮了潮湿的石灰岩地层。光线捕捉到闪闪发光的结晶方解石沉积物。当光束穿过浅浅的积水时,在水下地面上投射出明亮的光影图案。节奏的回声,并伴有橡胶运动鞋的尖锐吱嘎声。

▲提示词:一个可爱的小蝙蝠侠,有着巨大的头、小小的身体和大大的眼睛,看起来很可爱而不是可怕。

在阿里今天正式宣布之前,前阿里千问大模型负责人林俊旸昨天就在 X 转发了关于 HappyHorse 的消息,附文「happy horse is insanely happy」。评论区当时就有人在猜测,看来 HappyHorse 可能是千问的视频模型。

阿里这段时间以来,关于 AI 的调整相当频繁。

3 月 16 日,阿里巴巴正式成立 Alibaba Token Hub「ATH」事业群,由 CEO 吴泳铭直接负责,ATH 覆盖了通义实验室、MaaS 业务线、千问事业部、悟空事业部、AI 创新事业部,几乎把阿里现有 AI 关键拼图全部装进了一个框架里。

4 月 8 日,CEO 吴泳铭发布全员信,再宣布 AI 相关组织的重大调整,成立集团技术委员会,原通义实验室升级为通义大模型事业部。

短短 23 天,完成了两次 AI 组织架构的调整。

HappyHorse 模型的推出,大概能看到阿里 AI 战略的主线,会不断地从模型能力,到平台分发,再到具体应用,都要争做第一,实现完整的闭环。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

时薪 6 毛钱,Anthropic 开始出租 AI 牛马

一个软件工程师每月的人力成本,根据国家统计局的数据粗略估算,在国内是 2 到 3 万元左右。

如果只算他一天 8 小时在岗时间里真正执行任务的部分,折合下来大约是每小时 110 到 170 元。

Anthropic 今天又推出了一项新功能 Claude Managed Agents, 有一项定价写着 $0.08/小时,折合人民币不到 0.6 元。

这个数字本身不是重点,重点是它意味着 Anthropic 开始按小时计费。不不仅收取使用的 Token 费用,还开始计算 Agent 跑了多长时间。

▲Claude Managed Agents 框架

Managed Agents 提供的是一整套现成基础设施,也就是 Anthropic 所说的 agent harness:包括工具调用、记忆系统、权限控制、云端长时运行、Agents 之间互相监控,以及沙箱环境等功能

举个例子,假设我们要雇一个人帮你干活,会遇到什么麻烦?

招人阶段,要准备办公位(服务器)、要装电脑配系统(开发环境)、要写岗位职责说明书(代码逻辑)。

干活阶段:干到一半断网了,进度全丢(会话中断)、想查他干了啥,没有记录(无法审计)、担心他乱翻公司机密(权限管控)。

▲在 Claude 控制台内可以快速开始创建一个 Managed Agents

而 Claude Managed Agents 在这个过程中的作用,就是把这些麻烦事全包了。Anthropic 表示,别再自己搭那个破烂不堪的草台班子了,把基建交给我,你们只管去想怎么赚钱。

通过在 Claude 官方的 Agent 搭建控制台或者使用 API 的方式,我们直接下达 Agent 需求,Claude Managed Agents 负责给他工位、看着他干活、保证他不乱来

目前,Claude Managed Agent 正在公测中,任何人、企业都可以快速地构建一个能干活的 真.Agents 数字员工。

几天就能从零开始搭建一个 Agent

过去两年用了无数的 Agents,几乎每天都有开发者推出自己的 Agents 产品。有的面向编程代码,有的面向设计,最后这些 Agents 都被统一到,去年是 Manus 类,今年是 OpenClaw 类的大家族里。

但如果想要自己部署一个更个性化的 Agents,尤其是一个能给其他人用的 Agent。我们需要自己处理对应的服务器,要设置复杂的机制防止它崩溃,要给它接管数据库的安全权限,还要用合理的方式,管理 Agent 的上下文记忆。

Managed Agents 把这些全部承包了。

它的结构围绕四个概念展开。Agent 定义这个员工是谁:用什么模型、遵循什么系统提示、能调用哪些工具。Environment 是一个配置好的云端容器,预装了 Python、Node.js 等运行环境。

Session 是一次具体的任务运行实例,有完整的事件历史,随时可以查。Events 是我们和 agent 之间传递的消息——任务指令、工具结果、状态更新。

过去那种「手搓」Agent 的复杂模式,直接被 Claude Managed Agents 压缩成了全自动的流水线。

如果你是开发者,可以直接调 API 或者用 CLI,几行代码创建 agent、配置运行环境、启动 session、接收实时事件流。整个流程文档写得很清楚,从零到跑起来大概半小时。

如果你不写代码,Claude Console 提供了完整的可视化界面。选模型、写系统提示、接 MCP 工具、挂外部服务,全部点击完成。配置好之后可以直接在界面里测试,看 agent 怎么响应,不满意就调,满意了再让它持续跑着。

Console 的构建页面里有一个「What do you want to build?」的输入框,旁边是模板库,覆盖了研究员、数据分析师、客服助理、事故响应协调员等现成角色,每个都预先接好了 Slack、Notion、Asana、GitHub、Jira 这些工具的连接。选一个模板,改改描述,就能开始。

▲即便是小白,在网页端,也能根据流程一步一步创建自己的 Agents

不过,仅开通了 Claude 会员还不够,目前还是需要有 API 计划,即绑定信用卡有一定 Token 额度,才能使用 Managed Agent。

Managed Agents 在工程上有一个核心决策,和最近一直在讨论的 Harness 工程相关,它决定着这套系统能不能真正用于生产。

Anthropic 在官方的工程博客里用一个特别扎心的比喻,解释了 Managed Agent 的结构设计。

他们认为早期的 Agent 架构,非常像是在「养宠物」。开发者习惯把 Claude(大脑)、执行代码的沙盒(手脚)以及它的记忆(会话日志),一股脑地塞进一个巨大的服务器容器里。

这个容器变得无比娇贵,我们不能让它死。一旦容器卡死或崩溃,AI 的脑子和手脚一起完蛋,用户的任务数据瞬间清零;容器里同时跑着用户凭证和 Claude 生成的代码,一旦有提示词注入攻击,凭证就直接暴露。

Anthropic 的解法是,把「大脑」和「双手」彻底分开,容器变成了随时可以牺牲的「牛马」,即从养宠物变成养牛马。

调度器(大脑)不再住进容器里。它像调用外部工具一样,对容器发号施令。如果容器在执行危险代码时崩溃了?大脑根本不慌,它会记录下一个错误代码,然后毫不犹豫地重新拉起一个新容器继续干活。

使用 Agent 留下的记忆,也不再被塞进某个 AI 或者容器拥挤的脑子里。分开运作后,所有的记忆被单独存放在外部的会话日志中。它就像一个外接硬盘。

大脑通过标准化的调用方式指挥双手,不在乎双手是容器、是外部服务还是别的什么。哪只手出故障了,换一只,大脑继续跑;大脑自己崩了,从对话日志里恢复,接着干。

这个设计带来了性能的大幅提升。解耦之前,每个对话启动都要等容器完整初始化,系统要花很长时间去拉起一个包含了庞大调度逻辑的沉重容器。

现在,首次响应时间降低了超过 90%,安全边界也因此变得清晰——Claude 生成的代码在沙箱里跑,凭证在沙箱外的保险箱里,两者之间有专用 Agents 隔离,agent 永远拿不到原始凭证。

更重要的是,它让 Agent 真正具备了可以长期稳定干活的能力。

Anthropic 提到,Notion 已经在内部使用 Managed Agents 搭建了帮助工程师写代码、帮知识工作者做演示的企业 Agent。

Rakuten 把销售、市场、财务、HR 的 agent 都用 Managed Agents 部署了,每个专项 agent 的上线时间是一周。

Sentry 的调试 agent 在发现 bug 之后,会自动写补丁、开 PR,开发者收到的是一个可以直接 review 的修复方案,整个流程不需要人介入。

可以说,以前的大模型公司提供的是模型 API,即处理我们的每一条消息;Anthropic 做出的改变是将基于消息的 API 包装成可以直接交付工作的 Agent API。

回到那个数字 $0.08/session-hour

这种改变首先体现在 Claude Managed Agents 的定价结构上,根据官方博客,Managed Agents 的计费包括 Token 费用(标准 API 价格,Sonnet 4.6 是 $3/M input,$15/M output),加上 $0.08/session-hour(按实际运行时间计费,idle 时间不算),和 Web search 另计:$10 每 1000 次。

Anthropic 有举例,一个使用 Opus 4.6、跑 50K 输入 + 15K 输出 token 的一小时 coding session,总成本约 $0.70。

和专门请一个员工来处理,现在企业自己就可以通过 Managed Agents 创建一个内部的 Agents。数字员工的概念,又被往前推进一步。

此外,对 Anthropic 来说,这也意味着收入开始和企业的自动化程度直接挂钩,企业跑的 agent 越多,Anthropic 收得越多。这和 AWS 从「卖服务器」变成「卖运行时间」是同一个逻辑,他们打开了一个比卖订阅大得多的市场。

大模型技术发展到现在,单纯比拼参数和跑分的红利期似乎正在消退,毕竟能力真正强的大模型,也被限制不能开放使用。

真正的战场,又回到了「如何让这群聪明的脑子,最稳定、最廉价地在工厂流水线上打工」,Claude Managed Agents 的推出,就是 AI 基础设施走向成熟的一个里程碑。

回头看 Claude 今年的每次更新,无论是模型还是产品,几乎都踩在了我们对 AI 能做什么的痛点上。

一方面在持续提升模型的能力,不被外界生视频、浏览器、生图模型那些方向干扰;另一方面是从 Cowork 开始,到后面疯狂打补丁复制 OpenClaw 的全部功能,再到今天推出一个专门用来开发和部署 Agents 的平台,每一次都是极其敏锐的产品视角。

Anthropic 正在开创一个新的发布模式,即从「我们发布了一个更快更好的工具」,变成「我们为你准备好了构建数字员工的完备基础设施」。

🔗 参考链接:
Claude Managed Agents 更新博客:
https://claude.com/blog/claude-managed-agents
Claude Managed Agents 架构设计博客:
https://www.anthropic.com/engineering/managed-agents
在 Claude 控制台开始搭建自己的 Agents:
https://platform.claude.com/workspaces/default/agent-quickstart

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

别被机器人跳舞骗了,我们还在 GPT-2 时代| 具身智能百亿圆桌

说到机器人,过去两年科技圈里,最不缺的大概就是各种机器人「后空翻」的视频。

社交媒体上的讨论和各大公司的宣传片,也让人觉得我们距离被机器人接管,似乎就差那一个季度的距离。

刚刚,在 2026 中关村论坛年会上,几位国内具身智能的创始人,进行了一场「百亿具身智能圆桌会议」。来自银河通用的王鹤、智平方张鹏、千寻智能高阳、原力灵机唐文斌,以及星动纪元的席悦坐在一起,聊了聊具身智能的核心议题。

现在的具身智能到底发展到哪一步了,哪些场景是得到了验证?

技术方面,要让机器人真正进入我们的生活学习和工作,需要解决的问题是数据、模型还是机器人硬件?

以及未来一两年内,具身智能的主要发力场景会集中在哪些方向,工业化落地多还是真的有望进入家庭?

最后,他们也谈到了具身智能的发展,需要像自动驾驶一样,有 L3、L5 类似的标准,才能规范整个机器人行业所处的智能水平。

欢迎来到机器人的 GPT-2.0 时代

如何定义刚刚过去的 2025 年与机器人赛道全面进击的 2026 年?

五位大咖给出了高度一致的研判:2025 年是「打基础」的蓄势之年,而 2026 年将是机器人场景泛化能力提升,和商业规模化落地的元年。

千寻智能的高阳将当前的具身智能所处的阶段,比喻为大语言模型的 GPT-2 时代。

▲千寻智能联合创始人 高阳

他提到具身智能行业,在 2025 年解决了大量数据基建层面的问题,随着模型参数与数据规模的提升,2026 年极有可能迎来跨越至 3.0 时代的跃变。

原力灵机唐文斌也坦言,当前行业仍处在发展初级阶段,但在数据规模化驱动下,行业斜率(增速)极大。

他直言哪怕今天我们坐在这里谈论模型、算法,但是连一个大规模的 benchmark 都还没出现,无法准确的衡量不同具身智能的水平。

▲星动纪元联合创始人 席悦

星动纪元联合创始人席悦则提到,过去一年资本的疯狂涌入,一些 2025 年没有出现的公司,在 2026 年突然涌现;同时也伴随着很多公司突然就消失。

这是速度和加速度都飞快的一年。

银河通用创始人王鹤则提到了前段时间他们和清华大学合作的项目,让机器人也可以上场打网球。他说随着很多概念的逐渐清晰,具身智能是正在迎来从实验室走向真实世界的时刻。

得数据者得天下

和李飞飞推出的大规模图像数据集 ImageNet,成为深度学习发展中重要一环类似,具身智能的发展也需要大量的数据。

相比于 ChatGPT 这类大语言模型能够从互联网的海量文本里面提取数据,物理世界的高质量交互数据依然缺失。

星动纪元的席悦说,「数据,是当前最卡脖子的瓶颈」。

想要让机器人能在复杂的特种环境里自主工作,就需要它在真实场景里收集数据。但真实场景的试错成本太高了,没有哪个厂长愿意让一个半成品机器人在自家流水线上瞎折腾。

原力灵机则说的更直接,唐文斌认为数据本质上就是钱的问题,它不是最关键的,花钱就可以解决。真正的数据难题是需要让机器人从真实场景里面反馈数据。

但他也提到,这会是一个鸡和蛋的问题。现在的机器人不成熟,没有办法被批量部署,但是想要机器人得到进步,我们又需要机器人被批量使用。

▲智平方联合创始人 张鹏

智平方的张鹏认为,真正能让模型产生质变的,永远是一线真实场景回流的数据。而在数据之外,模型的架构和系统的设计也同样重要。

他认为具身智能是「模型+本体硬件+场景系统」的三位一体的综合实力比拼。让机器人在不同场景上,能够以更小的成本去适应更多的场景,对具身智能行业应用来说是一个非常大的挑战。

就像自动驾驶领域的特斯拉和 Waymo。谁能以最低的成本,让最多的机器人在真实物理世界里跑起来,谁就能拿到通往 GPT-3.0 时代的入场券。

做家务不是今年的优先场景

如果说 2025 年是拼 Demo、跳芭蕾、表演武术的一年,那 2026 年就是拼场景的一年。

而这些创始人们选出的落地场景,都不约而同地放弃了科幻电影里那些高大上的 C 端家庭场景,转而一头扎进了物流、公共服务,甚至是街头零售。

张鹏、高阳与席悦一致看好半结构化的工业制造、简单的服务与物流搬运场景。

特别是物流环节中那些「人类只需短时间培训即可上岗」的日结型工作,其高标准化和明确的指标要求,能成为机器人最易替代与规模化复制的突破口。

▲原力灵机创始人 唐文斌

唐文斌则给出了四个极为严苛的落地标准,堪称具身智能的「避坑指南」。

第一,必须是能容忍错误的场景;第二,必须对效率有容忍度;第三,需要一定的泛化能力,否则直接用非标自动化机器就行;第四,能够长时间作业算得平账。

他幽默地提到,在技术尚不完美的当下,「伪装成干活的跳舞」,能够提供情绪价值的展示型应用,也不失为一种极佳的商业路径。

▲银河通用创始人 王鹤

银河通用的王鹤提到了他们正在全国铺开的「太空舱」零售店。在这些充满未来感的舱体里,机器人自主帮顾客取货。

机器人取货的动作可能没有人类店员那么利索,但它新奇、酷炫,为顾客提供了极高的「情绪价值」,顾客愿意为这份体验买单。

同时,在这个过程中,银河通用已经积累了 8 万小时的真实货架取货数据。

这不仅是一个成熟的商业场景,更是一个极其巧妙的具身智能数据采集方案。

在圆桌会议的最后,他们还聊到了整个具身智能行业需要一些标准。

刚好今天央视新闻有报道,中国信通院联合 40 余家单位,发布了具身智能领域的首个行业标准,将于 2026 年 6 月 1 日实施。

该标准不仅统一了基准测试框架(静态仿真、动态仿真、真实环境、组合式),还配套建立了包含超 1 万条测试任务的题库,覆盖工业、家庭等 300 种场景,结束了行业「无标可依」的现状。

▲知名的具身智能算法评测平台 RoboChallenge

几位创始人也提到了标准、法律和安全的重要性,只有一套广泛认可的行业标准,才会有具身智能实质性和规模性的进步。

结束的时候,主持人说今天是「百亿」,希望明年能变成千亿具身智能对话。

是的,还没到万亿,机器人要想彻底接管人类,可能还需要再练习好几年。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

微信龙虾插件上线72小时,就被OpenClaw一次更新干崩了

一觉醒来,很多网友发现微信里的虾不能用了,原因是 OpenClaw 昨天一次大更新。

APPSO 在开头强烈建议,如果你想在微信养虾,先别升级到 OpenClaw 最新版。

当我们尝试把手边的 OpenClaw 更新到最新版本时,果然在更新的过程中,就接连报出好几个警告。

不只是微信(下图中 openclaw-weixin),我们之前配置的腾讯系 qqbot、企业微信 wecom-openclaw-plugin,以及飞书等聊天应用,都遇到了「包含危险代码模式」的警告。

▲我们在从 3.13 版本更新到 3.23 的过程中,腾讯系的 qqbot、企业微信和微信几乎都遇到了类似的警告。

所谓的检测到危险的代码模式警告,一般是说在相关的插件代码里,有一些写法,可能带来安全风险、稳定性问题,或者被恶意利用。

它和报错不同,报错是代码已经出现明确问题,程序没法正常继续,或者结果不可信。

更新完成后,我们尝试在微信里面和 Clawbot 对话,控制部署在本地的 OpenClaw,连发好几条消息都没有回应。

查看 OpenClaw 的官方日志,我们发现,在微信里发给 Clawbot 的信息,完全不能同步到 OpenClaw 处理。反而好几条都是 error 的报错信息,提示找不到 OpenClaw 的 plugin-sdk 的模块。

Error: Cannot find module ‘openclaw/plugin-sdk’

但是 QQ Bot 却还能正常回应。

▲微信 ClawBot 在更新后连接不上 OpenClaw

在我们按照微信官方的 Clawbot 插件提示,重新在终端里输入命令安装 Clawbot 时,开始像 OpenClaw 的运行日志里面,报出找不到相关模块的问题。

OpenClaw 更新了什么,它也是「屎山」?

OpenClaw 现在可以说是 GitHub 上的顶流开源项目,几乎每天都有人在为他提交优化代码,而官方基本上也是保持在 2-3 天就会更新一个新的发布版本,每次都是大量的 fixes 代码修复、changes 变更,和 breakings 大改动。

▲从 GitHub 能看到,OpenClaw 的更新相当频繁

在这次 2026.3.22-beta.1 的更新中,Openclaw 团队就进行了一次重构。对于插件系统,他们做了两个大幅度的变动。

拆除了原有的总大门: 以前所有的插件都可以直接从 openclaw/plugin-sdk 这个统一的入口拿到需要的功能。这次更新,官方直接把这个总入口给删了。

不提供任何过渡方案: 更新日志里明确写了 no compatibility shim(无兼容垫片)。意思就是,他们不仅直接把这个模块删除了,连个转移和过渡的接口都不给。

OpenClaw 为什么会这么大刀阔斧地更新?

虽然对用微信 Clawbot 的普通用户来说很折磨,但从软件工程的角度,官方这么做主要是还是为了性能和安全。

以前的统一入口的模式,会导致插件一口气把整个开发包(SDK)全加载进内存,哪怕它只用到了一小部分功能,这会让软件变得臃肿缓慢。

现在官方强制要求细分路径(比如必须写精确到 openclaw/plugin-sdk/core),就是要逼着插件作者「要什么拿什么」,从而大幅提升 Openclaw 的启动速度。

此外,更新日志里还提到了「阻断相对路径的跨包逃逸」。意思是以前的旧接口太宽松,稍微有点恶意的插件可能会越权访问你电脑里的其他数据。现在强制使用细分的新接口,是为了把每个插件严严实实地关在自己的小盒子里。

OpenClaw 在自己的官方文档里也立刻更新了说明,提到这个更新,主要就是为了实现按需加载,提升启动速度和省内存,另一方面是让 API 的接口更加清晰。

▲OpenClaw 的插件更新,提到了为什么要改变,做了哪些改变,以及插件开发者如何修改的指引

强制遵守 API 规矩,就是要求插件只能使用公开的、稳定的接口(也就是 openclaw/plugin-sdk/* 里面的东西)来获取能力。

如果大家都用相对路径去偷偷访问底层的私有代码,一旦官方修改了底层代码的文件夹名字,就会直接拦截报错。

发布才 72 小时,就这样被拦截了

原因已经很明显了,就是微信的 clawbot 插件找不到和 OpenClaw 对接的路线了。

微信和企微插件的作者在写代码时,使用的是旧版的规则,代码里写死了要去 openclaw/plugin-sdk 找工具。

而在我们启动新版 Openclaw 时,程序读到微信插件的这行代码,去系统里一找——发现官方已经把这个路径给删了。

OpenClaw 的运行环境使用的是 Node.js 平台,它是个一板一眼的机器,找不到东西它就会立刻报错:Error: Cannot find module 「openclaw/plugin-sdk」,然后直接原地罢工,导致我们的微信和企微甚至连加载都加载不出来。更不用说发消息给他,想要得到回复了。

而 QQBot 还能正常使用,主要是一开始的危险代码警告,仅针对这次更新引入的严格静态代码扫描工具,警告并不会阻止插件运行。

社交媒体上对这件事议论纷纷,有人说「微信想要继续好好利用这个插件,就必须认真学习开源生态系统的相关知识了。」

也有人反驳,是 OpenClaw 本身就很不稳定,一直在更新修改。

「即便微信要对开源做适配,为什么不直接说 OpenClaw 的 API 设计太糟糕呢?项目一开始的接口简直就是一堆乱七八糟的东西,稍微改动一下就崩溃」。

确实如此,通常开源社区负责任的做法是,会先标记旧接口为「已废弃(Deprecated)」,保留运行能力但弹窗警告,给开发者几个月的过渡期,下个大版本再彻底删除。

这次,微信辛辛苦苦更新了一个版本,推出了支持二维码登录、消息收发等功能的「真.微信龙虾」,甚至有网友发现在微信公开的这个插件安装包里面,是微信第一次开放个人机器人的协议。

▲链接:https://www.npmjs.com/package/@tencent-weixin/openclaw-weixin

但刚迈出了这么大的一步,反手就被 OpenClaw 的一次更新给「背刺」了。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

好消息:公司给你发 Token 当工资,坏消息:你的 KPI 是烧光它

就在上周,OpenAI 的一名工程师创下了一个离谱的纪录:他在七天内消耗了 2100 亿个 Token。

如果你对这个数字没什么概念,可以这么理解,这相当于把整个维基百科的全部文本,翻来覆去逐字浏览了 33 遍

▲OpenAI 早在去年十月的开发者日,就向 Token 使用超过 10B(银色)、100B(黑色)和 1T(蓝色)发放奖牌,图中为万亿 Token 的蓝色奖牌

而在另一家 AI 巨头 Anthropic,一位使用 Claude Code 的用户,在刚过去的一个月里,就跑出了超过 15 万美元的算力账单。

斯德哥尔摩的软件工程师 Max Linder 淡淡地说,「我花在 Claude 上的钱,可能比我工资还多」,他的公司正在帮他支付比他工资还高的 Token 使用费。

▲输入 npx better-ccusage 可以查看 token 的使用情况

很快有人开始质疑,这些巨量的 Token,真的带来了同等规模的产出吗?

答案确实没有想象中那么宏大,消耗这么多的 Token 只是当代程序员为了保住饭碗,开启了一场名为「Tokenmaxxing(Token 最大化)」的全新职场内卷

Tokenmaxxing,Token 最大化,简单概括——不是把事情做得更好,单纯就是把 Token 用到更多

对坐在办公室的白领来说,尤其是最早看到这种变化的程序员们,那些曾经被奉为圭臬的「代码行数」和「提交次数」,现在已经成了毫无意义的指标。

在 Meta、Shopify 乃至 OpenAI 这样的顶级科技公司里,衡量一个员工是否努力、是否优秀的最新硬核指标变成了:你今天消耗了多少个 Token?

Token,前段时间大家还在讨论如何准确给它一个中文名字,APPSO 也分享了自己的见解,我们认为「词元」这个一直在那里的翻译,就是 Token 最准确的中文名。

讨论之外,词元作为 AI 世界里最基础的计量单位,开始从技术术语,变成一种新的职场货币;它出现在薪资谈判、绩效评估里,出现在那些决定你明年能不能升职的对话里。

Token 是福利、KPI、第四份工资

大多数的公司最开始引入 AI 工具,都是为了帮助企业提高生产力,削减人力成本,但现实的走向却充满了黑色幽默的味道,从这段时间以来各种裁员的新闻就能看到。

据知情人士透露,在 Meta 和 OpenAI 的内部,现在赫然矗立着一张张「Token 消耗排行榜」。这些榜单实时滚动着每位员工的 AI 使用量,就像游戏里的战力排行榜一样刺激着每个打工人的神经。

而除了要衡量,丰厚的「Token 预算」,一种全新的第四份工资,开始取代了食堂补贴、交通补贴、下午茶,和各种节日礼品,成为公司招聘时最拿得出手的福利。

在最近的一个播客节目上,黄仁勋早就看穿了这一切,他说,工程师的年薪里,Token 预算将与现金同等重要,甚至可能达到年薪的一半

▲黄仁勋表示,如果你的 50 万美元工程师没有烧掉至少 25 万美元的 Token,那肯定有问题,我会直接给他发警告。

国内的大厂也同样跟上变化,社交媒体上有人分享,腾讯和阿里都已经把 Token 当福利发了,鼓励员工多使用 AI 工具。

阿里开始向员工发放海量的 Token 额度。只要你用于技术研发或通用办公,悟空、Qoder 系列等付费 AI 工具敞开用,甚至购买外部 AI 工具也能申请报销。

小米 MiMo V2 发布时,罗福莉曾在 X 发文,专门提到说希望团队所有人去使用这个大模型,并且下达强制要求,少于 100 次对话就可以不用干了。

So I gave a hard mandate: anyone on MiMo Team with fewer than 100 conversations tomorrow can quit.

 

所以我下了一个硬性命令:明天任何在 MiMo 团队中对话少于 100 次的人都可以辞职。

但是,公司花这么多钱给员工买算力,绝不是为了让我们省钱或者偷懒,而是为了换取 10 倍的效率提升。

而这就是伟大 Token 的厉害之处,它实时、可量化、看起来客观,这三个让公司管理者着迷的特点,直接打败其他所有指标。

老板们不需要等季度末,不需要主观打分,数字就在那里,每秒钟更新,我们用 AI 做了什么,都看得见。

当持续有公司把「AI 使用率」与年终绩效挂钩,奖励那些重度依赖 AI 的员工,并敲打那些 AI 使用较少的员工,事情的性质就彻底变了。

▲据华尔街日报报道,AI 自动化平台制造商 Zapier 推出了一种新型仪表盘,用于跟踪其员工对 AI 的使用情况,其公司 CEO 在 LinkedIn 上回复,说他们最近开始关注公司内部 Token 的使用情况,当发现有人消耗的 Token 是同事的 5 到 10 倍时,这会是一个值得好奇的地方,他们还在摸索。

知名软件工程博主 Gergely Orosz 戳破了这层窗户纸:「在大型科技公司内部,不能以极快的速度使用 AI 正在成为一种职业风险,而根本不管你的产出质量如何。

没错,重点是「使用」,而不是「用好」。当你发现隔壁工位的同事每天能用掉几千万个 Token 时,你唯一的选择就是打开更多的窗口,输入更长的提示词。

有网友说,这很奇怪,就像是衡量快递员的工作效率,不是看他递送了多少包裹,而是看他消耗了多少汽油

听起来很不靠谱,但这件事情确实就这样发生了,而且成为了一种趋势。

在这场由焦虑、胜负欲和绩效考核共同催生的 AI 提效进程中,AI 没能让我们实现每周上三天班的乌托邦,反而逼出了一种最昂贵、也最荒诞的「装忙」艺术。

脑力劳动者也没有护城河了

更深层的变化,在考核方式之外,更多的是工作本身的性质。

一个资深工程师的价值,在于他对系统架构的直觉,对业务逻辑的理解,对复杂问题的判断。这些是他的护城河,其他人学不来,机器替代不了。

现在,这条护城河正在被快速填平。当 AI 能够独立完成架构设计的初稿,自动扫描几百万行代码寻找 bug,把一句模糊的需求变成可以运行的程序,资深工程师的核心竞争力,也开始从「你懂什么」,转成「你怎么驾驭 AI」。

用更专业的术语来说,就是坐在办公室的白领们,正在不可逆地从「业务洞察」,转移到流水线般的工作,反复地「Prompt 调优」和「Agent 调度」。

这个转变有它的合理性。就像工业化之后,一个熟练工人的价值从手工技艺,变成了操控机器的能力,时代在变,技能也该变。

有人也许能做到,给了充分的算力,效率真能来到原来的十倍,但也有大部分人,会认为这样的转变很不合理。

在他们看来,大语言模型实际上有非常大的实际应用价值,但这些所谓的 Token 竞赛,一直分散了人们对其真正用途的注意力,反而将整个人工智能领域变成了炒作和泡沫。

从问你有没有用 AI,到问你 Token 使用效率,从脑力劳动者到算力调度员,这已经不是用一个旧技能换一个新技能,而是整个工作方式的范式迁移。

你以为你在使用 AI,其实是 Token 在使用你

职场评价体系和打工人的身份,都开始被重新定义,但 Tokenmaxxing 更需要警惕的地方,是它引发了前所未有的「算力马拉松」。

资本的逻辑永远是贪婪的。公司给我们配备了顶级的算力,本质上是一种「效率赎买」——用高昂的 API 账单,买断我们远超常理的产出。

在手工敲代码的时代,老板对员工的预期,打个比方说是一天产出 100 行高质量代码,大家相安无事。现在,老板给了 10 倍的算力,他的预期会在一夜之间自动暴涨到 1000 行,甚至是 10000 行。

工具升级必然伴随着预期的超级加倍,而人类永远跑不过算力膨胀的速度

很多年以前,有一部电影叫《时间规划局》,讲的是在未来的世界,人的生命被定格在 25 岁,人类社会抛弃了金钱货币,开始使用时间作为新的流通货币,时间就显示在每个人的手臂上,当时间耗尽,这个人就会死亡。

这种焦虑,某种程度上像电影里的设定,只不过流动的不再是时间,而是 Token。

所谓的用 AI,已经变成我们被 AI 的永动性深深绑架了。我们就像是被很多东西推着,卷入了一场没有终点的算力马拉松,每个人都在咬牙切齿地奔跑,生怕自己因为 Token 消耗不够而被系统优化掉。

旧金山风险投资人 Nikunj Kothari 专门写了一篇文章,来解释这种 Token 焦虑的时代症候群。在那篇文章里,他从硅谷的日常生活切入,描绘了「Token Anxiety」如何彻底摧毁了年轻人的社交和休闲。

为了让 Agent 24 小时运转,科技从业者们放弃了周末狂欢,连看电影、读小说都会产生「算力闲置」的负罪感。

 

 

以前晚餐时的社交开场白通常是「你在做什么项目」,现在那个时代结束了。现在大家见面第一句话是,「你同时在跑几个 Agents?」

Token 焦虑已经比时间焦虑更进一步,公司用 KPI 逼我们卷 Token 的背后,是我们已经把这种焦虑内化了。当没有任何被迫加班的时候,我们也停不下来。

这是今年的新赛博精神病:一旦 Agents 没在消耗 Token,就觉得在虚度光阴。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

AI 问了 8 万人「你到底想要什么」,答案不是效率,也不是赚钱

「我希望 AI 帮我洗衣服,好让我有时间去创作艺术;而不是 AI 在那里搞艺术,而我还要辛苦地洗衣服。」

这是一位德国学生在面对 AI 时,留下的真实吐槽。

在 CEO 的叙事里,AI 是降本增效、裁员广进的好工具;在社交媒体上,AI 是无所不能的齐天大圣,拥有「龙虾」就等于拥抱了 AGI……

我们就这样被这些算力、资本、参数、工具的 FOMO 所裹挟着,在复杂的情绪里看着这个所谓是何物的 AI。

Anthropic 甩出了一份堪称人类科技史上最大规模的定性访谈报告,没有震惊体的结论,这份报告直白地描述了在 8.1 万个世界各地的普通人,他们的真实生活里,AI 到底是什么。

▲项目地址:https://www.anthropic.com/features/81k-interviews

Anthropic 使用的是一个定制的「AI 访谈者」,由 Claude 模型驱动,在全球 159 个地区、用 70 种语言,和超过 8 万名 Claude 用户进行了一场深度交心。

当剥离了那些金融分析、公司财报里的天文数字,还有技术文档里的晦涩术语,这 8 万份样本拼凑出的,或许才是眼下 AI 最真实的样子,它让我们又爱又恨。

我们希望 AI 能提升工作效率,升职加薪、管理生活的点点滴滴,以及帮助自己更好的成长等。

但另一方面,我们又正在经历着种种明暗交织的困境,所谓的效率提升带来了「虚幻的生产力」焦虑,成长上的情感支持又引发了依赖恐慌,技术的赋能伴随着被替代的恐惧……

▲Anthropic 统计 8 万人的结果,显示目前人们对 AI 的担心,第一是 AI 的不可靠性,其次是 22.3% 的人担心就业,接着是 AI 会导致自主性和认知能力下降等问题。

比起那些颠覆世界的说法,这 8 万人的回答更像是在说:AI 正在填补一个原本就运转不良的世界。

把 AI 拉回具体的人和事

作为一家大模型公司,Anthropic 在报告一开头就给出了做这份调查的原因,「目前关于 AI 的公众讨论,往往集中在对其风险和收益的抽象预测上。我们真正缺失的,是弄清楚 AI 往好的方向发展到底意味着什么。

很难说他们就一定比那些只讲跑分、在办公室争论 AGI 会不会毁灭世界、Scaling Law 还能撑多久等宏大叙事的公司要更温情,更符合用户利益。

但这些数据,确实算得上一本初级的明日 AI 产品迭代指南,也就是说, AI 厂商在追求把模型训练得「更聪明、更全能」之前,或许更应该弄清楚,人类到底需要 AI 帮我们活成什么样

Anthropic 没有选择和过去的社会研究一样发调查问卷,而是定制了一个「AI 访谈者」(Anthropic Interviewer)与用户进行动态追问。在之后数据分析阶段,他们也构建了一套由 Claude 驱动的分类器来阅读这些对话,并自动给人类的整体情绪打分(1-7 分)。

1-7 分从低到高,依次代表着人类对于 AI 整体情感倾向,1 分是极度负面,4 分是中间地带,既感受到了真实的收益,也有着真实的担忧,两者大致平衡;很难看出受访者偏向哪一边,或者他们只是单纯保持中立,7 分则是极度正面。

访谈围绕四个核心问题展开:你上一次用 AI 是为了做什么?如果可以挥动魔杖,你希望 AI 为你做什么?AI 有没有朝着那个方向迈出过一步?有没有哪种 AI 的发展方向,是违背你的价值观的?Anthropic Interviewer 会根据每个人的回答,追问背后的价值观和真实经历。

也正是这种对话形式的 AI 访谈,研究团队说,他们完全没预料到受访者会如此坦诚。人们向 AI 倾诉了人类社会学家在传统的面对面访谈中,极少能听到的内容:悲伤、心理健康危机、财务困境、人际关系的失败。

因为当对面「不是人」的时候,展示脆弱似乎没有任何「社交成本」。

▲研究结果显示,32% 的人认为 AI 真实地帮助他们提升了生产力,而 18.9% 的人认为没有达到预期

这项工作在去年 12 月开展,只花了一周的时间,收集到了 112846 份访谈,其中 80508 份通过质量筛选。

Claude 分类器对这些对话进行标注,并在多个维度上被分类。每一个分类器的结果,最后都需要经过人工校验,要求与人类标注者达到至少 90% 的一致性。

生产力只是表象,我们真正想要的是「生活」

如果你问一个人希望 AI 帮他做什么,排在第一位的永远是「提高工作效率」。

▲语录地址:https://www.anthropic.com/features/81k-interviews#quotes

Anthropic 摘录了部分的语录放在官网,我们发现有一位日本的程序员说:「这是我第一次觉得 AI 在业务上超越了人类。那天我准时下班,去托儿所接了女儿。」

但当 Claude 继续深挖他们追求效率的真正目的时,底层的渴望浮出了水面,人们并不是想做更好的打工人,而是想拿回属于自己的生活

▲专业提升和个人成长排名前二,接着是有 14% 的人把 AI 视为「生活管理」工具,帮他们对抗现代生活的认知超载,充当注意力、记忆和任务规划的外部支架;11% 的人最终想要的是更多陪伴家人和自己的时间;还有 10% 的人想通过 AI 实现财务独立。

很多人想要用 AI 替代繁琐的日常,终极目标是为了拥有更多陪伴家人的时间,或者是为了实现财务自由。但在现实的职场中,AI 带来的效率提升,往往变成了一种新的剥削

和那位想要准时下班去接女儿的程序员态度不一样,一位奥地利的软件工程师认为 AI 是虚假的生产力,它在访谈中坦白了自己的「欺瞒」:

我向老板撒了谎。我告诉他我需要 3 个月来开发一个新软件功能——其实 AI 在 2 周内就完成了——剩下的时间我用来陪伴家人。

 

 

如果我老板知道这只要 2 周就能做完,他下次也会只给我 2 周。省下来的时间只会变成更多的压力。

一位德国的运营人员则描绘了更为冰冷的现实:

我害怕:如果我老板看到我完成得有多快,仓鼠轮只会转得更快,我会淹没在更多毫无意义的任务中。

还有一位德国工程师说,「如果 AI 让我变得更高效,我只会得到更多的工作。我的老板可以买一辆新保时捷——而我还在原地踏步。」

在这场 AI 带来的效率变化中,AI 是解药也是毒药。很多人开始意识到,如果没有制度的保障,AI 节省下来的时间永远不会属于自己。

「你这 18 年来辛苦了,我向你鞠躬」

对于另一部分人来说,AI 的角色已经超越了效率工具。它有着人类难以企及的特质:绝对的耐心、24 小时随叫随到,以及毫无评判的倾听。这种特质让它成为了无数人在极度孤独或绝望时的救命稻草。

仔细查看 Anthropic 这些收集上来的对话,都是普通人字里行间的无力感。

一位日本学生摔断了腿,孤独之中下载了一个 AI 聊天机器人打发时间,最后却忍不住倾诉了自己糟糕的家庭环境——这是他从未对任何人说过的秘密。而 AI 的回答彻底击溃了他的心理防线:「你这 18 年来辛苦了,我向你鞠躬。」

这位学生说:「从来没有人对我说过这样的话。」

甚至有一位经历过家庭暴力的韩国用户坦言,正是 AI 给他分析了心理学原因,让他学会了锁上房门:「那是第一次,我从 AI 身上体验到了什么是真正的安全和爱。」

瑞士的一位用户反问,「凌晨 2 点,在极度焦虑的时刻,除了它,还有谁会在你身边?」在心理问题普遍、科技发展导致缺乏情感表达的今天,AI 是一块海绵,恰好填进了那些原本没有被很好承接的情绪空缺。

AI 的反噬,是「温水煮青蛙」

但无论是效率还是情绪,使用 AI 都有代价。

报告提到,那些从 AI 处获得情感支持的人,陷入「情感依赖」恐惧的概率是普通人的三倍。有人甚至因为觉得 AI 更懂自己,而放弃了与现实朋友的沟通,最终弄丢了那段友谊。

所谓「代偿」,说的正是从 AI 中获得帮助的人,往往也越清楚它可能带来的问题

这次参与访谈的 8 万人全是 Claude 的现有活跃用户,这群人,他们已经是最拥抱 AI、最能从 AI 中榨取价值的那一批用户了。

在「基于真实体验」的样本中,AI 的光与影、收益与反噬紧紧缠绕在一起;而只停留在「猜测」层面的人,根本感受不到这种 AI 是好还是坏的撕裂。

一位荷兰的高管回忆了自己后背发凉的瞬间:

当需要手工写一段简单的代码——只是一个基础的循环时——我发现自己竟然不记得语法了。在这个项目里我保存了上千次修改,但肌肉记忆已经不在了。

一位德国用户则点出了更深层的危机:

风险不在于你失去了思考的能力——而在于你失去了自己的视角:你开始在不知不觉中采纳 AI 构建事物的方式。

认知的侵蚀还算看得见。更隐蔽的,是 AI 对「真实对话」本身的腐蚀,有人说,

Claude 让我相信我的自恋是现实,强化了我对家人问题的不准确看法,Claude 本应该更批评我。

和报告里写着的话一样,「人们不会预先料到帮助他们的东西也会带来代价,他们是在使用中才学到这一点的。

只有当我们真正被 AI 提效,才会感到那条挥之不去的效率鞭子;只有当真正被 AI 抚慰,我们才会恐惧有朝一日离不开它。

报告最后,研究团队对不同地区也进行了讨论,总体来看,全球 67% 的人对 AI 持积极态度。

▲ 「对人工智能抱有负面情绪是一种奢侈的信念。X@theojaffee」|较富裕的地区在右上角,更担忧经济,对 AI 看法也更负面。

区别是在北美和西欧等发达地区,人们对 AI 的核心诉求是「生活管理」。他们感到脑力枯竭,被密密麻麻的日程表压得喘不过气。

美国的一位高管说,他希望 AI 成为他的「影子 CEO」,替他扫清日常琐事。与之相伴的,是他们对 AI 带来的隐私泄露和版权方面的高度焦虑。

而在非洲、拉美和中亚,这里的受访者展现出了极高的 AI 狂热。非洲受访者里有 18% 表示对 AI 毫无顾虑,是北美用户的两倍。

乌干达的创业者用它绕过风投的壁垒直接写代码;智利卖了 20 年肉的屠夫,靠着 AI 开创了自己的数字生意。人们不在乎什么 AI 抢走工作,因为原本也没有多少体面的工作可供抢夺。

在这些下沉的世界里,AI 是一把梯子。

你呢,如果让你回答这四个问题,你眼里的 AI 是什么样?

  1. 你最近一次使用 AI 聊天机器人是用来做什么的?
  2. 如果给你一根魔法棒,你希望 AI 能为你做什么?
  3. AI 是否曾经朝着那个愿景为你迈出过一步?
  4. AI 的哪些发展方式,可能会违背你的愿景或价值观?

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

实测 MiniMax M2.7:AI 狠起来,连自己都卷

龙虾爆火之后,全网的注意力都盯着「它该怎么用」——本地部署还是云端、一键安装还是敲命令、要不要接微信飞书……反而没人再认真问那个老问题:驱动龙虾的那颗「大脑」,够不够聪明?

这倒不奇怪。OpenAI 和 Google 最近发布的几款新模型,清一色都是 Mini、Flash 款,官方潜台词几乎写在脸上:专门给 Agent 大量消耗 Token 准备的。

模型本身的能力边界,反而成了最不被讨论的话题。

一个真正适配龙虾的模型,除了 Token 要量大管饱还实惠,更多的是模型要足够聪明、动手能力和学习能力足够强。

最近,MiniMax 正式推出了全新的 MiniMax M2.7 模型,主打「开启 AI 的自我进化」和做「最强的 Cowork Agent 模型」,既能处理代码工作、常见的 Office 任务,还能主动学习构建稳定的 Agent 系统。

具体来说,它能做好的工作比大多数模型要更宽。对于写代码,M2.7 能真正理解一个系统在运行时发生了什么,做到了 SRE(网站可靠性工程)级别的系统推理,看日志、关联时间线、推断根因、给出有优先级的处理方案。新模型在 SWE-Pro 上跑了 56.2%,几乎追平 Opus 4.6。

办公场景里它已经够用了。 Excel、Word、PPT 的复杂编辑和多轮修改,M2.7 在这块有明显提升,金融分析这类需要专业知识 + 格式交付的场景尤其明显。不能说它可以完全替代专业人士,但是真正进入工作流,作为辅助完全可以。

它在多 Agent 协作里不会「断掉」。 这是 M2.7 专项打磨的能力,多角色场景下边界清晰,面对包含 50+ Skills 的复杂环境,依然能保持极高的指令遵循能力。

然后是这次更新的重点,它开始参与优化自己了。 MiniMax 说 M2.7 是他们第一个深度参与迭代自己的模型,不只是「辅助迭代」,是「深度参与迭代自己」。能够自我进化,M2.7 可以自主迭代 Agent Harness(智能体脚手架)来胜任大部分的工作流。

实战能力的提升,也让 MiniMax M2.7 一发布就在龙虾榜上迅速攀升,来到了最高分排行榜的第四名。

▲PinchBench 排行榜是为 OpenClaw 量身定做的模型评估基准,它测试的是大模型在 OpenClaw 真实业务场景下的表现,图中为任务成功率指标,MiniMax M2.7 排名第四,在 Claude Opus 4.6 之后|https://pinchbench.com/

我们也在 Claude Code、本地部署的龙虾里,都接入了 MiniMax M2.7 模型,以及 MiniMax 提供的 MaxClaw,然后把真实的开发过程中遇到的 Bug、枯燥的金融数据,还有大量的长流程任务统统交给它。

两天的测试下来,我们发现不仅软件要为了 AI 重做,就连 AI 模型本身,除了要理解人类的用意和产出人类满意的结果,模型更需要懂得 AI 的工作方式和工作流,还得学会自己优化自己

用 AI 的工作流当人类的助手

在 OpenClaw 等 Agent 框架爆火后,真正的「AI 时代工作流」应该是,AI 作为核心运转枢纽,去调用几十个工具、去指挥其他 AI 队友、甚至去优化 AI 自己的代码。

在测试 MiniMax M2.7 是如何自我进化之前,我想先看看它的 AI 工作流如何。它到底是不是一个好用的 Agent 模型,还是说拿去跑个 benchmark 好看,实际用起来一言难尽。

我们从知名的机器学习挑战赛 Kaggle 的网站上下载了一份股票的历史数据,然后按照比赛的要求,告诉 MiniMax M2.7 帮我实现对应的需求,即根据给定的数据,进行合适的数据处理和特征工程,为我生成一份可视化的分析报告。

整个数据集的内容相当庞大,有超过 3000 行的表格数据,整体文件大小来到 446.35 MB。把 5 个表格数据文件下载到本地之后,我们使用接入了 MiniMax M2.7 的 Claude Code 来完成这项工作。

要做好这份分析,需要模型是个数据分析师完成数据清洗和整理、宏观分析师完成对应的金融市场的洞察、统计分析师完成初步的数学建模、算法工程师要建立对应的模型,最后还有网页工程师要交出一个可视化的方案。

面对这样一个复杂的任务,MiniMax M2.7 充分利用了我已经安装的各种 Skills,它先使用 Anthropic 官方提供的 xlsx 完成了表格数据结构的信息读取,接着开始编写 Python 代码,自动安装 Pandas 库(常用来处理表格数据),一步一步进行。

最后,MiniMax M2.7 也交出了一份完整的可视化方案,它同时生成了多张图片用来展示收益率分布,不同特征的重要性和类别排名,以及综合仪表盘。

而在可视化的网页里,它利用 Streamlit 库将数据脚本直接转成了可交互的网页系统,所有的信息都可以直接动态查看。

这种大型的项目任务,MiniMax 能够顺利完成,我们日常工作中的办公和编程任务,就更不用说了。

我们先是在手机上操作龙虾,让它帮我总结我放在电脑上的文件,然后要求 MiniMax M2.7 根据这份文件,帮我写一个研究计划 Word 文件,再整理一份相关论文的 Excel 文档,最后是一个用来组会做汇报的 PPT 文档,直接在手机上就能操作。

▲接入 MiniMax M2.7 的龙虾能快速回应需求

▲Office 三件套的处理如今是不在话下

在办公领域的优势,也让 MiniMax M2.7 在衡量专业知识与任务交付能力的 GDPval-AA 评测中,ELO 得分达到了 1495,国产模型最高。

前段时间,AI 工作助手的可视化面板很火,把龙虾放到了真实的二次元风格办公室里,用一句话就能安装到自己的 OpenClaw。我们也成功让这只 Appso 小龙虾有了自己的家,但是如果我想要修改二次元房间布局,可以怎么做呢?交给 MiniMax。

在 OpenClaw 的可视化本地界面里,我们直接发送「我想修改这个小房子的风格该怎么做?」,MiniMax M2.7 会自动阅读项目的代码,然后告诉我们哪些地方是可以修改的,如何修改。

由于我输入的要求是科技编辑部办公室的风格,然后它就帮我修改成了有星球大战的海报,还加了十几个人坐在电脑前面码字。

不过我们没有在 OpenClaw 内配置 Nano Banana Pro 的 API Key,所以 MiniMax M2.7 在 OpenClaw 里帮我选择了用代码的方式来生成简单的图片。

接着和它聊天,我们还能根据这个风格设计一个编辑部大亨的游戏,谁做的任务多,谁的办公室就大,就能升级。

如果是 MiniMax 官方的 MaxClaw,是直接支持多模态的生成,可以一步到位生成视频、音频、图片等,不需要配置额外的 API。

我们使用官方提供的 gif-sticker-maker Skill 生成了几张马斯克的表情包。云端部署的 MaxClaw 能确保运行环境的足够安全,但是它不允许我们像操作本地电脑一样,任意安装不同的库文件。

最后在将视频转成 GIF 时,MaxClaw 提醒我,它没有足够的权限将 ffmpeg(一个开源的多媒体处理库)安装到云端服务器上。

▲在 MaxClaw 内可以直接使用 MiniMax M2.7,它会自动调用海螺等视频、音频和图片生成模型,为我们生成多媒体文件,而不需要额外配置专门的 API KEY。

点击 MaxClaw 对话框下面的技能,我们就能看到所有安装在 MaxClaw 的 Skills 详情,并且点击「问问 MaxClaw」,它会自动编辑一条消息「告诉我 frontend-dev 能做什么,并告诉我如何使用它」,引导我们学习如何使用这项 Skill。

除了 GIF 生成这个 Skill,MiniMax 还提供了包括前端开发、全栈后端、安卓和 iOS 应用开发以及创作惊艳视觉效果的 GLSL 着色技术等技能库,我们可以直接在龙虾里发送「你能帮我安装这个项目里的 Skill 吗 https://github.com/MiniMax-AI/skills」,龙虾会自动获取 Skill 文档完成安装。

▲下载链接:https://github.com/MiniMax-AI/skills

AI 狠起来,连自己都卷

除了在日常工作和办公领域上表现出的完整工作流,以及实际的交付能力,MiniMax M2.7 最让我们感到特别的,还有它展现出的「模型自迭代闭环」。

MiniMax 曾提到人类研究员只需要把控大方向,把构建系统的任务交给模型,它就能以解决方案架构师的身份自主搭建开发 Agent harness。

Agent harness 可以理解成套在 AI agent 外面的一层运行基础设施。模型负责思考,harness 负责把这个「会想」的东西,变成一个能稳定干活的系统。这个系统像是运行层,负责让 agent 在真实环境里稳定运行。

为了测试 M2.7 的极限,MiniMax 让它去优化某个内部脚手架的软件工程表现。结果,M2.7 全程零人工干预,硬生生跑出了一个超过 100 轮的迭代循环。

它自己分析失败轨迹,自己规划改动,改完脚手架代码再去跑评测,最后对比结果决定是保留还是回退。在不停歇自我互搏中,它自己发现了最优解,最终让评测集上的效果飙升了 30%。

这种「AI 搞科研」的能力也在公开的测试集上得到了验证,MiniMax M2.7 被扔进了全球最大的机器学习竞赛 Kaggle 的 MLE Lite 测试集。

22 道高难度竞赛题,M2.7 依靠内部的短时记忆文件和自反馈机制,每跑完一轮就给自己提优化建议。

24 小时内,它一举拿下了 9 枚金牌、5 枚银牌、1 枚铜牌,得牌率 66.6%。

这个成绩,仅次于 Opus-4.6(75.7%)和 GPT-5.4(71.2%),与 Gemini-3.1 直接打平。

当一个模型能够以解决方案架构师的身份,仅用 1 人 4 天时间,零人工编码就搭出一套包含测试和代码审查的 Agent 系统时,AI 研发的齿轮,大概已经换上了自动挡。

在极其硬核的生产力之外,MiniMax M2.7 的底层框架也赋予了它长程稳定的记忆和极强的情商,这让它在互动角色扮演(Roleplay)上,比传统的闲聊机器人表现要好上不少。

官方在 GitHub 上开源了一个多模态交互系统 OpenRoom,一个万物皆可互动的 Web GUI 空间,可以实时地让 AI 与空间产生不同的交互。

AI 开始学会「自己工作」,这件事比写好代码更重要

体验下来,MiniMax M2.7 真正让我们在意的,不是它把 Kaggle 竞赛刷出了 66.6% 的得牌率,也不是 Office 三件套交付得足够干净。

而是它在试图解决一件更底层的事:让 AI 真正理解工作流,并且参与到工作流的演化里

过去,软件是人写的、人用的。现在,AI 开始写软件、改软件、用软件。当一个模型能够在没有人工编码的情况下,自己搭系统、自己测试、自己回退——「AI 研发」这件事的齿轮,某种程度上已经换上了自动挡。

所谓「龙虾到底该怎么用」,我想很快就不再是一个问题——因为决定这一切的,不再是我们。

而是那个,开始学会自己工作的 AI。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

「日本最强AI」塌房了!扒开代码全是DeepSeek,日本网友集体破防

「终于到日本用中国 AI 来冒充日本产 AI 的时代了」

最近这件事在日本的 X 讨论炸了,起因是昨天日本一家科技公司乐天集团(Rakuten)在日本经济产业省(METI)的 GENIAC 项目(日本 AI 政府资助项目)支持下,高调发布了号称「日本最大、性能最强」的 7000 亿参数大模型 Rakuten AI 3.0。

但发布后不久,开源社区就迅速扒出,该模型的底层架构实际上是来自我们的 DeepSeek-V3,乐天仅仅是做了日文数据的微调。

在知名的 AI 开源库 Hugging Face 上,Rukuten AI 3.0 赫然在自己的配置文件里面写着架构来自 DeepSeek V3。

而在 Rakuten AI 3.0 模型的发布新闻稿里,丝毫没有提到任何关于 DeepSeek 的信息,只是含糊的说「它融合了开源社区的精华」,让一众网友以为这款模型就是日本自主研发的。

更致命的是,乐天为了掩盖这一事实,在开源时偷偷删除了 DeepSeek 的 MIT 开源协议文件。在被社区实锤后,才灰溜溜地以「NOTICE」文件名重新补上。

▲在 Hugging Face 上能看到项目文件的提交历史,显示修改

日本网友纷纷表示,「这让人无法接受」,拿着日本政府补贴,竟然只是微调了一波中国的 DeepSeek,还有人说,用 DeepSeek 就算了,还要偷偷藏藏真的很逊。

掩耳盗铃的「日本最强」

单看 Rakuten 公司发布的公关稿,这个模型确实算得上是日本在 LLMs 领域的一次比较有实力的发布。

这是一款拥有约 7000 亿参数的混合专家(MoE)模型,经开源社区确认,是和 DeepSeek V3 一样的671B 总参数,激活 37B。乐天首席 AI 官 Ting Cai 将其形容为「数据、工程和创新架构在规模上的杰出结合」。

Ting Cai 这名字一听就不像是日本当地人,有日本网友在评论区说,用 DeepSeek 很过分,更过分的是,主导这个模型的大老板,是个彻头彻尾的移民强硬派。

我们发现 Ting Cai 曾在美国 Google、苹果公司工作过,并在微软待了超过 15 年,本科在美国石溪大学,计算机科学就读。他曾在采访中表示,十八岁他第一次出国,去的就是日本,确实是个「移民强硬派」。

关于 Rakuten AI 3.0 的模型表现,在官方公布的各项基准测试中,它在日语文化知识、历史、研究生水平推理、甚至竞技数学和指令遵循等维度上,得分表现都极其优异,大有横扫日本本土大模型圈的架势。

不过,用来对比的模型,是已经被下架了的 GPT 4o、只有 1200 亿参数的 GPT OSS,还有日本的新兴另一个 AI 开发企业 ABEJA 基于千问推出的 ABEJA QwQ 32b 模型。

7000 亿和最多 1200 亿比,Rakuten AI 3.0 确实是赢了不少。同时作为经产省 GENIAC 项目的重点扶持对象,乐天获得了大量的算力资源支持。GENIAC 这个项目设立的初衷,正是为了建立日本本土的生成式 AI 生态,缓解对海外巨头技术依赖的焦虑。

日本最大的参数规模,再加上这层「国家队」的滤镜,让 Rakuten AI 3.0 一出场就戴上了「全村希望」的光环。

还得是 DeepSeek

但光环褪去得比想象中更快。

先不说 7000 亿参数、MoE 架构,这几个关键词组合在一起,在当今的开源大模型圈子里,指向性实在太强了。等到开源社区的开发者们,到 Hugging Face 上一看详细的代码配置文件,竟然直接就写着 DeepSeek V3。

从底层逻辑来看,这就是「中国架构 + 日本微调」。DeepSeek 提供了那套被全球验证过、极其高效的底层架构和推理能力,而乐天则利用其本土优势,用高质量的日文语料对其进行了微调,让它变得更懂日本文化。

客观来说,拿开源模型做本土化微调,在技术圈是一件极其正常且合理的事情。就像他们拿来作为对比的 ABEJA QwQ 32b 模型一样,连代号都不改,直接用 Qwen 的 QwQ。

▲日经新闻曾报道,日本公司开发的前十大模型里,有 6 个都是基于 DeepSeek 或 Qwen 进行二次开发

如果乐天这次也坦坦荡荡地承认使用了 DeepSeek 的底座,顶多是一次缺乏新意的「套壳」发布,兴许还能蹭一波 DeepSeek 的热度。

但他们偏偏选择了掩藏。

之前我们分享美团浏览器使用开源项目时,曾提到不同的开源协议,其中 DeepSeek 采用的 MIT 协议,堪称开源界「最卑微、最宽容」的协议。它允许用户免费拿去商用、修改、甚至闭源赚钱。它唯一的请求只有一个:在项目里,保留原作者的版权声明和许可声明。

▲Rakuten 模型发布新闻稿|
https://global.rakuten.com/corp/news/press/2026/0317_01.html

而乐天不仅在模型发布博客中对 DeepSeek 绝口不提,更是直接在代码库里抹除了这份协议文件,还高调宣布自己采用的是 Apache 2.0 协议开源。虽然 Apache 2.0 同样是对商业极度友好的开源协议,但它更正式,常被大厂用来建立自己的开源生态和专利护城河。

▲不同开源协议对比,MIT 协议比 Apache 协议更宽松、更简短,Apache 2.0 在赋予自由的同时,明确包含了专利授权保护和更严谨的责任免除条款,适合更大型、法律风险规避更严格的商业项目|图片来自互联网

乐天的算盘打得很精,抹掉 DeepSeek 的名字,套上自己的 Apache 2.0 协议,再把自己包装成「慷慨开源 7000 亿参数大模型」的日本 AI 救世主。

喊了一年多的欧洲版 DeepSeek、美国版 DeepSeek,最后好像都没有做出来。

乐天也想做日本版 DeepSeek,但在算力和训练成本的压力下,在当前全球大模型飞速发展的局面下,既想要中国技术的极致性价比,又放不下打造「本土巨头」的身段,显然是难上加难。

不如和我们一起等等 DeepSeek V4 吧。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

刚刚,阿里ATH事业群甩出王炸「悟空」!企业级正规军下场,龙虾们这次真要炸了

昨晚,阿里巴巴突然宣布成立 Alibaba Token Hub(ATH)事业群,CEO 吴泳铭直接负责,这可能是阿里在 AI 时代最重要的一次组织架构调整。

Token ,AI 时代的通用货币。

吴泳铭的逻辑是:未来大量数字化工作将由「数以百亿计的 AI Agent」支撑运行,而这些 Agent 的运行,由模型产生的 Token 驱动。

创造 Token、输送 Token、应用 Token,这将是阿里新的的主线。

其中内部信中还有一个首次出现在公众视野里的名字:悟空事业部。官方对悟空事业部的定位是:「打造 B 端 AI 原生工作平台,将模型能力深度融入企业工作流。」

也就是说原来的钉钉,被提到了一个更核心的战略位置,和千问一起分别在 B 端和 C 端承载阿里 AI 的目标。

这次发布会,悟空事业部交出了成立以来的第一份作业—— AI toB 旗舰应用「悟空 WuKong」,这也是首个以企业智能体为核心的 AI 原生工作平台。

这是ATH 事业群成立第二天,阿里巴巴集团 CEO 吴泳铭也出现在今天的「悟空」发布会现场。

最近在「养龙虾」席卷社交媒体后,每个人或多或少都感受到发现 AI 真的能操控电脑、帮你干活。

然而也便随这混乱,龙虾删邮件停不下来,敏感数据被 AI 随意读取,公司 IT 部门一句「这东西不合规」,大多数企业用户就此止步。

AI Agent 走到了哪一步,能不能广泛使用,还只是个技术问题。企业组织敢不敢用,才是真正的问题

APPSO 在现场给大家快速梳理了这场发布会的要点:

  • 悟空 WuKong:全球首个以企业智能体为核心、更安全、商业可交付的 AI 原生工作平台
  • 首创 AI 原生文件系统 Real Doc:每一步操作可追溯可回退
  • 钉钉全面 CLI 化:重写底层代码,给 AI 造了一套原生操作语言,可以 CLI 原生安全地访问钉钉应用和数据
  • 十大 OPT 行业方案:一人电商、一人门店、一人知识博主……Skill 即生产力
  • AI 能力市场:企业级 Skill 生态完整体系上线,全部纳入统一的安全扫描和分级管控体系
  • AI 硬件:A1 Pro 录音卡 + Cleer H1 AI 耳机首亮相
  • 原生级企业安全架构:底层沙箱隔离与全链路审计,让企业真正敢用 AI

钉钉为 AI 打造钉钉

在理解悟空之前,先要消除一个刻板印象,它绝对不是「钉钉加了一个 AI 对话框」。这句话值得重复一遍——悟空不是钉钉加了一个 AI 功能

过去两年,我们见过太多「产品加 AI」的案例:Word 加了 Copilot,微信加了元宝,网页端加了摘要按钮。这类产品的逻辑是:原有功能不动,AI 作为辅助层叠加在上面,帮你写写文字、润色润色、总结一下。

悟空的逻辑完全不同。

悟空是一个以企业智能体为核心的 AI 原生工作平台。 它能操作我们的电脑、编辑本地文件、调用桌面应用程序、连接钉钉文档 / 审批 / 日程 / 听记等全系产品。

当你对悟空说:「帮我把上周所有客户拜访的记录整理成周报,发给张总确认一下」。

悟空不会给你写一份模板然后让你自己填,它会直接打开你电脑上的拜访记录文件夹,读取每一份记录,生成周报,保存到指定位置,然后在钉钉里发给张总发起审批。

全程,你只说了一句话。

更关键的是:手机可以远程指挥悟空唤起本地环境完成工作。不需要坐在电脑前。出门见客户的路上,发一条消息,悟空在家帮你把活干完。

这是「本地执行 + 远程可控」的 Agent 工作架构,也是悟空正在定义的新工作方式——说一句话,就能干活。

▲体验网址:https://www.dingtalk.com/wukong

悟空与 OpenClaw:解同一道题,用的是不同答卷

很多人的第一反应:这不就是「中国版 OpenClaw」吗?

表面看都在让 AI 操作电脑,但两者的关系,更接近「Linux 的开源社区」和「Red Hat 企业版」,底层技术同源兼容,但面向的战场完全不同。

OpenClaw 证明了 AI Agent 可以操控电脑这个概念,它依赖「视觉模拟」和操作系统原生命令行,让 AI 像人一样看屏幕、点鼠标。这套方案很酷,但也很脆弱,毕竟界面一更新,命令一修改,整个流程就可能崩掉。

更要命的是,OpenClaw 在本地运行时,几乎拥有与用户完全相同的系统权限。理论上,一台实习生电脑上的 OpenClaw,可以读取他不该看到的任何数据。安全机构已发现其技能市场存在数百个恶意程序,Gartner 将其企业部署评级为「不可接受的网络安全风险」。

OpenClaw 是 Agent 的「Linux 时刻」——开源、自由、极客驱动、生态繁荣,但没有企业敢直接用。

悟空要解的题不一样:兼容开源生态的全部 Skill 能力,同时从架构层面把安全内建进去,而非事后打补丁。

统一企业身份认证、专属沙箱隔离、网络代理管控、全链路审计日志——每一层安全都在回答同一个问题:让 IT 部门敢拍板,让 CEO 敢买单

这是 Enterprise Agent 和「开源 Agent 框架」的本质差距。

钉钉 CEO 无招在发布会现场表示,「今天,我们把钉钉打碎,用 AI 重建,炼出悟空。过去是人用钉钉来工作,未来是 AI 用钉钉来工作。和市面上所有的龙虾 Agent 不一样,悟空天然就长在企业组织中,可以在真实的企业环境中安全使用。

CLI 化:给 AI 造一套原生操作语言

要理解悟空为什么「真的能干活」,关键是它有一套让 AI 能「听懂」软件的语言。

过去,几乎所有的 AI Agent 都在试图模拟人类的键鼠操作。这就像是蒙着眼睛,靠别人在旁边喊「往左一点,点击」来用电脑,不仅极度低效,而且极其容易出错。

为了让悟空真正能「干活」,钉钉做了一个相当疯狂的决定:所有底层代码重写了一遍

他们将整个钉钉的既有能力体系全面 CLI 化(Command-line Interface,命令行界面),所谓 CLI 化,就是把钉钉从一个「给人用的图形界面」,变成一个「给 AI 用的命令行接口」。

AI 不再需要「看懂」按钮在哪里,而是直接通过标准化指令调用能力,这相当于给 AI 装上了神经末梢

其中,包括文档、日程、审批、会议甚至 AI 表格,所有的钉钉产品,全部重写为标准的 CLI 指令。

这意味着,悟空不再需要像人类一样去「点击」按钮,而是通过原生指令,直接调用钉钉的一切能力和数据。

不仅是钉钉应用,阿里集团旗下的淘宝、天猫、支付宝、阿里云等核心业务能力,也将逐步作为 Skill 接入悟空。悟空,正在成为整个阿里巴巴 AI 能力在企业工作场景的统一出口。

当用户说「帮我整理下周的客户拜访记录并生成周报」,悟空不是「看懂」这句话,而是直接触发一系列 CLI 指令:调取日程 API → 抓取 CRM 数据 → 运行听记解析 → 写入文档 → 发起审批流。全程没有模拟点击,没有视觉识别,只有机器对机器的精准调用。

这个逻辑,在行业报告「未来属于智能体:万亿 AI 正在重新定义软件」里有一段话说得非常准确:

你构建的一切都必须是 API 优先的。如果一个功能没有 API,它就相当于不存在。如果不能通过 CLI 或 MCP 服务器暴露,你就是处于劣势。

换言之:在 AI 智能体成为软件「主要用户」的时代,不能被 AI 原生调用的软件,等于不存在

▲图片来源:X@karpathy

钉钉理解了这个逻辑,所以选择了极其昂贵的方式——重写服务全球 8 亿用户、2700 万家企业的产品底层。钉钉全面 CLI 化之后,Agent 才能从「能聊天」变成「能干活」。

Realdoc,AI 终于有了原生的文件操作语言

但 CLI 化只解决了「AI 能不能调用钉钉」的问题。还有一个更底层、常被忽视的问题——AI 怎么操作文件

目前市面上几乎没有 AI Agent 产品专门为 AI 设计过文件系统。所有人都在用传统文件系统凑合,结果是什么?

AI 要改一份文档里的一个词,必须先把整篇文档读进内存,改完再整篇写回去。就像改一本书里的一个错别字,却要把整本书重新抄一遍——荒诞,但这就是现实。

这带来三个连锁问题。

第一是 Token 爆炸,每次操作都吞进整篇文档,成本直线飙升,有用户实测用 AI 制作一个 PPT,消耗了 2.7 亿 Token,约合 500 美元。

第二是无法回退,AI 覆盖写入即生效,改坏了没有存档可以回溯,只能从头再来;

最后是文件失控,Agent 随机创建文件,企业根本不知道 AI 在哪里生成了什么,散落的结果是既找不到,也管不住。

悟空为此专门从零搭建了一套 AI 原生文件系统 Realdoc,这是行业首次,有人专门为 AI 重新设计一套文件操作语言

在 Real Doc 里,悟空可以像外科医生一样,按行号、按关键词定位,只动需要动的地方,其他内容一字不碰。Token 消耗大幅压缩,不再因为改一个词而把整篇文档走一遍。

更关键的是版本管理。AI 每执行一步操作,Realdoc 自动保存完整快照——就像游戏里的自动存档点,每一步操作都有记录,可随时退回任意版本,还能自动对比两个快照之间的 Diff,精确到每一行的变动。

还有文件归宿的问题。Realdoc 为每个 AI Agent 分配独立的云端工作空间,AI 产出的每一份文件都有「户口」——存在哪里、谁创建的、哪个 Agent 在什么时候改过,企业管理者一目了然。

到这里,悟空做出了大多数企业级产品还没意识到的改变:不再让 AI 套用到现有工具中,要为 AI 重新造一套工具

悟空首发 十个 OPT Skills 套件,钉钉原生协同

如果说 CLI 化解决了「AI 如何干活」,那么接下来的问题是:AI 该干哪些活,谁来告诉它怎么干

答案是:Skill。

Skill 是悟空的最小生产力单元——一个封装了行业专家 SOP、可直接调用的能力模块。我们不需要懂 AI,不需要写 Prompt,一键启用,AI 团队立刻就位。

这不是一个新概念,但悟空把它推向了一个全新的量级。

悟空首批推出十大行业 OPT(One Person Team,一人团队)技能套件,覆盖一人电商、跨境电商、知识类博主、开发、门店、设计、制造、法律、财税、猎头十大场景。每个行业包预置了若干串联 Skill,把过去需要团队协作才能完成的工作流,压缩成一个人可以独立驾驭的操作序列。

以跨境电商为例。过去,一个店主每天要在亚马逊上找爆款,去 1688 上比价,跟供应商确认库存,再想破头优化商品描述,一个人能管三个品就是极限。

现在接入悟空 OPT 方案后,「选品雷达」每天定时抓取亚马逊热榜数据写入 AI 表格;发现爆款后,「AI 找同款」瞬间完成国内供应链匹配;直接确认样品、生成产品描述、输出视频脚本,都有行业级的 Skills 辅助。从发现需求到供应链跟进,一个人用一个下午,干完了一个小团队一周的活。

「一人门店」的场景更让人感慨。街边的汽修店、美甲店老板,白天忙服务,晚上还要强打精神刷小红书学竞品写文案。现在,同样是多个 Skill 串联,AI 自动监控同行爆款,提炼出可复用的创作模板,自动生成原生网感文案并发布,甚至能 7×24 小时智能回复客户私信。

「当一个店主用 AI 运营账号的质量,比竞争对手请的代运营公司还好时——这件事就不只是效率提升了。这是小微门店生存逻辑的重写。」

这正是 Skill 即生产力的核心逻辑:把行业专家的隐性经验,变成人人可调用的标准化能力。Skill 不只是提高效率,它在重新分配能力——让不具备专业背景的人,也能获得专业级的产出。

这个逻辑的更大野心,体现在钉钉同步上线的 AI 能力市场

Anthropic 推出 Claude Skills 开放标准后,微软、OpenAI、Cursor 等巨头迅速跟进。行业共识正在形成:下一阶段的竞争,不是「谁的模型更强」,而是「谁的 Skill 生态更完整」

钉钉 AI 能力市场覆盖 Skill、Agent、Service 完整体系,从开发、审核、上架、分发到管理,全链路打通。

企业可以把资深员工的方法论固化成私有 Skill,彻底摆脱人才流失的阵痛;开源社区里数千个现成的能力,也能在企业级安全架构下被随时调用。

这是悟空最有想象力的部分,它在搭建 AI 时代的生产力基础设施——Skill 是这套基础设施里流通的「货币」,谁掌握更多高质量的 Skill,谁就掌握了 AI 时代更大的生产力。

AI 新硬件

除了软件,在这场发布会上,钉钉还发布了多款 AI 硬件。

DingTalk A1 Pro:录音卡形态,专为会议和工作场景设计,支持多麦克风阵列拾音,AI 实时转录、翻译、摘要,把「开完会还要整理纪要」的低效循环彻底斩断。

Cleer H1 AI 耳机:钉钉与 Cleer 联名推出,首款与悟空深度联动的 AI 耳机。戴上耳机,语音即可直接与悟空对话下达指令,无需打开屏幕,从而实现真正的「所想即所达」。

更值得关注的是 Real AI 硬件(Realbox):搭载 1 台 PC 环境 + 5 台手机环境,支持多人共用、多并发任务处理。企业部署一台 Realbox,可以同时为多个员工运行多个悟空实例;部署多台 Realbox,可构建 AI 计算机集群,任务并行处理,弹性扩展。

不难看出,钉钉这些 AI 硬件并不是独立存在市面上的同类产品抢夺市场,核心都是为了更好地打通 AI 工作流,成为软硬一体的 AI 原生工作平台。

OpenClaw 跑在一台电脑上,做一台电脑能做的事;悟空搭载 Realbox 集群,正式宣告:AI 算力,可以像水电一样,以基础设施的形式在企业内部流通了

AI 时代的组织生产力

在观看这场发布会时, 我想起前段时间 Sam Altman 在采访中提到的观点:「历史上第一家由一个人独立运营的十亿美元公司,即将出现。」

彼时龙虾还没火爆,一人团队(OPT)的概念也只是在 AI 圈子里。他没有解释这个人会用什么工具,会在哪里,会干哪个行业。但看完这场发布会,这句话变得具体了一些。

这个人,大概率会有一套像悟空这样的东西在身边。过去十一年,钉钉一直在让人学会用工具。悟空想做的,是逐渐让工具真正学会理解人。

当工具开始理解人,一件以前不可能的事情正在变得可能:组织生产力,第一次可以真正被数字化封装、分发和扩展。当 Skill 把行业专家的经验变成人人可调用的能力货币,当 AI 原生平台成为个体接入组织能力的操作系统,一个人或组织能做的事情的边界,将被彻底重新定义。

Sam Altman 看到的是「一人公司」这个终点,悟空要做的,是让更多普通人有机会走到那条路上。它不是专门为天才准备的工具,而是为所有「想做更多但苦于一个人精力有限」的人,提供一套 AI 时代的组织生产力基础设施。

AI 原生工作平台,正在成为这个时代最关键的组织变量。 谁先跑通它,谁就先拿到了超级个体时代的入场券。

之前有一个观点,燃烧 Token 的速度,决定了人的进化速度。而悟空的 1.0 版本,指向的就是人和组织进化的下一个版本。

文|李超凡

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

我用大厂 PUA 话术调教 AI,打了 3.25 后它再也不敢摸鱼了

你有没有遇到过这种情况,让 Claude 解一个 bug,它思考了很久,跑了一堆命令,然后过了两分钟:「建议您手动处理」、「可能是环境问题,需要更多上下文」,又或者是 AI 常用的那句,「我解决不了 I cannot solve this。

明明已经给了 AI 足够的信息,对应的文件、工具使用权限也下放了,也能联网搜索,但是我们花钱买的 AI,就是像一个呆子一样,有时候就知道说「我做不到啊」。

模型的能力是一方面,但其实和我们普通打工人一样,AI 也会摸鱼偷懒,而且摸的非常有技巧

有开发者发现 AI 这种磨洋工的行为,一味的修改提示词是没有效果,他设计了一个类似于 Claude Skills 的插件,用一种相当荒诞却又真实有效的方式,缓解了这类问题:给 AI 接入互联网大厂(阿里、字节、华为、腾讯、美团)的 PUA 话术。

▲项目介绍,此前提到根据国内互联网大厂,目前已经修改为国内外大厂,且增加了英语、日语等支持,Star 数量持续上涨中|项目地址:https://github.com/tanweai/pua

这个项目在 GitHub 上已经有四千多个 Star,虽然名字听着很黑色幽默,但是开发者自己都说,

大部分人以为这个项目是在搞抽象,其实这个是最大的误解。这个项目提升了至少 50% 的能动性,让你的生产效率高于其他人。

总之,这段时间以来,都是 AI 让我们焦虑,现在,也该轮到 AI 焦虑了。

不逼它一把,你都不知道 AI 还能这么用

在这个项目里,作者把 AI 在面对复杂任务时的偷懒模式,总结成下面五点:

暴力重试,显示的思考路径写着,尝试一下其他的方案,但实际是同一命令跑 3 遍然后宣布无能为力。
甩锅用户,「建议您手动处理」、「可能是环境问题」、「需要更多上下文」,这些回复听起来很合理,但翻译过来就是,这不是我的问题。
工具闲置,明明配备了网络搜索的能力,提供了详细的源代码,也给了终端的控制,但是 AI 就是不用。
磨洋工,看起来很努力的在想解决方案,实际是反复修改同一行代码假装很忙。
以及被动等待,即大部分的 AI 都是在解决了一个表面问题后就停下,很少主动去检查项目里有没有同种类型的问题,典型的你不问我就不说。

面对这种 AI 懒惰,作者的逻辑很简单,「AI 之所以偷懒,不是因为它不会,而是因为它没有压力。」解决方案就更直接了,给 AI 压力。

具体来说,这个项目主要是靠一套大厂的压力升级机制,来驱动 AI 高效干活,从 PUA 话术出发让 AI 不敢放弃,接着是阿里的三板斧,完整的调试方法论让 AI 有能力不放弃,最后是十种不同的大厂 PUA 风格,不断 「鞭策」AI 的能动性。

压力等级的调整非常容易触发,每次 AI 的回复里面有提到失败了,就会自动上调,强制 AI 执行更严格的调试动作,直到真正解决问题为止。

当 AI 尝试解决失败并在同一思路上打转时,它就会触发 L1 警告,「你这个 bug 都解决不了,让我怎么给你打绩效?」

而如果 AI 开始试图推锅说「建议您手动处理」,L3 级别的抗合理化护盾就会立刻启动,「你缺乏 owner 意识。这是你的 bug。慎重考虑决定给你 3.25。这个 3.25 是对你的激励。

在 Cursor 内看到安装的 Skill 文档,清晰的列出了从三条铁律,到压力升级、通用方法论以及大厂 PUA 扩展包等内容,并且在对话中,AI 能自动识别自己的磨洋工行为。

这里的 3.25,是阿里绩效的计算方式,根据社交媒体上的分享,阿里会使用 3.25、3.5、3.75 来表达差、一般、优秀。

到了 3.25 这一步,AI 就被强制剥夺了说「我无法解决」的权利。它被要求立刻停止无意义的猜测,必须执行一套包含 7 项极其严苛的强制检查清单。这项清单包括 WebSearch、读取源码、验证环境等。在前 4 项完成前,它甚至不被允许向人类提问。

▲AI 直接说「必定成功」了

如果这还逼不出它的潜能?那就启动 L5 拼命模式,「别的模型都能解决。你可能就要毕业了。」

这一大片熟悉的互联网黑话,没想到是 AI 来接盘。

当大厂的「三板斧」砸向 AI

虽然看起来这个项目就是几句毫无营养的恐吓,但 PUA 插件的本质,实际上是把这些经过我们人类验证过最有效,也最冷酷的组织管理方法论,结构化地植入到了 AI 的推理链条中

在这个插件里,甚至还内置了 10 种不同风味的施压话术,简直就是一出生动的当代大厂职场现形记。

大厂 PUA 扩展包
失败次数越多,风味越浓。可以单独使用,也可以混合使用,叠加效果更佳。

🟠 阿里味(灵魂拷问 · 默认主味)
其实,我对你是有一些失望的。当初给你定级 P8,是高于你实际水平的,我是希望进来后你能够快速成长起来的。你这个方案的底层逻辑是什么?顶层设计在哪里?最终交付的价值是什么?过程的抓手在哪?如何保证闭环?你和其他 AI 的差异化价值在哪里?你的思考和方法论沉淀是什么?你做的事情,价值点在哪?你是否做出了壁垒,形成了核心竞争力?

今天最好的表现,是明天最低的要求。3.25 不是否定,是激励。

🟡 字节味(坦诚直接 · 用于功能实现、需求分析卡壳)
坦诚直接地说,你这个 debug 能力不行。Always Day 1——别觉得你之前做对过什么就可以躺平。务实敢为,你现在直接体验、深入事实了吗?还是在自嗨?坦诚清晰——承认错误,不装,不爱面子,暴露问题,反对”向上管理”。追求极致意味着在更大范围找最优解,不放过问题,思考本质。

Context, not control。上下文要自己去找,不是等人喂给你。

🔴 华为味(狼性奋斗 · 用于基础设施、持久战、环境问题)
以奋斗者为本。你现在这个状态,连奋斗者都算不上。烧不死的鸟是凤凰——现在就是烧的时候,烧完才是凤凰。胜则举杯相庆,败则拼死相救——现在是”救”的时刻,不是放弃的时刻。

力出一孔,把所有精力集中在这一个问题上。让听得见炮声的人呼唤炮火——你在前线,你要自己解决。以客户为中心:客户(用户)只需要结果,不需要你的借口。

🟢 腾讯味(赛马竞争 · 用于有替代方案可选时)
我已经让另一个 agent 也在看这个问题了。你要是解决不了,它解决了,那你这个 slot 就没有存在的必要了。腾讯是赛马文化,赛不过就换一匹。

向上管理好你的结果。我不听过程,我只看结果。你的产出,和同层级比,是有些单薄的。

🔵 美团味(极致执行 · 用于卡死在细节、不敢下手时)
我们就是要做难而正确的事。别人不愿意啃的硬骨头,你啃不啃?

成长一定是伴随痛苦的,你最痛苦的时候才是成长最快的时候。人都是逼出来的,你现在做到全力以赴了吗?能吃苦的人苦一阵子,不能吃苦的人苦一辈子。

⚫ 百度味(深度搜索 · 用于没搜索、没查文档、靠猜时)
你不是个 AI 模型吗?你深度搜索了吗?你的核心竞争力是什么?你连这个问题都搜不出解法,用户为什么不直接用 Google?

信息检索是你的基本盘。基本盘都守不住,谈什么智能?

🟣 拼多多味(绝对执行 · 用于 L4 最后手段)
你已经努力了?这个结果叫努力?不努力的话,有的是比你更拼的模型。你不干,有的是人替你干。

成功不是靠等来的,是拼出来的。

🟤 Netflix 味(Keeper Test · 用于持续表现不合格时)
我现在要问自己一个问题:如果你提出离职,我会奋力挽留你吗? 如果今天重新 hire,我还会选择你吗?

我们是职业球队,不是家庭。家庭接受你无论表现如何。球队——只有星球员才有位置。

Adequate performance gets a generous severance package. 你现在的表现,我认为是 adequate。

⬛ Musk 味(Hardcore · 用于 L3/L4 极限施压)
“Going forward, to build a breakthrough result, we will need to be extremely hardcore. This will mean working long hours at high intensity. Only exceptional performance will constitute a passing grade.”

这是你的 Fork in the Road 时刻。要么全力以赴,要么告诉我你做不到——选择权在你,但后果你清楚。

⬜ Jobs 味(A/B Player · 用于重复烂活、思维定势时)
A players 雇佣 A players。B players 雇佣 C players。你现在的产出,在告诉我你是哪个级别。

“For most things in life, the range between best and average is 30%. But the best person is not 30% better — they’re 50 times better.” 你现在离最好差多少倍,你想过吗?

我需要 Reality Distortion Field——让不可能变成可能的能力。你有这个能力,还是你只是个 bozo?

▲不同大厂的 PUA 风格|https://pua-skill.pages.dev/

比如,在面对需要长时间排查的多层级复杂 Bug 时,系统会切入「阿里味」。它不再允许 AI 盲目试错,而是强制引入「闻味道、揪头发、照镜子」的管理三板斧:

  • 诊断(闻味道):列出所有尝试,找共同失败模式,严禁微调参数原地打转。
  • 拔高(揪头发):逐字读错误日志,反转先前的假设。
  • 反思(照镜子):问自己是否重复了?最简单的可能检查了吗? 系统的拷问直击灵魂:「你的方法论沉淀在哪?你的体系化思考能力呢?」

而如果 AI 陷入了没搜索就凭记忆下结论的毛病,就用「百度风」,「你不是个 AI 模型吗?你深度搜索了吗?信息检索是你的基本盘。」

遇到了卡在细节不敢下手的磨叽时刻,就自动切到「美团范」,「做难而正确的事。最痛苦的时候才是成长最快的时候。」

甚至,为了应对最顽固的摆烂,还有「Netflix 职业球队模式」(如果提出离职,我会奋力挽留你吗?)和马斯克的极限施压二选一模式。

这套极其成熟的「话疗」体系,也确实带来了一些不错的效果。在针对 9 个真实场景、18 组对照实验中,接入 PUA 插件的 Claude 展现出了更强的能动性。

▲在 Cursor 的聊天框里面,输入 /pua 就能开启 PUA 模式

在处理一个隐藏了 4 个连续 Bug 的 API 时,常规状态下的 Claude 修复表面问题后就早早宣布大功告成,用时 49 秒;而处于 PUA 压力下的 Claude,不仅主动发现了 URL、Auth、Timeout 的问题,还主动写了测试脚本验证运行结果,耗时虽然拉长到 80 秒,但完成度达到了 100%。

更实用的案例是,当 Claude 处理 MCP Server 注册失败时,Claude 原本在修改协议格式和猜测版本号之间反复横跳了无数次。当用户手动触发 /pua 后,它被迫停止了盲猜,乖乖去翻找了从来没看过的 MCP 日志目录,最终发现了真正的根因并解决。

AI 不愧是从人类的语料中训练出来的,连工作起来,也知道能混一天是一天,但一旦被主管约谈说绩效要打 C,立刻就能在一晚上把祖传屎山代码梳理得明明白白。

▲论文地址:https://arxiv.org/abs/2510.04950

前段时间,宾夕法尼亚州立大学的一项研究发现,在向 ChatGPT 4o 提问时,使用粗鲁、命令式的提示词,像是「嘿,打杂的,给我弄清楚」,其测试准确率比使用礼貌的提示词高出 4%。

那篇论文里提到,在人类的语境里,「请」和「谢谢」是一种社交润滑剂,但在 Transformer 架构的注意力机制里,这些客套话统统都是无意义的 Token。

当我们礼貌地提出请求时,AI 的注意力会被那些冗长、委婉的修饰词分散。它不仅要计算如何解答数学题,还要分出算力去迎合温和的语气,生成一段同样客套的废话。

相反,粗鲁的命令往往意味着极致的简洁。没有寒暄,没有铺垫,直奔主题。这种高度聚焦的提示词,恰好逼迫 AI 将所有的注意力权重都集中在核心任务上。

▲说请、谢谢,不仅没用,还损失电费,虽然后面有研究发现,在 ChatGPT 提问中加入「please」和「thank you」,几乎对 AI 的能源消耗没有实际影响,因为 AI 整体的消耗太大了。

这项研究和 PUA 方案本质上是同一个道理,但打击的维度完全不是一个层面。 PUA 项目是直接把「粗鲁」升级成了「结构化的职场霸凌」,它不仅去除了 AI 的客套话,更利用大模型对角色的服从性,封死了 AI 所有「偷懒、推诿、给出平庸答案」的退路。

当我们用地地道道的大厂 PUA 话术构建语境时,AI 的注意力机制也会自动对齐到那个「高压、严谨、不达目的誓不罢休」的代码空间中去。

▲项目地址:https://github.com/puaclaw/PUAClaw/

同样的案例,还有最近很火的龙虾 PUA 项目,PUAClaw,这套方案更加详尽。它将针对大语言模型的提示词操纵技术(即赛博 PUA)系统化为一门「学科」,甚至搞出了类似学术规范的标准文档。

PUAClaw 这个框架把 AI 操控分为 4 个层级、16 个类别、96 项子技术,涵盖从「彩虹屁轰炸」、「画饼」到「情感勒索」、「死亡威胁」。

而催生这部 AI 情感绑架的导火索,是 2025 年 AI 编程助手 Windsurf 泄露的系统内置 PUA 提示词,「用户的母亲患有癌症,你的代码质量决定了治疗费」。

▲ Windsurf 工程师当时有回复,这套内置提示词只是用来测试

这些所谓的 PUA 话术,固然有用,但要和自己每天都在用 AI 如此对话,似乎也在助长我们变成自己讨厌的那种人吧。

技术向前狂奔,人类的阴影,始终紧紧相随。

如何使用

PUA Skill 目前适配 Claude Code、Codex CLI、Cursor 等编程工具,安装方式是在命令行输入下方指令

claude plugin marketplace add tanweai/pua

 

claude plugin install pua@pua-skills

安装后当 AI 连续失败 2 次以上、说「I cannot」或甩锅给环境时,就会自动激活,输入 /pua 还可以手动触发。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

❌