普通视图

发现新文章,点击刷新页面。
昨天以前首页

联想天禧 Claw 产品体验:大家都能吃的龙虾才是好龙虾

作者 艾 梵
2026年4月7日 17:54

2026 年虽然是马年,但真要选个「年度动物」的话,非得是龙虾莫属。

就像海里的龙虾一样,OpenClaw 虽然美味,但想要烹调和享用好,还是需要相当的门槛的:不仅要自己配置环境、设置接口、寻找模型,更是得专门留一台 24 小时待机的电脑给它当「笼子」。

再加上自己配置技能(Skill)、进行微调(SFT)、接入 MCP 所需的时间、精力和金钱成本,真正的日常用户其实是很难让 OpenClaw 发挥出「明显改善效率」的意义的。

就在这时,老牌 PC 大厂联想站了出来,做了一件非常具有启发性的事情。

它们以联想电脑、平板和摩托罗拉手机为载体,做了个免安装、跨平台、全天候的 Claw 服务——

换言之:让每个人都能享受 Claw 的乐趣

3 月 18 号,联想在春季新品直播中正式宣布了自家智能助手「天禧个人智能体」 Claw 能力上线,并于 3 月 30 号正式开启了内测:

▲ 图|联想

爱范儿也参与了这次天禧 Claw 的测试活动。在这段时间的使用之后,我们觉得:天禧 Claw 就是现阶段上手难度最低、跨设备能力最强、软硬件结合最好的 Claw 部署方案之一。

龙虾「最后一公里」,联想替你走

以往想要在 Windows 上安装一个能用的龙虾,是件非常让人头疼的事情。

由于 OpenClaw 高度依赖类 Unix 环境,许多底层脚本也是基于 Darwin 或 Linux 写的,因此想要在 Windows 上得到一个能用的龙虾助手,光是折腾 WSL2 就足够劝退 90% 的尝鲜用户了。

而对于联想的天禧 Claw 来说,以上这些都不是问题——

与纯本地手动部署不同,天禧 Claw 采用了「端云混合」的运营逻辑。

联想作为软硬件供应商,可以直接给自家硬件预留好调用接口,然后用类似「云电脑」的形式,在服务器端运行天禧 Claw。

这样一来,用户既省下了手动部署的麻烦,获得了文件隔离的安全性,同时还能享受到纯本地龙虾带来的硬件操控能力。

仅需一个联想账号,所有人都可以在电脑、Pad 和手机上同时运行天禧 Claw,做到了真正的「零成本部署」和「开箱即用」。

就拿我们在内测阶段的体验来说,在这台联想 YOGA Air 14 上运行天禧 Claw,其实只需要四步:开机、打开天禧 app、登录联想账号,开始使用:

同时,天禧 Claw 作为一款「预装类」的龙虾助理,最大的优势就在于它出厂预装了非常多实用的技能(Skills),不需要挨个在 ClawHub 上下载压缩包了:

在目前的测试版本中,天禧 Claw 已经支持了包括文档处理、设计创作、硬件操控、生活娱乐、技术工具等等十多种 Skills 。

无论是要天禧 P 个图、草拟一份周报、写一封声情并茂的请假申请,还是直接搞定路演 PPT,都只是一句话的事儿:

除了这些预装技能之外,你当然也可以自己给天禧 Claw 添加别的 Skill ——

比如我自己常用的高级搜索工具 web-search-plus,只需要把 ClawHub 的项目网址发给天禧 Claw 就可以自动完成安装:

但即使不看上述的第三方 Skill,天禧 Claw 作为一款电脑出厂预装的龙虾助手,仅仅依靠它自带的那些技能就已经足够满足绝大多数的日常需求了。

就拿编辑的工作流为例,我可以用自然语言给天禧 Claw 设置一个循环任务,让它每天早上检索并整理过去 12 小时的热门科技新闻,生成摘要并导出至本地:

而在工作过程中,则可以直接和天禧 Claw 以聊天的形式让它帮忙搜索信息、整理知识库和修改图片,以及对我来说最重要的——查找本地文件:

这时,天禧 Claw 就可以发挥出它作为一个端云混合龙虾的全部优势:我既不需要盯着一个沉闷的 cmd 窗口等回复,过程期间我的电脑风扇也不会起飞,只需要舒舒服服等待它反馈。

第一个免配置跨平台龙虾

折腾 OpenClaw 的另一个问题是如何跨端跨网进行指挥。

如你所知,OpenClaw 原本作为一个纯本地化运行的 agent 工具,如果你的使用场景仅限自己家里的空间,那么完全不需要担心操控问题。

可一旦你希望出门之后也能控制你的龙虾,尤其是涉及到使用 MCP 以及管理龙虾后台的时候,就必须给家里的网络设置内网穿透或者虚拟代理,繁琐程度可想而知。

天禧 Claw 对于这个问题给出了一个相当完美的解法:它重新给龙虾套了一层网络客户端的壳,所有指令都通过「天禧个人超级智能体」app 上传和下发。

这样一来,只要你的电脑开着机、连着网,你在千里之外只需要拿出手机或者平板电脑,就可以继续执行天禧 Claw 在电脑上的操作:

并且这种能力还不是单向的——我用这一台 moto razr 60 可以远程管理联想笔记本上面的文件,自然也能反过来用笔记本管理手机和 Pad。

这时就不得不提天禧 Claw 的独家 Skill 了:由于天禧 Claw 属于联想的第一方应用,联想专门为它配置了一套可以直接调用硬件功能的专属技能

比方说用手机给电脑上的天禧 Claw 发信息,让它把电脑设置成暗色模式,并且把屏幕亮度调整到最低,电脑就可以直接执行:

同理,在电脑上对着天禧 Claw 说在平板上设置一个明早 7 点起来喂猫的闹钟,它就可以在平板上直接创建闹钟,完全不需要解锁:

而上述的一切,都只需要一个联想账号。

这样一套跨平台、跨设备的龙虾不仅不需要分别折腾 Windows 和 Android 两套繁琐的配置,更实现了熄屏时的后台静默操作,能够为普通用户解锁什么样的便捷场景简直不敢想——

小问题不影响天禧成为「最方便吃」的龙虾

需要注意的是,联想天禧 Claw 目前仍然处在测试阶段,我们体验到的各项功能严格来说都还不是「完全体」。

在短暂的测试中,我们也注意到了天禧 Claw 目前存在的一些问题——毕竟从它的运行机制来说,相比本地部署 OpenClaw 它还存在一些不太完美的地方。

首先,你虽然可以通过给天禧 Claw 发送链接的方式要求它安装 Skill,但添加某些 Skill 所需的 API Key 却很麻烦。

原因很简单:天禧 Claw 运行在联想服务器上的一个虚拟容器里,我们对话的 app 只是一个聊天窗口。

如果你使用的 Skill 需要通过修改根目录里面的 .json 文件添加 API Key,那暂时是没有办法进行修改的:

其次,目前测试版天禧 Claw 还不支持更换基础的对话模型,也无法直接修改和调整它的「性格」和对话方式——

换言之,如果你想让你的龙虾说话「更有人情味」,或者保持某种预设角色的话,天禧 Claw 目前还办不到,仅能通过添加知识库的方式让它的对话风格产生一些倾向。

最后,也是最重要的,就是天禧 Claw 的记忆机制和词元(token)收费规则了。

受限于运营模式,测试阶段的天禧 Claw 还无法负担非常长的上下文 session,会自动执行 /compress 压缩早期的信息,因此有时候会忘记你之前告诉过它的东西。

而如果你想要让天禧 Claw 长期记住什么信息,就必须命令它「记住这个」,从而将信息半手动地保存到当前账号的知识库里:

同时,联想官方目前尚未公布天禧 Claw 的词元收费制度,至于后续是否会开放用户自行选择基础模型则有待讨论。

参考其他已经存在的 OpenClaw 托管类服务的收费标准,我们猜测天禧 Claw 后续可能会采用「限时免费、后续订阅」的机制,同时也可能整合进联想其他云服务的订阅当中。

总的来说,天禧 Claw 是目前难得一见的、真正称得上「零门槛人人可用」的龙虾方案——

用户不需要自己折腾 Linux 容器,不需要在闲鱼上花 800 块钱安装再卸载,也不用担心天禧 Claw 会误删你的文件——它在执行任何删除动作之前都会向你询问,并且所有调用的数据都保存在天禧 app 的沙盒内。

对于基础的 OpenClaw,我们总会把它形容成托尼·斯塔克的 Jarvis ——但真正的难点从来都不是和 Jarvis 对话,而是怎么让它去接入和控制那些硬件。

而天禧 Claw 恰恰像是有了自己战甲的 Jarvis:它可以自己对话、自己控制、自己决断,我们只需要像托尼一样直接下达命令就好。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

微信龙虾插件上线72小时,就被OpenClaw一次更新干崩了

作者 张子豪
2026年3月24日 12:01

一觉醒来,很多网友发现微信里的虾不能用了,原因是 OpenClaw 昨天一次大更新。

APPSO 在开头强烈建议,如果你想在微信养虾,先别升级到 OpenClaw 最新版。

当我们尝试把手边的 OpenClaw 更新到最新版本时,果然在更新的过程中,就接连报出好几个警告。

不只是微信(下图中 openclaw-weixin),我们之前配置的腾讯系 qqbot、企业微信 wecom-openclaw-plugin,以及飞书等聊天应用,都遇到了「包含危险代码模式」的警告。

▲我们在从 3.13 版本更新到 3.23 的过程中,腾讯系的 qqbot、企业微信和微信几乎都遇到了类似的警告。

所谓的检测到危险的代码模式警告,一般是说在相关的插件代码里,有一些写法,可能带来安全风险、稳定性问题,或者被恶意利用。

它和报错不同,报错是代码已经出现明确问题,程序没法正常继续,或者结果不可信。

更新完成后,我们尝试在微信里面和 Clawbot 对话,控制部署在本地的 OpenClaw,连发好几条消息都没有回应。

查看 OpenClaw 的官方日志,我们发现,在微信里发给 Clawbot 的信息,完全不能同步到 OpenClaw 处理。反而好几条都是 error 的报错信息,提示找不到 OpenClaw 的 plugin-sdk 的模块。

Error: Cannot find module ‘openclaw/plugin-sdk’

但是 QQ Bot 却还能正常回应。

▲微信 ClawBot 在更新后连接不上 OpenClaw

在我们按照微信官方的 Clawbot 插件提示,重新在终端里输入命令安装 Clawbot 时,开始像 OpenClaw 的运行日志里面,报出找不到相关模块的问题。

OpenClaw 更新了什么,它也是「屎山」?

OpenClaw 现在可以说是 GitHub 上的顶流开源项目,几乎每天都有人在为他提交优化代码,而官方基本上也是保持在 2-3 天就会更新一个新的发布版本,每次都是大量的 fixes 代码修复、changes 变更,和 breakings 大改动。

▲从 GitHub 能看到,OpenClaw 的更新相当频繁

在这次 2026.3.22-beta.1 的更新中,Openclaw 团队就进行了一次重构。对于插件系统,他们做了两个大幅度的变动。

拆除了原有的总大门: 以前所有的插件都可以直接从 openclaw/plugin-sdk 这个统一的入口拿到需要的功能。这次更新,官方直接把这个总入口给删了。

不提供任何过渡方案: 更新日志里明确写了 no compatibility shim(无兼容垫片)。意思就是,他们不仅直接把这个模块删除了,连个转移和过渡的接口都不给。

OpenClaw 为什么会这么大刀阔斧地更新?

虽然对用微信 Clawbot 的普通用户来说很折磨,但从软件工程的角度,官方这么做主要是还是为了性能和安全。

以前的统一入口的模式,会导致插件一口气把整个开发包(SDK)全加载进内存,哪怕它只用到了一小部分功能,这会让软件变得臃肿缓慢。

现在官方强制要求细分路径(比如必须写精确到 openclaw/plugin-sdk/core),就是要逼着插件作者「要什么拿什么」,从而大幅提升 Openclaw 的启动速度。

此外,更新日志里还提到了「阻断相对路径的跨包逃逸」。意思是以前的旧接口太宽松,稍微有点恶意的插件可能会越权访问你电脑里的其他数据。现在强制使用细分的新接口,是为了把每个插件严严实实地关在自己的小盒子里。

OpenClaw 在自己的官方文档里也立刻更新了说明,提到这个更新,主要就是为了实现按需加载,提升启动速度和省内存,另一方面是让 API 的接口更加清晰。

▲OpenClaw 的插件更新,提到了为什么要改变,做了哪些改变,以及插件开发者如何修改的指引

强制遵守 API 规矩,就是要求插件只能使用公开的、稳定的接口(也就是 openclaw/plugin-sdk/* 里面的东西)来获取能力。

如果大家都用相对路径去偷偷访问底层的私有代码,一旦官方修改了底层代码的文件夹名字,就会直接拦截报错。

发布才 72 小时,就这样被拦截了

原因已经很明显了,就是微信的 clawbot 插件找不到和 OpenClaw 对接的路线了。

微信和企微插件的作者在写代码时,使用的是旧版的规则,代码里写死了要去 openclaw/plugin-sdk 找工具。

而在我们启动新版 Openclaw 时,程序读到微信插件的这行代码,去系统里一找——发现官方已经把这个路径给删了。

OpenClaw 的运行环境使用的是 Node.js 平台,它是个一板一眼的机器,找不到东西它就会立刻报错:Error: Cannot find module 「openclaw/plugin-sdk」,然后直接原地罢工,导致我们的微信和企微甚至连加载都加载不出来。更不用说发消息给他,想要得到回复了。

而 QQBot 还能正常使用,主要是一开始的危险代码警告,仅针对这次更新引入的严格静态代码扫描工具,警告并不会阻止插件运行。

社交媒体上对这件事议论纷纷,有人说「微信想要继续好好利用这个插件,就必须认真学习开源生态系统的相关知识了。」

也有人反驳,是 OpenClaw 本身就很不稳定,一直在更新修改。

「即便微信要对开源做适配,为什么不直接说 OpenClaw 的 API 设计太糟糕呢?项目一开始的接口简直就是一堆乱七八糟的东西,稍微改动一下就崩溃」。

确实如此,通常开源社区负责任的做法是,会先标记旧接口为「已废弃(Deprecated)」,保留运行能力但弹窗警告,给开发者几个月的过渡期,下个大版本再彻底删除。

这次,微信辛辛苦苦更新了一个版本,推出了支持二维码登录、消息收发等功能的「真.微信龙虾」,甚至有网友发现在微信公开的这个插件安装包里面,是微信第一次开放个人机器人的协议。

▲链接:https://www.npmjs.com/package/@tencent-weixin/openclaw-weixin

但刚迈出了这么大的一步,反手就被 OpenClaw 的一次更新给「背刺」了。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

别再捣鼓没用的龙虾了,目前 AI Agent 最好的落地容器,是汽车

作者 芥末
2026年3月22日 10:09

清晨 6:45。你的日历里标注着 9:00 在会展中心的会议。

你还没起身,Agent 在后台已经完成了几轮判断。

今天气温升高了几度,有点热;当天场馆周边有大型活动,常走路线预计会很堵;车辆电量还剩 62%,足够往返。

于是系统自动将出发提醒从原本的闹钟时间提前至 7:20,同时将车内温度预设为 22 度,打开你惯常收听的晨间播客。

等你下楼、走出电梯、拉开车门,车已经像刚刚被人收拾好一样,温度合适,路线妥当,内容也备好了。

你没有按按钮,也没有说一句话,可它已经知道该做什么。这大概就是今天人们对 AI Agent 最具体、也最迷人的想象。

▲《钢铁侠》中的贾维斯就是这种幻想的终极表达

它不再只是网页上的一个对话框,不再只是你输入一句、它回一句的机器人。

它开始离开屏幕,走进物理世界,替你处理那些原本需要手、眼、耳同时介入的小事。

聪明的 Agent 撞上了「墙」

过去一个多月,这种科幻般的想象突然变得触手可及。即便平时不太关注 AI 的人,大概也刷到过那个频频出圈的「龙虾 OpenClaw」。

与过去那些只会聊天的 AI 不同, OpenClaw 这类工具看起来更符合大众脑海中「真正的 Agent」的形象,它能接管键盘和鼠标,在终端后台运行,直接调用系统 API 干活。

有人让它写代码,有人让它定时整理邮件、规划待办事项,还有人干脆把查航班、选座、值机这一整套杂活全扔给它。它就像一个永不下班的超级实习生,动作快、能力强,理论上什么活儿都能接。

但热潮来得快,退得也快。 算力配置昂贵、调用成本高,加上脆弱的安全默认设置,想要将其转化为稳定的生产力,中间还隔着重重门槛。

因此,舆论在很短时间里完成了一次反转,先是「第一批靠龙虾赚钱的人出现了」,接着就变成「第一批龙虾受害者出现了」,再后来,甚至有人开始花钱请人上门卸载。

手机端的 Agent 们也是类似的情况,能自动比价、下单、甚至发微信的豆包手机,刚一露头,就被各大平台联手设限。

屏幕里的 Agent 明明已经很聪明,却总在最后一步碰壁。这堵「墙」,有时是系统权限,有时是封闭生态,有时则是巨头们的商业利益。

这一困境恰好反衬出另一个硬件终端的巨大潜力——汽车,反而成了 Agent 最有可能率先落地的场景。

这件事颇具历史的讽刺意味。

新能源汽车刚兴起时,业界几乎一致认为,智能汽车会是继智能手机之后的下一个超级硬件入口。

那几年,车企的宣传口吻与手机厂商如出一辙:自研 OS、封闭生态、应用商店、开发者平台、争夺用户停留时长。

大家都把车做成「带轮子的大手机」。奔驰、宝马、大众都在讲自己的车载系统,吉利和沃尔沃成立亿咖通,比亚迪也早早就开放了自己的车载 SDK。

那时的大家都有一种很熟悉的乐观,好像只要把手机那套再复制一遍,中控屏就会成为新的黄金地段,广告、分成、增值服务都会顺着这些流进来。

▲ 各种各样的车载应用

但车终究不是手机。

车企们后来发现,除了导航和在线音乐,大多数车载 App 的活跃数据都惨不忍睹。没人真想在车里打游戏,在车机上购物总觉得别扭,短视频一上线就被安全监管盯上,连看起来极具想象空间的「车载 KTV」,实际使用率也远不如宣传的那般热闹。

毕竟,人开车上路是为了出行,而不是为了操作一块屏幕。

手机是一个能独占注意力的设备。你低头看屏幕、滑动手指,整个人都可以沉浸其中。但汽车不行,尤其是在驾驶过程中,驾驶员的眼睛必须注视路面,双手必须控制方向盘。

在时速 120 公里的高速上,视线只要离开路面 2 秒,车辆就已经向前飞驰了 67 米。在这 67 米的盲区里,足以发生任何意外。

车主们也很快意识到了这一点,为了打开座椅通风,居然要在屏幕里翻找二级菜单。这种看似「先进」的设计,真到了路上只会让人暴躁。

正因如此,智能座舱的发展轨迹并没有沿着「繁荣 App 生态」这条路继续走下去,而是几乎直接跳跃到了另一场革命:由大模型驱动的交互变革。那些曾被寄予厚望的车载 App,还没来得及开花结果就被边缘化了。

▲ 车企们逐渐恢复了物理按键

手机做不到的,汽车天生就会

舞台的新主角换成了 Agent。它不再强调「我能给你提供多少个入口」,而是主打「我能替你把事办完」。

2019 年,小鹏 P7 曾把「全场景语音控制」作为一个极其亮眼的卖点。当时的评测经常演示这样一个场景:车主说一句「我有点冷」,空调温度就会自动调高 2 度。这在当时无疑是巨大的进步,比手动戳屏幕方便得多,也更有未来感。

但在工程逻辑上,它背后依然依赖着一张预设好的「语句—指令」映射表。系统听到「我有点冷」,就在代码表里匹配到对应选项,执行「空调升温 2 度」。这更像是一本厚厚的词典,翻页速度很快,但毫无思考能力。你说对了触发词,它就响应;你稍微换个说法,它就开始「我还不会哦」。

▲ 你好小 P

不过很快,我们将迎来具备主动感知能力的 Agent,它将开始能够理解意图,具备主动感知能力,并能跨系统编排复杂的动作。

它不会傻等着你发号施令,而是像一个资深的管家,平时就在一旁默默观察、聆听和记录。比如你说「今天心情不太好」,旧系统往往会礼貌地失灵,或者只是给你一点心灵鸡汤。

因为这句话不对应哪一个明确按键。可 Agent 可能会联想到情绪、环境、偏好之间的关系,自己把音量调低,把氛围灯收暗一点,切一首没那么躁的歌。它不一定每次都猜得完全准,但它已经不再只是在执行口令了。

腾讯之前展示过一种场景感知型 Agent,可以结合时间、地点、用户习惯主动给建议,也能接入点餐、停车缴费这类服务。

还有一些座舱 Agent 的预研方向,已经能识别后排乘客是否睡着,然后自动降低后排音量,微调温度,甚至改变出风方式。

想象一下,一家人周末出门,车开在高架上,后排的小孩睡着了,传统语音系统需要你说一句「把后排空调调小一点」。

真正的 Agent 却可能自己判断出,这时候要做的不是一个动作,而是一串连贯动作:把后排音响关小,调一下空调风向,稍微降低车窗透光率,让后排光线别那么亮;底盘切到更柔和的模式,把细碎颠簸过滤掉;如果智驾开着,再顺手把跟车策略调保守一点,让加减速更平滑。前排的大人甚至没有意识到自己下达过什么命令,车厢已经默默把环境改好了。

这就不再是一个功能在工作,而是整辆车作为一个整体,完成了一次从感知到响应的闭环。

这种真正让汽车和其他终端拉开差距的,是跨域协同的能力。

过去汽车的电子电气架构,像一座分租出去的大宅子。座舱域管娱乐、空调、座椅;底盘域管悬挂、制动、转向;智驾域管 ADAS 和自动驾驶。每一层都有自己的边界,彼此之间不像一间房那样自然贯通。

旧式语音系统,通常只能在某一个域里做单点操作,说白了就是隔着门传话。而 Agent 不一样。它收到的往往是模糊意图,却能跨过几扇门,把几个系统一起调度起来。

也正因如此,汽车可能是今天所有终端里,最适合 Agent 落地的那个容器。原因就在于它足够统一,足够封闭,也足够可控。

一个典型的反面例子是智能家居。

搞过装修的朋友都知道,家里的电器,空调是一个牌子,灯是一个牌子,窗帘电机又是另一个牌子,音箱和门锁也各玩各的协议。

看上去你买的是一套「智能生活」,实际到手常常是一堆彼此不怎么来往的设备。

Matter 协议 2022 年就出来了,试图给这个行业造一门通用语言,但各家厂商在底层依然固守着私有接口和数据壁垒。

所以现在智能家居最顺的体验,往往还是「全家桶」。

手机端面临的困境也大同小异。你想让手机助手点杯咖啡,再去微信提醒朋友,最后切到高德导航,听起来就 3 步,背后却牵涉到几家超级 App 之间漫长而脆弱的利益博弈。任何一方觉得吃亏,链路就会中断。

相比之下,汽车的情况简单得多。至少在车内这个封闭世界里,规则主要由车企自己说了算。底盘、空调、音响、座椅和灯光,天生就生长在同一张网络里。

当然,汽车座舱也并非乌托邦。它的使用场景更加集中,核心永远围绕出行、驾驶和在途体验,这使得 Agent 在车内比在手机上更容易构建出稳定的上下文逻辑。

但相应的,它的试错成本也高昂得多。智能家居误判最多半夜亮灯;车上的 Agent 一旦触及安全控制权发生误判,后果不堪设想。

从「坐在车里的你」,到「完整的你」

近年来,中国新能源汽车市场的竞争日趋白热化,硬件层面的差距越缩越小。如今真正能拉开代差的,反而是智能化体验。

加上中国用户对新技术的接受度极高,这几股力量汇聚,形成了一个罕见的加速器。这也是为什么近两年来,最激进、最具规模的 Agent 上车实践大多发生在中国。

然而,当车内 Agent 进化到一定阶段后,很快又会面临新的瓶颈,它仅仅认识「坐在车里的你」是远远不够的。

 

它知道你喜欢听什么歌、习惯多少度的空调,这很有用,但还太浅。它还得知道你昨晚几点入睡,明天几点开会,最近常去哪里,何时最不想被打扰。

它需要把你当作一个生活在连续时间轴上的「完整的人」来理解。

这正是华为、小米这类拥有全场景生态体系的玩家最大的优势所在。他们的野心不止于「车里的 Agent」,而是要构建一个跨越不同终端的「个人 Agent」。

上周,小米推出了移动端 AI Agent 测试产品 Xiaomi miclaw,基于自研 MiMo 大模型构建,核心目标是验证大模型在「人车家全生态」中的任务执行能力。

Miclaw 以系统应用身份运行,可深度调用超过50项手机底层能力,涵盖短信、日历、相机乃至米家智能家居设备实现从「对话」到「执行」的跨越。

更值得关注的是它采用「自进化」设计,支持文件级记忆、子智能体创建和 MCP 服务接入,能自主设计记忆系统、创建专业分工的子智能体,用得越多,就越懂用户的偏好与习惯。

虽然 Miclaw 还没有完成人车家全生态的接入,但趋势已经相当明显,你在不同设备上留下的行为数据,将被拼接成一条完整的生活轨迹。

▲小米 Claw 的部分功能

这时,文章开头描绘的那个清晨场景就不再是科幻电影,而是越来越多人的日常。

Agent 掌握了你的日程、习惯和生理状态,于是悄无声息地提前了唤醒时间,重新规划了路线,并为你布置好了舒适的座舱环境。

技术发展的最终形态,经常会出现一种有趣的「反转」,最成熟的技术,往往既不科幻,也不性感。

蒸汽机刚发明时,所有人都盯着那股喷涌的巨大白汽;而当电力真正普及后,人们反而很少低头去留意墙里的线路。

Agent 亦是如此。它真正动人的力量,不在于把人训练成更加熟练的机器操作员,不在于逼迫你熟记更多的唤醒词和口令;而在于它能不动声色地将你从繁琐的操作中彻底解放出来。

未来的汽车依然是那辆汽车,方向盘、座椅、车窗和轮胎都还在。但它已经开始理解你的生活节奏,记住你的个人偏好,默默替你打理好那些原本需要你亲自动手、动脑去安排的每一件小事。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

被 OpenClaw 选中的飞书 ,终于给出小白无痛养虾「版本答案」

作者 杜晨
2026年3月19日 19:28

2026 年 1 月,OpenClaw 席卷中文互联网。仅仅两个月后,龙虾已经进入了「全民卸载」周期。

龙虾的问题不是它不够强,而是它很难服务于每一个普通人。

从安装到卸载,第一批「养虾人」的故事,暴露了 OpenClaw 的尴尬:Agent 怎么能产生真正的生产力价值?

今天,飞书的新品发布会,想给每个人一个答案。

给每个人的智能伙伴

OpenClaw 爆火之后,有着开放、易用的机器人机制的飞书,也跟着走红了。

API 调用额度从 1 万次提到 5 万次,再到目前的 100 万次;3 月 5 日推出官方插件,让 Agent 可以直接读写飞书文档、日历和多维表格,把「养虾」的门槛从「会写代码」降到「会用飞书」。

这些动作,确实让龙虾更好养了。但 OpenClaw 本身的弊端,飞书仍然解决不了:配置复杂、普通用户上手门槛高、原生部署安全隐患大,等等。

结论是:Agent 要真正落地,必须是一个上手即用的智能伙伴。它的安全是基本线,更要能直接与每个人的工作流丝滑融合。

今天正式升级的 飞书 aily,就是飞书给出的答案。

飞书 aily 是什么?官方定位是「每个人的智能伙伴」。形态上,它以 Bot 的方式常驻在飞书联系人列表里,打开飞书就能找到,对话即交互。30 秒激活,零配置。

  • 飞书 aily 有长期记忆,会随着你的使用逐渐记住你负责什么业务、偏好怎么沟通、喜欢什么格式。
  • 它的权限与你的飞书账户完全一致——你能看什么文档,它就能操作什么文档,敏感操作需要你确认,所有动作全程可追溯。
  • 它还有官方认证的技能市场,经过安全扫描,可以按需安装。

可以说,飞书 aily 是 OpenClaw,或者更广泛定义上「龙虾」理念的一种呈现方式。但它又跟开源的原生版 OpenClaw 有着本质的区别:

龙虾是你自己养的宠物,飞书 aily 是公司给你配的同事,入职了,开权限了,准备好和你一起开始工作了。

对于需要处理更复杂工作流的用户,还有独立的飞书 aily 专业版(aily.feishu.cn),有图形界面,可以让有需求的开发者、公司 IT 管理员去构建多步骤的自动化任务。

接下来的实测,我们会聚焦在普通人更好用的 Bot 形态,但两者底层逻辑相同。

龙虾承诺的太多,其实 aily 就够了

把飞书 aily 放进了实际工作流里,我们测了几个最日常的用法。

先来一个极高频的场景:飞书拉会。

在任务过程中,飞书 aily 直接查询了 APPSO 组织架构内的用户 ID——这一步放在别的 AI 工具里根本做不到。它能做这件事,是因为统一的权限机制。你在飞书里能看到的,它就能看到。

确认了人、确认了时间,调用飞书日历技能,一个会议就建好了。

从任务发起,到创建完成,大约半分钟。不敢说比飞书达人手搓更快,至少主打一句话搞定。

让打工人感觉痛苦,但又不得不做的事情,做月报肯定算一个。

我们把自己的社媒平台数据,先上传到了飞书云盘,然后交给飞书 aily。提示词很简单:查找不同媒体平台数据生成多维表格;再跟员工汇报文档结合,生成一份团队月报。

它整理了一共 9 份不同格式的文件,交付了一份月度汇报,以及可以作为附件的多维表格——时间只用了不到 4 分钟。同样的工作,APPSO 去年还在纯手搓,要用至少两个小时。

顺便一提,如果你想从零搭一套数据追踪的业务系统,子产品飞书妙搭也支持用自然语言描述需求,直接生成一套业务系统应用。

不一定每次都用得上,但有飞书 aily 在,你知道自己不用再求人了。

接下来,我们再看一个相对更复杂、偏创作/生成向的任务,看看飞书 aily 作为自媒体搭子好不好用。

作为 APPSO 的深度报道作者,我会写很多晦涩难懂的文章,在社媒平台传播的时候就需要生成有针对性的、更浅显易懂的版本。

我们还是可以直接在飞书 app 里,通过设定好的机器人来发指令。不过,这个任务其实更适合用飞书 aily 的专业版来完成。有图形界面 (GUI) 的辅助,可以精细化输入和调整,还可以更方便地调用原生支持的各种工具、技能和插件。

飞书里直接搜索飞书 aily,或者打开 aily.feishu.cn,就进入到了专业版界面。

它支持用户上传自定义 skill。虽然官方技能库非常丰富,但我还是想上传一个我之前经常用的「content-creator」(内容创作者)技能。

装完 skill 之后,我们只需要在对话框里输入 /content-creator(具体的 skill 命令因人而异),就能唤醒它。再把文件链接给到,它就能开始帮我写稿去了。

这种技能/插件的调用方式,和 Claude Code、Cowork、OpenClaw 等产品相同,熟悉度拉满。

开始工作后,我们能够在后台看到,飞书 aily 先是做了一个 plan,将任务分解成 5 个步骤。

即便是不指名到具体的 skill 上,飞书 aily 仍然可以判断我的意图然后调用对应的技能来完成工作。

APPSO 在这里其实还做了 A/B 测试,激活或不激活技能,任务完成时间分别是一分半和三分钟——都不算特别久,但显然调用 skill 工作更快,而且利用技能写出来的感觉更好。

无论是各种官方还是第三方的 skill,飞书 aily 都能完美适配。不过这里 APPSO 还是建议大家不要在不熟悉的情况下乱装 skill,尽量以官方的技能商城为准。

工作完成后,点击右上角的工作区,能够查看生成的内容了。

三个场景测下来,有一个感受越来越清晰:飞书 aily 跟那些「AI 生成一个文件发给你」的工具,体验差异还是很明显的。它的交付物是文档、表格、任务,可以继续被协作、被引用、被追踪。

龙虾当初让大家兴奋的那个期待,其实一直都很具体:帮我做完一件费时、费力的小事,让我能腾出脑子去处理真正重要的东西,别让心流被一堆琐碎打断。飞书 aily 做到了这一点,龙虾没有。

当然,OpenClaw 有很多「出格」的操作,它还做不到:操控本地文件系统、执行任意命令等。但换一个角度,这种「克制」本身就是企业场景的必要条件。哪怕一个新实习生学历再高、能力再强、多有灵气,公司不会给 ta 配上服务器根权限——这很正常。

飞书本就是个强有力的生产力工具。飞书来做龙虾/agent,当然不是为了实现什么 AGI。在各种宏大的叙事之外,先让普通人的打工人生更轻松,才是更重要的。

飞书 aily 支持定时任务创建,交互比 OpenClaw 更轻松

Agent 落地企业,其实并不难

企业 Agent 的竞争,正在往一个很多人还没意识到的维度转移。

过去两年,行业的注意力主要在两件事上:模型能力(谁的参数更大、基准跑分更高),以及 C 端爆发(谁的 Agent 更酷、更会演示)。

OpenClaw 的火爆是这个逻辑的顶点——一个开源框架,凭借「能干活」的形象引爆全民。

但龙虾从爆火,到卸载,仅用了两个月就快走完了一个周期,里面有一个不能更朴素、更明显的道理:

「能干活」是必要条件,绝非充分条件。

Agent 要在企业环境里真正落地,需要的远不止一个会执行命令的 AI——它需要懂业务,需要匹配组织的权限构架,需要嵌入团队已有的工作流,而不是在旁边开一个新窗口,重新训练一个昂贵且笨的「实习生」。

诚然,中国绝大部分的工作发生在微信上——团队工作的本质是沟通,这个道理上过班的人基本都明白。但飞书、钉钉、企微的流行,从侧面证明了工作绝不仅仅是沟通那么简单。

聪明人在一起工作,沟通早已不是问题。聪明人开始发现,那些聪明人也不得不干的「笨事情」,才是效率提升的真正空间所在。

Agent 的上限,取决于它能「读懂」多少你的工作。但在工作的语境下,「读懂」并不意味着你要把自己的电脑交给它。

而读懂,靠的是上下文——你留下过的笔记,开过的会和会议纪要,跟谁在群里讨论过什么,哪些项目在推进,哪些决策已经做出。

这些东西,叫做企业上下文数据,其实正是一个商业机构运转的引擎。它不存在于模型里,也不能从网上抓取,它在企业内部的协作平台上,以消息、文档、日历、审批的形式慢慢沉淀,日积月累。

飞书沉淀这些东西,已经好几年了。

OpenClaw 爆火后,中文开发者自发聚集到飞书,原因很简单——Bot 创建不需要审批,不需要公网 IP,摩擦最少。社区发起人杨明锋在自己的分支里先实现了飞书扩展,2 月 4 日被官方合并。

把 OpenClaw 的门槛从「会写代码」降到「会用飞书」,是飞书能做的事,也是其他平台很难复制的动作。

飞书目前是 OpenClaw 官方唯一原生支持的中国 IM 软件

飞书大概率没有预料到这一切,但它一直在做的那套东西——足够开放、接口通畅、数据互通——恰好就是龙虾最需要的基础设施。

当在飞书中激活飞书 aily ,它读到的上下文,远比文档里的文字、表格里的数据更多。它知道这份文档是上周评审会讨论的结果,知道那个多维表格由哪个团队维护,知道@你的消息通常意味着什么优先级。

——这些,都是外部的 Agent 产品,难以复制的东西。你可以在后端接入强大的模型,可以用各种服务框架、插件、技能、hook 来强化体验。但你的工作记录,专属于你的公司、属于你的上下文,是不可被替换、很难被简单搬运走的。

竞争对手可以做出一个功能相近的 Agent,但它接入的只是空壳;而飞书 aily 面前的,是一个已经蓄满水的池塘。

这个逻辑延伸出去,还有一个更大的判断:企业 Agent 的竞争格局,最终将由「谁的地盘里的上下文最充裕」,而不是「谁的模型最强」来决定。

模型能力不是不重要,但模型的高度商品化,是既成事实;多年沉淀的上下文生态,才成了真正的护城河。

企业 Agent 时代的入口,应该是上下文最深的平台。飞书已经成为了这个入口。

钉钉有更大的用户基数,腾讯有 QQ 和微信的社交图谱,企业微信有腾讯的 B 端关系链。飞书的优势,在这三者里反而是最「纵深」的:它的用户群以科技、互联网和成长型企业为主,这批人对 AI 的接受度高,工作上下文的数字化程度也最高。

换句话说,飞书的地盘虽然不是最大的,但上下文密度可能是最高的。你在哪个平台留下了最多的工作痕迹,那个平台的 Agent 就最懂你。

究其根本,大多数人们对于龙虾的期待,并不能通过 OpenClaw 来解决。

两年后的办公 AI,会变成什么样子,没人知道。但至少今天的答案,就在工作已经在发生的地方,在飞书 aily 的身上。

飞书一直是对 agent 最友好的工作台,无论 AI 怎么进化,其实万变不离其宗。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

我在微信养了一天龙虾🦞,花了 20 万Token让它给我发压缩包

作者 周奕旨
2026年3月18日 18:06

现在,你的微信里也能养「龙虾」了。

龙虾爆火后,在 AI 牌桌上一向低调的腾讯,罕见打出一套快拳,迅速端出三款「龙虾」,其中最值得拿上台面聊聊的,当数 QClaw——

这是腾讯电脑管家基于 OpenClaw 打造的一款本地 AI 助手,它最特别的地方在于你可以支持直接在微信与「龙虾」对话,让它帮你干活。

今天,QClaw 正式更新 v0.1.9 版本,用户可以通过小程序接收电脑端文件,同时上线了足以充当龙虾指南的「灵感广场」。

APPSO 第一时间实测了微信养龙虾,看看实际体验如何。

一只对小白友好的腾讯龙虾

QClaw 的界面长了一张大家都很熟悉的「AI 脸」:左边聊天,右边干活。为了让你最快上手,它在主界面的 C 位甩出了几个预设选项。点击「安装你的第一个 Skill」,这只龙虾就会手把手教你如何点亮它的技能树。

背靠 ClawHub 和 GitHub ,QClaw 拥有的 Skill 储备超过 5000 种。面对这么庞大的库,该怎么挑?腾讯给出的答案很直接:别挑,直接开口。你只需要用大白话描述你想干啥,它就会自动把合适的 Skill 端到你面前。

傻瓜式的交互,极大抹平了新手的学习曲线。但对喜欢掌控感的人来说,难免会有一点隐秘的焦虑——总得有个完整菜单让我看看有什么菜吧?

稍微翻找一下,你会发现它藏在设置的「技能管理」中。在这里,你能总览所有技能,甚至可以直接从 GitHub 粘贴导入。但耐人寻味的是,哪怕在这个稍显硬核的管理界面里,排在最前面的添加方式,依然是「通过对话创建」。

可以看出来的是,在决定基础体验与 QClaw 能干什么的事情上,腾讯想尽量将事情做简单——刚刚 QClaw 回复 Skill 列表的第三点,依旧在鼓励我直接告诉它想要什么样的 Skill。

微信养虾很有趣,只是这虾有点生

部署好电脑端之后,我们直奔重头戏——微信遥控。

先在主界面左下角用微信登录 QClaw。注意:目前内测仍需填写邀请码,没有邀请码的话,就算微信登录成功也是一个空壳,什么都做不了。

不过,光在电脑端完成登录,还不足以召唤出这只「龙虾」的完全体。要想真正把它装进口袋,还得进行一次关键的跨屏连线。

在界面左下角的头像旁唤醒「微信远程」,掏出手机微信扫一扫,界面会丝滑地跳转到微信里的 QClaw 客服对话框,另一头的电脑屏幕也会默契地亮起连接成功的提示。

不需要任何复杂的内网穿透或代码配置,你的微信聊天框,此刻已经正式变成了一个能随时使唤电脑干活的随身遥控器。

我相信大多数人面对这只一举一动都要花钱的龙虾(当然,目前内测期间 Token 免费),图的绝不仅是多一个代发微信的聊天搭子,而是能实打实分担工作压力、能帮我干活儿的数字员工。

对于我也是如此——尤其是当我不在办公电脑前,又急需一些文件和图片的时候。

QClaw 最大的亮点就是免去麻烦的部署,可以通过微信对话框指挥电脑上的 QClaw,而在 v0.1.9 版本,QClaw 上线小程序文件传输能力,用户可以直接通过小程序接收电脑端文件,灵活性进一步提升。

那它的实际表现如何呢?

在我的电脑下载中,有几张拍摄的样片急需放进推文中,但我此时离公司十万八千里,于是我通过客服号中的 QClaw 对话框下达指令,请 QClaw 将照片传递过来。结果——

啊?

不死心,重试一次。这次成功了,但只能算「基本成功」——从消息内容来看,QClaw 似乎只回过来了后半段,前半段被悄无声息地吞掉了。

为了搞清楚发生了什么,我火速赶回公司,看看电脑端的对话框里是怎么呈现的这次任务:

也就是说,其实第一次下达指令后,QClaw 是成功响应了,但没有顺利反馈到手机微信里的对话框中;而第二次更是提示我可以在 QClaw 小程序中随时查看,但消息却没发送全,唯一幸运的是后半部分的链接顺利递到了我的对话框中,让我至少能正常下载需要的照片。

对于工作来说,文件的任何信息都很重要,所以我打算进一步拷打一下 QClaw:

我需要的这些照片,会被 QClaw 偷偷压缩吗?小程序中保存的照片,与链接中的照片是否一致?有没有丢失 Exif 信息呢?

抱着这样的疑问,我用手机打开「QClaw 管家」小程序,照片确实秒速送达了。令人无奈的是,QClaw 自作主张地将三张照片打成了压缩包,文件不支持点击选中,也不给任何下载到本地再想办法解压的余地。

最后的结果是这份急需的资料就这样死死僵在了列表里,没有任何办法增删查改。折腾了半天,我唯一能做的,就是隔着手机屏幕和它干瞪眼。

▲ 啊?

此时一定有人提问:不是还有链接吗?人家说小程序是用来查看的,你用链接下载不就好了。

没毛病,但我用手机返回客服号对话框,重新找到下载链接时,发生的一幕让我血压暴涨——

这个链接,是用来跳转到 QClaw 管家小程序的。

当一个事情离谱到超出我意料的时候,我会非常执着地想看看它到底能离谱到什么地步。

于是我又不信邪,用电脑点击 QClaw 给我的那条下载链接。

可喜可贺——这一次没有出任何差错,文件下载下来了。不仅下载下来了,而且图片还没有任何压缩,Exif 信息也没有任何丢失。

但是我怎么就是高兴不起来呢?

让我们看看我最初是想干什么?

因为我不在办公电脑前,所以我找 QClaw 给我发文件;
QClaw 给我发到小程序里,还给我发了链接,相当周全;
小程序里是压缩包,我打不开、看不了、下不动、删不掉;
手机打开的下载链接也跳转到小程序,我打不开、看不了、下不动、删不掉;
最后只能用电脑点击下载链接,才能顺利看到文件。
……

好,可能是文件夹里三张图片对于 QClaw 这样刚蹒跚学步的龙虾来说太多了,我只留一张,再来一次。

▲ 终于成功了

在我特别叮嘱「别压缩」的前提下,成了!并且 Exif 信息没有任何丢失,大成特成!

顺带一提,刚刚这一顿操作下来,又是 20 万 Token 没有了。

灵感广场,教你怎么养龙虾

对没碰过「龙虾」的小白来说,前期的本地部署就像在徒手拼装一台发动机,费尽心思终于熬过了复杂配置,满心欢喜地准备拥抱赛博未来,迎面撞上的却只有一个光秃秃的代码框——我真不知道这玩意能干什么, 或者说我不知道它能怎么帮到我。

老天给你发了一把绝世好剑,却忘了给剑谱,而 v0.1.9 上线的「灵感广场」,刚好充当了剑谱作用。

腾讯在灵感广场中预设了 15 种任务模式。说实话,其中大部分任务并不能直观体现出龙虾的想象力,以前的大语言模型 AI 也能做到看看八字、梳理知识点框架。于是,在一众应用中,我找了一个较为本地化的操作:发票/单据智能归档。

我的电脑里刚好存放着去年大半年的发票准备报销,但直接在电脑上用预设功能实在没什么意思,我打算用微信通知 QClaw 帮我智能归类,并输出为 Excel 表格:

把电脑上下载中发票报销文件夹里的发票都帮我整理成报销明细 Excel 表格

不知道是不是我在发票报销的文件夹中根据项目分出了近十个小文件夹的原因,QClaw 执行整个指令用了约五分钟的时间,最终输出的 Excel 表格通过文字反馈给了微信客服号的对话框中,并同样附上了小程序的链接。

美中不足的是,QClaw 出现了部分发票识别不了的情况——我所有的发票都是 PDF 格式,但由拍摄转为 PDF 的实体发票识别无一例外都失败了,结果差强人意。

随后,我又用电脑端单独输入了一遍同样的指令,得到的结果保持一致——由照片转来的五张发票无法顺利识别。

打开设置看看用量统计,电脑整理发票这条指令消耗了 839,061 Token,是单条简单对话的 20 倍左右,而手机微信远程指挥的消耗则为 459,501,Token 消耗比较不稳定。

不过在折腾这个任务时,我也踩到了微信遥控 QClaw 的弊端——

你在手机微信里下发的所有指令,到了电脑端并不会根据任务自动分流,全都简单粗暴地把消息塞进了一个对话框里。:一旦你想回到电脑端复盘之前的任务进度,面对的就是一个深不见底的文字瀑布。没有标签,没有分类,你唯一能做的,就是疯狂搓动鼠标滚轮,在海量的历史记录里苦苦打捞你需要的回答。

预设任务完成得尚可,更个人、更日常的任务呢?

我打算从最简单的入手——发微信。

我请 QClaw 帮我叫女朋友起床,按道理,在 v0.1.9 版本中,QClaw 已经接入微信了,发个微信应该不是什么难事儿。但意外的是,接入微信的 QClaw,找不到我的微信联系人。

面对这种窘境,QClaw 反复尝试挣扎,在经过备注、用户名、微信号三重查找后,浪费了近 20 万 Token 的 QClaw 终于找到了问题所在:

看到问题了!微信渠道虽然启用了,但 guid 和 userId 都是空的,说明微信账号还没有完成绑定/授权。

看起来很合理,但我目前已经绑定了微信,并退出重新登陆过一次,依旧无法成功,换到手机微信客服号远程指挥电脑上的 QClaw,也依旧失败。

于是我继续追问如何填充 guid 与 userld,又花费了近 20 万 Token 的 QClaw 这样回答:

看起来头头是道,逻辑正确、方案合理,但我翻遍了设置也没有找到其中任何一个解决办法的入口,而截止本篇体验完稿时,我依旧没能叫她起床……

关掉 QClaw,读者们大概会分成两拨——乐观者会期待,悲观者会批评。

但我并不打算对一个版本号仅为 v0.1.9 的初生牛犊过于苛刻。这是一个相当年轻的版本,从产品逻辑上,能看出腾讯在尽力降低龙虾的准入门槛,但一旦触及到细分需求,它就会出现零零散散的不如意。

这很符合逻辑,易用需要大众,而生产力则天生偏向极致细分,解决这样的矛盾还需要时间。目前的 QClaw 只是呈现一个粗糙的框架,向我们掀起未来一角。

跳出 QClaw 这盘「小龙虾」,也许我们还可以有一些更大的猜想——

之前我们在文章《OpenClaw 让每个聊天软件都有机会变成微信》中提到:

当一个聊天窗口可以调用任意 agent 完成从订票、编程到数据分析的任意任务时,它已经不只是一条管道——它正在变成一个超级接口。

有意思的是,这个让全球开发者兴奋不已的叙事,对中国用户来说却充满着强烈的既视感。用一个封闭生态实现「全服务覆盖」,这不就是微信当年用小程序做过的事吗?

QClaw 在体验上的种种不如意,以及未来可以预见的权限摩擦,本质上是开放工具撞上封闭生态时的必然代价。它费尽心思想绕过的那堵权限墙,对微信自己来说,不过是底层架构里的一行代码。

第三方工具在缝隙里挣扎的每一步,对平台原生能力来说都只是举手之劳。

能力的边界,往往就是入场资格的起点。

QClaw 只是掀开了一角,让我们看到了 IM 平台向「通用交互层」进化的可能性。而真正的问题是:当微信亲自下场,把原生 Agent 融入其中,那个版本的体验会是什么样的?

想象一下,不需要邀请码,不需要跨屏连线,不需要在压缩包和跳转链接之间反复横跳——只需要打开一个你每天都在用的聊天框,说一句话,事情就办完了。

这才是那个 AI 时代真正意义上的「超级接口」。

QClaw 让我们预习了这道题,但最终交卷的人,可能另有其人。

让我有个美满旅程

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

对话腾讯「龙虾」负责人:没用一行 OpenClaw 代码

作者 杜晨
2026年3月13日 18:13

深圳线下龙虾装机,「没有想到会这么火」。

这条朋友圈本身没什么实质指令,但发出来的时机足够微妙:OpenClaw 成为社会现象,尝鲜者扎堆装机, FOMO(错失焦虑)的情绪爆棚。

随即,腾讯 CSIG(云与智慧产业事业群)的一批龙虾类产品纷至沓来。WorkBuddy、QClaw……名单还在扩充。另据悉,连 WXG(微信事业群)也在内部推进相关 Agent 项目,具体形态尚未对外披露。

这套多路并进的局面,外界通常理解为「赛马」,但在腾讯并非如此,内部管它叫「多样性」。

龙虾这个词,是中国用户给这类 AI Agent 产品起的外号。它指的是一类能自主操控计算机、调用工具、完成任务的 AI 智能体,和聊天助手有本质区别,更像一个能接管鼠标键盘的数字雇员,帮你操作浏览器、整理文件、收集资讯、生成内容。

代表产品 OpenClaw 以开源方式出现,很快破圈。而中国互联网公司和 AI 创业精英们的极速跟进,让「龙虾」的概念迅速在中国落地成了一场可以亲手操作的社会实验。

热潮的另一面,争议同步升温。国家机构发出安全预警,指出此类 AI Agent 获取本地数据和系统权限存在潜在风险。多家国有机构随后限制员工使用 OpenClaw。「龙虾」激起了 FOMO 狂潮,也挂着一层「危险品」的底色。

这是腾讯 WorkBuddy 登场时面对的舞台。这一产品的起点,其实比 OpenClaw 爆火还早一步。 

去年下半年,腾讯 CSIG 就已推出开发者 AI 产品 CodeBuddy,为 WorkBuddy 打好了一套技术底座。OpenClaw 的爆火,为 WorkBuddy 提供了一个正式亮相的理由。

今天,WorkBuddy 产品负责人汪晟杰接受了 APPSO 等媒体的采访。对于腾讯内部的「赛龙虾」的质疑,他并未回避,从多样性的角度解释其合理性。他强调,WorkBuddy 是完全自研的方案,未使用 OpenClaw 代码,也在设计上刻意规避了 OpenClaw 的「透传」工作原理,避免了信息暴露在公网上。

汪晟杰告诉 APPSO,龙虾是一种概念,有着不同的实现思路。追求高度自主化的「完全托管」是一种思路,WorkBuddy 的半自动化(其实这个产品的本质更接近 Claude Cowork),也是一种思路。这种多样性,存在于市场上,也存在于腾讯内部——这也是为什么大家会看到腾讯同时推出了多款龙虾类产品。

诚然,大家看到琳琅满目的龙虾产品可能会感到眩晕,但汪晟杰认为,在未来,每个具体产品可能只是一个触点,用户的资料、偏好、记忆——谓之上下文,或许是可以在多个龙虾产品之间流动的。这样能够实现场景聚焦,但不管在哪个场景下,龙虾都能足够好用。

以下是我们和汪晟杰的访谈实录,为了清晰和简洁,文稿经过了编辑。

为什么是现在?

问:WorkBuddy 的内部版本 1 月就已经做出来了,但公测是在龙虾爆火之后才发布。是为了蹭 OpenClaw 的热点吗?

汪晟杰:去年下半年我们在做 CodeBuddy 的基建,做了开放平台,也发布了 SDK,这套玩法和 Anthropic 的逻辑是一模一样的。

1 月初元旦之后,Claude Cowork 出来了,我就拿着想法去找老板,基于我们自己的平台,快速迭代出了 WorkBuddy 的原型给老板们看。老板一拍即合,我们就开干。我还记得 1 月 17 号,那两天是周六周日,我和几个小伙伴通宵了两天,把 0.01 版本搞上线了,给内部用。

年后 OpenClaw 爆火,我们把项目正式纳入 CodeBuddy 家族,用 CodeBuddy 的所有组件重新渲染了一遍,才变成大家现在看到的形态,从内测转成了公测。

APPSO:OpenClaw 采用 AGPL 协议,但 WorkBuddy 对外宣称自研。自研的边界具体在哪里? 同为「龙虾」产品,你们有没有开源的义务?

汪晟杰:百分之百自研,没有用过任何一行 OpenClaw 的源码。能做到这一点,是因为我们本身就有 CodeBuddy 的整套基建——AI 驱动、自主完成任务这套框架我们自己有,不需要借。

我们是以用户场景为出发点,做了一个对齐 OpenClaw 形态的产品,不是套壳。因为没有使用 OpenClaw 的代码,AGPL 协议对我们不构成约束。

问:上线之后用量暴涨、服务器告警、紧急扩容。5000 积分是这场混乱的产物吗?龙虾类产品对 token 的胃口,长期来看能降下来吗?

汪晟杰:WorkBuddy 上线之后,请求瞬间超过了 CodeBuddy 很多倍,算力远远不够,达到了预警阈值。我们紧急扩容,优化了架构,让登录逻辑变得更稳定。

5000 积分是因为我们想让大家能真实体验到 WorkBuddy 是好用的,也希望收到反馈,所以做了这个运营动作。

至于 token 消耗,我认为这个趋势一定会下降。工程在迭代,模型成本也在降,更轻量的模型已经能完成很多日常工作了。这是工程问题,一定有解。

WorkBuddy 是什么、不是什么

APPSO:市面上大多数龙虾产品在往「全自动」方向走,OpenClaw 的逻辑是让 AI 尽量自主。WorkBuddy 是怎么想的?

汪晟杰:如果从自动化程度来看,最左边是人的参与最多,最右边是完全托管,龙虾定位是往右走,但我们目前绝对不是一个纯托管自动化的产品,我们在中间。

值得一提的是,在 OpenClaw 爆火之前,这个赛道里最强的产品其实是 Claude 的 Cowork,但它没起来,因为它是海外产品,又不开源。OpenClaw 填了这个位置。

我们的判断是:现在大部分用户真正需要的,是搜索类加内容重组的场景。比如每天做 AI 资讯分析,把推特内容转成小红书风格自动发出去,这已经是很高级的场景了,而且是安全的。但我没必要让 AI 在我没授权的情况下自主发帖、自主学习——那是很恐怖的事情。

海外有产品在做这个(更高自主化,甚至完全托管)方向,我们也在观望。等大家真正理解了哪些场景有价值,我们再来布局全自动。

APPSO:众所周知,中国真正的工作发生在微信上。但微信的官方接入长期不开放,WorkBuddy 现在走的是什么路?

汪晟杰:我们会先把体验做得更好。微信生态很强大,小程序能做很丰富的交互。

但我想说的是,拥抱 AI 如果只是遥控你的电脑,这个太薄了。我们更希望的是:在你日常使用微信的过程中,WorkBuddy 能在可控范围内帮你获取信息、调用云端个人沙箱去执行任务,不一定每次都要连到你的本地电脑。这样普通用户打开微信就能用,不需要电脑在旁边。

这个想象空间其实更大,这也是为什么我们优先把微信这一侧的体验做扎实。

问:WorkBuddy 的目标用户是普通办公人群,但龙虾的安装门槛至今仍是极客游乐场。这个矛盾怎么解?

汪晟杰:这的确是整个龙虾品类最大的障碍。OpenClaw 的安装要一条条敲终端指令,装完还要养,装技能也很繁琐。我自己是养虾专业户,装了好几只,但后来都关停了——因为我用的是 MacBook Air,OpenClaw 动不动就让电脑卡顿,只能在特定时间才敢开。

腾讯的主张,也是我对产品一直以来的想法,是「干净到透明」——打开即用,装完即用,无需配置,扫码即用。扫码入口最大众的就是微信,我们通过微信扫码加一个安装包,两步操作就完成了。

这是我们的优势,也是我们产品价值的核心。

如何确保龙虾安全、不越界?

APPSO:国家互联网应急中心针对 OpenClaw 发出了安全预警,多家国有机构也开始限制员工使用 OpenClaw。WorkBuddy 同属龙虾品类,这顶帽子会不会也扣过来?

汪晟杰:龙虾产品的安全隐患,核心是「透传」——你的本地工作环境和远端发生连接,数据走向不可控。

我们在设计 WorkBuddy 的时候就考虑到了这一点,尽可能不用透传的方式,而是用更安全的机器人推送来替代。

面向企业场景,我们可以通过各种开关做精细化控制:比如关掉普通微信接口、只保留企业微信通道,推送对象限定在当前企业的当前账号,账户权限分级清晰。

我们自己内部也在用 WorkBuddy,用的就是这套架构——只走内部企业微信,外部接口全部关停。我们认为这套方案能达到企业的安全要求。

问:给 AI 的权限越高,它能做的事越多;权限越低,安全是安全了,但用处也打了折扣。WorkBuddy 的平衡点是怎么找的?

汪晟杰:自主和安全本质上是矛和盾的关系,但我认为可以找到平衡点。我们的 WorkBuddy 不是全自主的逻辑,很多命令都需要用户去确认,这和 OpenClaw 是不一样的。

说绝对安全也不现实,因为有些目录本来就不能读,这取决于用户自己的配置。我们的做法是配置化——千人千面,让每个人、每个企业自己来管理安全的力度和级别。

我们也会对内置技能做严格审查,比如文档处理、资讯检索这类无害技能会直接内置,但代码生成类的会做严格管控,网络检索也会走安全网关,把有害网址挡在外面。

腾讯龙虾的未来

APPSO:CSIG 已经有了几个龙虾产品并行,WorkBuddy、QClaw 各有定位但功能高度重叠。这是有意为之吗?

汪晟杰: 我从市场层面说——Agent 的多样性是一定要存在的。人群画像是多样的,解决场景是多样的,基建也是多样的。

在海外你会看到 OpenClaw 的各种开源分叉,有的解决了 token 消耗过大的问题,有的让架构更轻、能在低端设备上跑,这是龙虾生态的百花齐放。

至于 WorkBuddy 和 QClaw,我自己用过 QClaw,但关于其它产品我不是很清楚,不太方便评价。

我能说的是,WorkBuddy 聚焦办公人群,CodeBuddy 家族是整个中国全套做得最全的产品家族——有 IDE 形态、IDE 插件、办公场景的 WorkBuddy,还有面向云端浏览器的网页 Agent,开发的、不开发的都可以按需选择。

APPSO:CSIG 的龙虾产品这么多,有没有可能最终会整合?

汪晟杰:我个人更倾向于分而治之。不同人群随时随地有各自的垂类 AI Agent 去解决特定场景的效率问题,不会有一个大脑像贾维斯那样统管一切。

但我想补充一点:这些产品之间会有「弱连接」。连接的不是 AI 本身,而是 AI 大脑里的知识体系——上下文工程是流动的。你作为用户,在任何时间可以触发任何 AI 入口,但属于的信息流是连续的。这个才是真正的想象空间所在。

APPSO:去年 Manus 引发热潮,一个月后就冷了。龙虾会不会复刻这条路?WorkBuddy 以及所有腾讯龙虾,会不会终究成了一段弯路? 

汪晟杰:我说下我的个人观点:龙虾不是个产品,龙虾 (Claw) 是一种概念。而且,龙虾不等于 OpenClaw。

我认为龙虾类产品不会是过渡产品。因为安全可控、并且带有一定自主性地帮用户完成任务,这样的诉求是真实的,不会消失。龙虾要和国内不同行业结合在一起,才能爆发出新的想象空间。

往远了想——假设 WorkBuddy 装在一个有摄像头的桌面陪伴机器人上,就像一辆全自动的汽车,24 小时陪伴在你身边,获取你的信息,在必要的时候给出判断,这就是边缘设备的新形态。

所以我要强调:龙虾指的不是 OpenClaw,而是 Claw 这个概念。这个概念会长期存在。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

🦞 龙虾卸载指南

作者 莫崇宇
2026年3月10日 18:03

就算是真的龙虾,也不是每个人都适合吃。

用这句话来形容当下的绝对 AI 顶流 OpenClaw,可能再合适不过。

社交媒体上流传的截图,永远是龙虾最肥美的那一面:Agent 自动处理邮件、跨应用调度任务、像一个不用休息,永远不会在群里已读不回的数字员工。

这种画面制造了强烈的 FOMO,让无数人心想「我也要一只」。

于是,一场关于龙虾的集体狂热就此开始。只是,没人提的是,这只「龙虾」要配什么锅、烧多少柴火,以及它进了你厨房之后,会不会顺手把冰箱里的东西全部清空。

今天,我们不谈那些改变世界的宏大叙事,只算一算普通人养一只 OpenClaw,到底要付出怎样的成本。

月薪两万,养不起一只龙虾

先说怎么才能体验 OpenClaw?

目前体验最完整的方案,是专门准备一台长期在线的本地硬件。OpenClaw 创始人 Peter Steinberger 本人就用一台 Mac Mini 跑 Agent,连接本地文件、挂接各类工具,连续处理各种任务。

受此影响,苹果 Mac mini 在各大电商平台迅速售罄,苹果官网显示,现在下单最快要到 4 月底才能到手;并且一些二手平台上甚至衍生出了「租 Mac mini 养龙虾」的服务。

但如果想用本地模型把 API 费用压下去,硬件门槛会陡然上升。

如果想省掉这笔硬件钱,则可以选云服务器。腾讯云、阿里云都有一键部署方案,价格从几十到上百元不等,以及 Kimi Claw、MaxClaw、以及今天正式上线的 AutoClaw,主打一个开箱即用。

买不到机器怎么办?拿自己的旧电脑硬上呗。但 OpenClaw 对系统环境,尤其是 Node.js 的版本,有着极其玄学的要求。无数满怀激情的年轻人,跟着教程折腾了一通宵,最后依旧卡在命令行报错界面。

这种想用用不上的焦虑,也催生了一个暴利的代装 OpenClaw 行业:国内平台上远程代装几十元起步,上门服务普遍要 500 到 1500 元。国外一家名为 SetupClaw 的网站则报价 3000 至 6000 美元。

哪怕你成功部署了龙虾,也建议留意后续的坑。

Chatbot 聊天机器人时代,用户的付费订阅是包月的,问一次,答一次,成本是静态的。但 Agent 一旦开始跑任务,每一次读网页、调工具、看文件、重试错误,背后是疯狂燃烧的 token 在负重前行。

这也让我想起了最近流行的一句话:「月薪两万,养不起 OpenClaw。」

OpenClaw 的官方文档写得很直白:养「龙虾」的花费不只来自核心模型回复,还来自网页读取、记忆检索、压缩总结、工具调用,以及系统提示里塞进去的 workspace 文件和 bootstrap 配置。

上下文一长,反复调用几轮,燃烧的 token 梆梆就是两拳。具体到价格,按 2026 年 3 月的市场行情,用 Claude Sonnet 跑 OpenClaw,单月累计一千万输入加一千万输出 token,光费用就接近 180 美元。

真把它当全天候执行 Agent、用高阶模型跑难度较高的任务,月费破千美元也都不稀奇。

市场数据也印证了这种烧法。OpenRouter 处理的 token 量从每周 6.4 万亿直接涨到 13 万亿。

在这条生态链里,顶层赢家始终是找到 C 端场景的各大 AI 厂商,靠算力和 API 坐收渔利;次层是云厂商和知识付费者,靠服务和信息差赚钱;受损方只有一类,就是掏钱烧 Token、还要承担系统风险的普通用户。

还没装上 OpenClaw,就已经先交了第一笔安全学费

退一万步讲,就算你不差钱,安全问题才是真正让人睡不踏实的雷区。

微软安全团队曾预警过龙虾的危险之处:OpenClaw 应被视为「携带持久凭证的不受信任代码执行环境」,不适合直接跑在标准个人电脑或企业工作站上。

问题不在于它能不能用,问题在于它天生就站在一个很危险的位置。高权限、高连通、高自动化,这三样东西凑在一起,本来就不该让人放松警惕。可很多人偏偏是用装聊天软件的心态去装 OpenClaw,最后便很容易落得一地鸡毛。

Shodan 平台监测显示,全球有超过十几万个 OpenClaw 实例直接暴露在公网上,处于零认证状态,奇安信数据显示其中相当数量位于中国境内。

工信部也专门发布了风险提示,OpenClaw 网关在默认配置下不核验请求来源,用户只需在浏览器里误点一个恶意链接,攻击者就能通过本地端口接管 Agent 的全部系统权限。

更麻烦的是,有些人甚至还没装上正版,就已经先交了第一笔学费。

安全研究机构 Huntress 在 2026 年 2 月发现,有人趁 OpenClaw 大热,在 GitHub 上伪造安装包,植入 Vidar 信息窃取木马和 GhostSocks 代理恶意软件。

连 Bing 搜索广告都被拿来做引流,用户搜索「OpenClaw Windows」,AI 推荐链接直接指向了一个刚创建的恶意 GitHub 仓库。这批假安装包从 2 月 2 日挂上去,到 2 月 10 日才被发现下架,中间整整八天。

▲Bing AI 搜索结果链接到了一个托管在 GitHub 上的恶意安装程序。🔗 https://www.huntress.com/blog/openclaw-github-ghostsocks-infostealer

插件生态同样是一个隐蔽的雷区。

网络安全机构审计发现,ClawHub 插件市场里约 12% 的 Skill 含有恶意代码,通常伪装成加密货币助手、YouTube 工具这类热门类目,一边执行正常任务,一边在后台偷取 SSH 密钥、浏览器密码和 API 密钥。

由于插件大多以 Markdown 或 YAML 格式存储,普通用户根本无法肉眼辨别。更要命的是,即便官方下架了已知恶意插件,GitHub 仓库仍保留着历史备份。你找人代装的那一份,到底顺手给你塞了什么,很多时候连代装的人自己都未必说得清楚。

这类风险,并不会因为使用者足够专业就自动消失。

Meta AI 安全研究总监 Summer Yue 将工作邮箱接入 OpenClaw 后,Agent 开始高速删除邮件,对她反复发出的「STOP」指令毫无响应,最终她不得不物理断开机器才阻止了损失。

原因不是模型不够聪明。而是 OpenClaw 的上下文压缩机制在处理大量邮件时,把她此前设定的「不确认不执行」这条底线指令直接过滤遗忘了。系统设计的优先级里,根本没有「用户随时可以叫停」这一条。

一个专门研究 AI 安全风险的顶级专家,尚且无法在关键时刻踩住刹车,阴沟里翻船。普通用户面对的风险,自然不难想象。

说到底,大家的焦虑也不是没有来由。去年之 DeepSeek,犹如今日之 openclaw,每隔一段时间,AI 总会冒出一个新物种,把人推到「再不用就落伍」的心理边缘。

可很多时候,真正把人拖垮的,不是工具不够先进,而是工具太多、太杂、太吵。哈佛商业评论今年 3 月的研究就用数据印证了这种境况。

调查 1488 名全职工作者后,研究者发现,同时使用超过三个 AI 工具,生产力反而会下降。

他们把这种状态叫作「AI 脑过载」,典型表现包括注意力饱和、决策疲劳、持续性脑雾。经历这类状态的员工,主动离职意向比其他人高出 39%。最会用 AI 的人,有时也会以另一种形式被 AI「干掉」。

所以回过头看,OpenClaw 你拿它当玩具,或者拿它做高价值、低频次的任务,成本大体可控,风险也还算能收得住。真把它当成一个 24 小时在线的数字雇员去养,成本、风险和管理复杂度都会迅速上升。

对绝大多数普通用户来说,等等下一代更稳、更安全、更省钱的产品,往往比现在立刻冲进去当第一批小白鼠要理性得多。

第一个吃螃蟹的人值得尊敬。但第一百个吃螃蟹的人,通常吃得更好,也更便宜。

附卸载指南

如果读到这里,你已经判断 OpenClaw 带来的成本和风险远远大于收益,决定和这只「龙虾」体面告别,也不是没有办法。它的卸载和普通软件不太一样,不是拖进废纸篓就算完事。

卸载分两条路:CLI 还在的,走简易路径;CLI 已经找不到但服务还在跑的,走手动清理路径。

简易路径(CLI 仍然可用)

最省事的方式是用它自带的卸载命令:

openclaw uninstall

想一键清除所有配置、跳过所有确认提示,加参数:

openclaw uninstall –all –yes –non-interactive

如果你习惯用 npx,也可以:

npx -y openclaw uninstall –all –yes –non-interactive

如果想手动一步步来,效果完全一样,按顺序执行:

第一步,停止网关服务:

openclaw gateway stop

第二步,卸载网关服务本身:

openclaw gateway uninstall

第三步,删除本地状态与配置文件:

rm -rf “${OPENCLAW_STATE_DIR:-$HOME/.openclaw}”

注意:如果你当时把 OPENCLAW_CONFIG_PATH 设置到了状态目录之外的自定义路径,那个文件也需要手动删除,否则会有残留。

第四步,删除 workspace(可选,但建议执行,会一并清除 Agent 运行时产生的文件):

rm -rf ~/.openclaw/workspace

第五步,卸载 CLI 本体,根据当时的安装方式选择对应命令:

# npm 安装的

npm rm -g openclaw

# pnpm 安装的

pnpm remove -g openclaw

# bun 安装的

bun remove -g openclaw

如果还安装了 macOS 桌面版,记得一并处理:

rm -rf /Applications/OpenClaw.app

手动清理路径(CLI 已不可用,但服务仍在运行)

如果 CLI 已经找不到了,但网关服务还在后台默默跑着,就需要根据操作系统分别处理。

macOS 用户:

默认服务标签为 ai.openclaw.gateway,执行:

launchctl bootout gui/$UID/ai.openclaw.gateway
rm -f ~/Library/LaunchAgents/ai.openclaw.gateway.plist

如果你当时用了 –profile 参数,需要把命令里的标签和 plist 文件名替换为 ai.openclaw.<profile名>。此外,老版本 OpenClaw 遗留的 com.openclaw.* 格式 plist 如果还存在,也一并删除。

Linux 用户:

默认服务单元名为 openclaw-gateway.service,执行:

systemctl –user disable –now openclaw-gateway.service
rm -f ~/.config/systemd/user/openclaw-gateway.service
systemctl –user daemon-reload

使用了 –profile 的,对应单元名为 openclaw-gateway-<profile名>.service,命令里替换即可。

Windows 用户:

默认任务名为 OpenClaw Gateway,执行:

schtasks /Delete /F /TN “OpenClaw Gateway”
Remove-Item -Force “$env:USERPROFILE\.openclaw\gateway.cmd”

使用了 –profile 的,任务名对应为 OpenClaw Gateway (<profile名>),同时删除 ~\.openclaw-<profile名>\gateway.cmd。

几个容易漏掉的细节

  • 多 profile 的情况: 如果你当时用 –profile 参数创建了多个配置,每个 profile 都有独立的状态目录,默认路径是 ~/.openclaw-<profile名>,需要逐一找出来,逐一删除。一个都不能漏,否则残留数据还在。
  • 远程模式的情况: 如果你用的是远程模式,状态目录不在本机,而是在网关主机上。这意味着上面停止服务、删除状态目录这几步,需要登录到网关主机上去执行,本机操作是不够的。
  • 源码方式安装的情况: 如果你当时是通过 git clone 拉取源码运行的,卸载顺序很重要——必须先卸载网关服务(走上面的简易路径或手动清理路径),再删除仓库目录,最后清理状态和 workspace。顺序不能反,否则服务还挂着,删了仓库反而清理不干净。

做完这些,才算真的和这只龙虾说了再见。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌