阅读视图

发现新文章,点击刷新页面。

我和 AI 搭子工作了一周,再也回不去了

龙虾还没装上,朋友圈已经开始「养马」了。今年 OpenClaw 和 Hermes 火了之后,AI 能干活这件事算是彻底坐实了。

不过虽然 AI 圈的朋友熬夜「养龙虾」,已经跑通了各种自动化流程,但很多人大多在配置环节就劝退了。

就算跑通了,可能干得也是查查资讯写个报告的活,Token 消耗也非常吓人,干一个稍微复杂点的任务,账单可能会吓你一跳。

目前国内很多 「龙虾类」和 Cowork 类的产品也如潮水般涌来,作为一个 AI 媒体编辑,在体验了一堆产品后,我发现了一个有点意思的产品, 搭子DuMate

这是百度智能云做的桌面端 Agent,这次名字看似平平无奇很容易略过,但它给自己取的中文名「搭子」,反而引起了我的好奇

在大厂小厂都在贴近热点定义 AI 产品的时候,它不叫 Agent,不叫 Claw,不叫 Copilot,反而叫搭子这个有点接地气的名字。

在体验一段时间后,我发现当 AI 成为我的工作生活搭子,它更接近理想中 Agent 的模样。

值得一提的是,搭子DuMate 目前每天免费赠送 1000 积分,基本够一天正常使用。在 搭子DuMate 中输入 APPSO 专属邀请码「appso12」,还能额外领取大额永久积分。

让 AI 收拾我的电脑,比龙虾更轻松

搭子DuMate 的安装过程基本非常简单,下载客户端,一键装到本地,不需要配置任何开发环境。打开之后授权一个工作文件夹,用自然语言告诉它你想干什么就行。

跟 OpenClaw 那套「养龙虾」的折腾比起来,搭子DuMate 的上手门槛,基本是会打字就行。

我们先从最基础的场景开始小试牛刀。

我有个坏习惯,从来不整理分类电脑的各种文件,结果一段时间后合同 PDF、项目 Excel、会议录音、论文报告、半年前的截图,全堆在一起。

每次想整理都觉得工程太大,然后继续拖下去,无限循环。

这次我对搭子DuMate 说了一句:「按日期和文件类型,帮我把下载文件夹里的东西分类归档。」

 

说完我就去倒水了。回来的时候,下载文件夹已经被分成了十几个子目录:文档类按年月归档,图片单独一个文件夹,音频归音频,顺便让它清理重复和无效文件。


几年的积灰文档,几分钟搞定。

说到这里要插一句。让一个 AI 碰你真实的工作文件,第一反应肯定是:安全吗?比较之前 OpenClaw 出现过不少误删文件的事故。

搭子DuMate 的处理方式是这样的。它运行在本地,文件在你自己电脑上处理,不上传云端。它只能访问你授权的文件夹,第一次要动一个新目录会先弹窗问你是否允许。

删除、移动这类风险操作有二次确认,整个执行过程在屏幕上实时展示,你随时可以叫停。

数据不出设备,权限你说了算,操作也是全程透明。 这也是我后来敢把真实工作文章资料交给它的前提。

确认了安全没问题之后,我试了一个真正有业务含量的任务,给它上点难度。

做运营的人都知道渠道投放数据有多烦。光是天猫、京东、抖音、小红书四个平台,后台数据格式也不一样,每周要手动下载、清洗空值和重复项、统一格式、算 ROI、做透视表,最后还得整成一份给领导看的 PPT。

这套流程顺利的话要半天,不顺利的话加班没跑了。

我把四个平台的投放数据丢到桌面一个文件夹里,然后对搭子DuMate 说:「整合这四个平台的投放数据,清洗空值和重复项,计算各渠道 ROI,做透视表,最后生成一份汇报 PPT。」

它开始逐个读取 Excel,自动识别不同平台的字段差异,统一列名,剔除空行和重复记录,按渠道计算投入产出比,生成了一份带透视表的汇总 Excel。然后基于这些数据,自己搭了一份 PPT:封面、各渠道 ROI 对比柱状图、投放趋势折线图、问题渠道标红、末尾一页总结和建议。

说实话,排版比我自己做的好看。数据准确度我逐项核对了,没发现错误,它甚至自己纠正了一些表格的错误,比我还要细心。

它读了你的 Excel,分析整理这些的数据,生成了你要的 PPT 和表格,存到了你指定的文件夹。输入需求后,从头到尾我没打开过一次 Excel,没动过一次鼠标。

它边执行边思考,直接把成品给你,像一个聪明且执行力强的同事。

我和我的搭子,「搭」出了一套 AI 工作流

上面两个场景,说白了还是「你给任务,它干活」。真正让我感受到「搭子」,是它自己找活干的时候。

APPSO 聚焦 AI 方向的内容,这是个资讯爆炸更新飞快的行业,每天要盯大量行业和产品动态。以前的做法是早上花一两小时刷各种信息源,手动整理成当天的选题池。

现在我在搭子DuMate 建立了一套热点监控,并设了一条定时任务:每天早上 8 点,自动抓取主要科技媒体和社交平台的 AI 相关热点,整理成结构化的热点清单,并发送给我。

每天早上醒来,当天的热点已经整整齐齐躺在那里了。哪些重要性和热度更高,哪条是突发新闻,哪条是深度分析,哪条适合跟进做选题,它都帮我分了类。

热点抓取靠的是搭子DuMate 内置的百度搜索 Skill,这个 Skill 在 ClawHUB 上全球下载量超 8 万次,确实有点东西。

说到 Skill 多提一句。搭子DuMate 兼容 OpenClaw 标准,ClawHUB 里的第三方 Skill 可以直接导入。OpenClaw 社区积累的那些扩展资源,拿来就能用。它自己的技能广场里也有一堆现成的可以选装,腾讯文档、飞猪、滴滴都在。

对我来说这意味着想加什么能力,装个 Skill 就行,不用等官方更新。

搭子DuMate 打通了微信、飞书、如流、钉钉等主流的 IM 软件,基本也是一键绑定。然后接下来发生的事让我觉得AI 在我的工作流里真正跑通了。

昨天我让它给我整理热度资讯,搭子DuMate 给出头条就是:荣耀机器人「闪电」包揽 2026 北京亦庄人形机器人半程马拉松冠亚季军。这条消息到处刷屏,我判断值得赶一条短视频蹭热点。

以前的流程是:找素材、写脚本、打开软件、导出、上传,快的话两小时,慢的话半天。

这次我没有切到任何别的应用,直接在微信里回了搭子一条消息:「我是 AI 媒体 APPSO 的编辑,刚才那条机器人半马的热点我想跟,做一个 10 秒的短视频。我桌面的一个文件夹里有机器人半马素材相关的视频剪辑方案和几张参考图,帮我生成一个视频。」

它读了我桌面的剪辑方案和参考图,自动生成了一条 10 秒短视频,带旁白和背景音。

早上 8 点搭子推热点,8 点 10 分我在微信里回一句话,8 点半视频就生成了。 从发现热点到产出内容,全程在微信里完成,视频制作这样的活,我在路上就能完成。

最后一个场景可能是最让我惊喜的。

黄仁勋最近有一期很火的视频播客,我想把它变成一份可以内部分享的材料。我对搭子说:「整理这个视频播客,生成一个极客苹果风的 PPT,把黄仁勋的核心观点和金句提炼出来,内容尽量详细。同时根据视频内容测试一些适合科技媒体的选题方向,给我一个详细的报告。」

它先访问了视频链接,提取了完整的语音内容并转写,然后逐段分析,把黄仁勋的核心论点整理成结构化的 PPT,将访谈划分章节并整理出黄仁勋的金句。

风格确实是那种简洁的苹果范儿。同时它另外生成了一份选题报告,从视频内容里提炼出五六个适合科技媒体跟进的角度,每个角度附上切入点和参考素材。

两份文件,PPT 加报告,一共花了不到十分钟。

我核对了一下内容,金句提取准确,观点归纳基本到位,选题角度里有两个我已经在考虑的方向,还有一个我没想到但确实值得做。

除此之外,内容排版、小红书微博的撰写发布、各个平台的爆款分析,其实都可以一起完成,我和这个「搭子」,就能搭起来一条完整的内容生产流水线,我跟它的协作方式,真的就和跟团队得力的同事共事没太多区别。

搭子,一种新的人机关系

用了一段时间后,我对 搭子DuMate 的感受不再是「这个工具好用」,更接近一种新的「同事关系」。

它帮我整理文件的时候,我发现自己不紧张。因为我知道它只碰我授权的文件夹,风险操作会问我,做了什么全程可看。信任不是它承诺「我不会乱来」,是它的机制让它没法乱来。用了几天,我和它之间自然形成了分工:它负责重复劳动,我聚焦决策方向。

再往后是默契,第一次纠正了它,往往第二次它端出来就是我要的味道。这跟它的记忆能力有很大关系,会随着使用的时间不断了解你的审美风格偏好。

你细想一下,信任、分工、默契。这三个词,一般不是用来描述人和工具的关系,你不会说你跟 Excel 有默契,它说的是人和人(搭子)的关系。

AI 行业给产品取名这件事,其实很像相亲时的自我介绍。你怎么介绍自己,暴露的是你怎么理解这段关系。

搭子的逻辑是什么?你约饭搭子吃饭,谁先看菜单谁先点,没人在乎。搭子关系里没有机长和副驾驶,只有「你干你的,我干我的,干完一起收工」。

「搭子」这个词真正指向的,不只是一个更聪明的 AI ,是一种新的人机关系。你负责判断和决策,它负责执行和交付。你们平等协作,不是主仆。活干完了各自散去,下次有事再来。

AI 不再是你身边被动待命的角色。搭子是两个人在干活,只是其中一个不需要喝咖啡

想试试什么叫真 AI 搭子的,可以去勾搭一下搭子DuMate 了。

APPSO 还了解到,在5 月 13 日-14 日的百度 Create 大会,搭子DuMate 将会发布一系列更新。

这次 Create 大会除了面向企业、开发者和合作伙伴的 AI 底座更新,重头戏放在了 Agent 基础设施的最新进展上,怎么搭、怎么落地,可能是全场最值得蹲的干货。

届时 APPSO 也会第一时间带来现场报道,敬请期待。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

荣耀推出「养虾本」,这才是 2026 年 AIPC 的答案

「龙虾」OpenClaw,恐怕是继 ChatGPT 之后,最火的 AI 关键字。

但如果你问问周围的朋友,他们大概率从来没亲自部署、使用过龙虾。

在普通用户与龙虾之间,横着一道清晰的技术鸿沟。

于是乎, 一个更关键的问题开始浮现:当 AI 真正展示出潜力, 决定它能否普及的,究竟还剩下什么?

答案正在从云端,慢慢转向终端,那些离用户更近的设备厂商,开始尝试补上这「最后一公里」。

作为终端厂商的荣耀,给出的解法颇为直接:直接把「龙虾」预制在产品之中,用户开箱即用,再也不必瞻前顾后,一次性解决部署及上手复杂、使用成本高、隐私安全风险三大龙虾智能体面临的痛点问题。

开箱好用的荣耀 YOYO Claw 技术

荣耀全新推出的 MagicBook Pro 16,是一台相当「新」的笔记本。

首先是配置够新:最高第三代酷睿 Ultra X7 358H 处理器、32GB 运行内存,都是今年高端轻薄本的标配。

更关键的,是它的定位够新——荣耀官方将其定义为「天选养虾本」,自带一个「荣耀 YOYO Claw」龙虾技术智能体。

不需要面对烦人的命令行,荣耀 YOYO Claw 技术已经打包成了一个应用,双击点开就有一个直观、简单的图形界面。

这解决的是第一层问题「怎么用」;被忽视的问题,是「用来干什么」。

很多人都知道龙虾很强,却说不清楚它强在哪,不知道如何为自己创造价值,干脆止步于「听说很强」。

哪怕真的把 OpenClaw 折腾进电脑里,还要继续面对 Skills 的安装、调试,以及如何嵌入自身工作流的复杂门槛,这些步骤,同样劝退了大多数人。

荣耀连这点复杂性也直接替用户消灭了——荣耀 YOYO Claw 技术预制了 5 个「主虾」和 23 个「子虾」,覆盖教育、办公、学术、内容创作、智能辅助等五大场景。

荣耀 YOYO Claw 技术端云混合的架构,也让其拥有了更强大的自主学习潜力:用户每一次和 YOYO Claw 对话, 每一次上传或生成文档,龙虾都会总结经验和模板,方便日后直接复用。

换句话说,它不止于单次任务的交付,更是一个懂得持续成长的助手,越用越顺手,也越懂你。

所以,与其说荣耀 YOYO Claw 技术 「开箱即用」,我更愿意称之为「开箱好用」。

如果把 OpenClaw 比作「赛车」,能力很强,却太硬核,只是属于少部分人的炫技,那么荣耀想做的,就是一辆「家用车」,人人都能享受到技术带来的提升。

就像是计算机诞生之初,人们都对它的计算能力有所耳闻,只是普罗大众不懂编程语言,也不知道拿这么高的算力干什么。

直到一个名为 VisiCalc 的电子表格程序问世,这种强大的计算能力才真正交到了普通人的手中,不需要学习技术,也能获得远超手工的效率提升,于是计算机真正走向了大众。

从能力到应用的转身,从技术到场景的扎根,这也是龙虾的正确「打开方式」。

好龙虾得人人能吃

把时间往 2022 年底回拨,回到 ChatGPT 刚刚崭露头角那一段时间。

为什么 ChatGPT 能够病毒式传播,以迅雷不及掩耳之势席卷全球,并快速在每个行业生根发芽?有两个非常重要的核心原因:易用、好用。

只要有合适的网络环境,在浏览器输入 ChatGPT.com,界面简洁到只有一个对话框,想输入什么都可以,就连小学生都能和 AI 聊个几轮。这种输入自然语言直接获得输出的交互方式,是以往的机器前所未有的,一夜之间开始了对人类工作方式的改造。

和真的龙虾一样,OpenClaw 「好吃」却不容易吃,只是想尝尝味道,难度都是当年 ChatGPT 的指数级,在更多人使用的 Windows PC 上,部署起来更是困难重重。

从技术到落地之间的鸿沟,要靠终端厂商来跨越。像荣耀 YOYO Claw 技术这种直接预装在产品,双击鼠标就能启动的「预制虾」,很可能就是大部分用户吃到的第一口虾。

荣耀 YOYO Claw 技术上手难度极低,用户只需要扫描二维码登录, 就能连接飞书、微信等第三方平台,通过聊天框就能和龙虾交互,不需要任何额外的复杂 API Key 配置。

把复杂留在技术底层,把简单交到用户手上,把红利转化到体验之内,这比什么都更重要。

解决完「能不能用」的问题只是起点,事实上将「龙虾」摆在普通用户面前,大家依旧会有所顾虑,担心它太烧 Token,还没赚到钱就先花光钱,也担心它权限太高,一个不留神泄露隐私,或着把文件删完。

因此,要真的把龙虾产品化,让更多人能用和敢用龙虾,解决这两个问题同样至关重要。

作为一家终端厂商,荣耀比 AI 厂商多了一层优势——设备的本地算力。

端云协同的架构,端侧优先的路线,让荣耀 YOYO Claw 技术能够最大化 Token 的价值:端侧可以完成的任务,就在本地完成;需要调用云端算力,则通过精准匹配需要的 Skills。前者直接压缩消耗场景,后者精细化分配资源。

根据荣耀官方数据,荣耀 YOYO Claw 技术对比 OpenClaw 综合词元消耗节省 50% ,极端场景甚至达到 90%。

有一个很典型的场景:本地搜索。传统的 OpenClaw 相当依赖云端算力,像是本地文件检索这种工程量稍大的任务,要不断调用脚本,不仅效率极低,Token 也如流水般被迅速消耗。

作为一家终端厂商,荣耀可以调用本地算力和模型,本地搜索的任务完全可以端侧运行,不仅速度够快,也能更便宜。

随着生成式 AI 浪潮席卷全行业,「词元经济」也已经崛起,今年 3 月,我国日均词元调用量突破 140 万亿,两年增长超千倍。

当 Token 与经济直接挂钩,每节省一个 Token,都在直接创造实打实的经济价值。

龙虾高权限带来的高风险,荣耀YOYO Claw 技术的做法是「以虾制虾」。

荣耀 YOYO Claw 技术配备了一只「独立安全虾」,可以全程监控其他龙虾的所有操作,并及时拦截类似格式化硬盘这样的高危操作,如果调用支付、摄像头这些敏感权限,也会要求用户进行二次确认。

至于龙虾的「记忆」能力,以及核心数据的处理,也会限制在端侧完成,避免隐私上云或泄露。

从不会用到不用学,从用不起到用得起,从不敢用到不怕用,荣耀 YOYO Claw 技术为龙虾落地找到了一个新的路线——参数和性能之外,人人能吃的才是「好虾」。

养虾本,AI PC 新标准

2023 年,生成式 AI 爆发的元年,作为规则制定者的英特尔和微软,也第一时间提出了「AI PC」的概念。

差不多 3 年过去,AI PC 却只停留在口号层面,无非键盘上多了一个 Copilot 按键,系统内置了 AI 聊天机器人——这些能力,大多在浏览器里早已可以完成。

问题的关键在于,没有人知道所谓的「AI PC」应该是什么样的形态和路线,该如何让 AI 与计算机进行本地结合,才能为用户带来价值。这些疑问悬而未决,自然无法交不出一个让人满意的答卷。

距离 ChatGPT 一鸣惊人已经过去三年,打工人早已不满足于只在对话框里与 AI 进行问答游戏,既然 AI 明明很有潜力,它不应该只能「回答问题」,最好像一个助理一样,直接帮用户解决问题。

在这种期待之下,作为一个贴着「AI」标签的生产力工具,所谓的「AI PC」却相当让人失望。

就在这时,OpenClaw 出现了。

这个更适合在电脑部署、并且高度软硬结合的 AI 方案,为「AI PC」指明了一个全新的方向。

OpenClaw 本质上还是一个实验性质非常鲜明的探索项目,具有高门槛、低稳定的特性,原本也是属于少部分极客群体的玩具。

但它就像普罗米修斯的火种,一旦被带到人间,人们便无法忽视它的价值,让越来越多人心向往之。

毕竟,我们真正向往的,是一个能够部分乃至完全接管工作流的系统,自动理解任务、自动拆解流程、自动完成执行。OpenClaw 的意义,正在于它第一次清晰地展示出,这条路径在当下是可行的。

即使它仍然青涩,伴随着各种风险和不确定性,行业都必须要走这条路,因为这座高峰「就在那里」。

在这条路径上,不同角色分工逐渐清晰:大模型厂商专注于打磨技术底座,任务最「硬」,离用户却最远;互联网厂商推动 AI 大模型应用的落地,灵活变通,速度很快,但难以做「深」。

更接近用户侧的终端厂商,则承担「做深做实」的角色,他们更懂用户习惯和需求,更有机会把 AI 变成真正可用的工具。

尤其是在「龙虾」这种相当强调软硬协同的形态,终端厂商既拥有天然优势,也承担着某种不可回避的责任。

于是,预装一套打包好的「YOYO Claw 技术」,对荣耀而言既是顺势而为,也是必要一步,更是未来 AI PC 的一个样本答案。

这不是「龙虾」的终点,甚至只能说刚刚起步,毕竟,我们才刚刚克服龙虾「人人能用」的门槛。

作为更懂用户的终端厂商,手握多种设备生态的荣耀,龙虾从来不应该只囿于 PC 的方寸之间,更应该实现免配置的跨设备流转。

荣耀 YOYO Claw 技术支持全家多人共用一台 PC,每人都有一只独立的专属虾,满足不同的需求:孩子用来辅导作业,老人用来提醒吃药。

爱范儿也获悉,荣耀内部已经在布局 YOYO Claw 技术的跨生态能力,不过度依赖设备,让算力和能力根据场景自由流淌。

完全可以设想这样一种场景:在荣耀手机上对 YOYO 助手下达一个指令,让它在荣耀笔记本上检索一个数据表,然后让 YOYO Claw 参考以往的文件,生成一个季度报告,直接通过飞书发给其他同事。

当 AI 从单连线,从单一工具转身成为跨设备的系统级算力,它才真正进入工作流,进入生活方式,进入每一个「你我」的日常。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

卸载龙虾后,我找到了更香的爱马仕 Agent,5 分钟带你极速上手

「人红是非多」,Hermes Agent 最近真的火了,一边是 GitHub 积累了超过 8 万星,增长趋势完全是直线上升。

另一边是来自国内开发者的公开指责,说 Hermes Agent 是抄袭了他们的项目 EvoMap,Hermes Agent 的负责人在 X 上回应,表示这是无中生有,从没听说过有 EvoMap 这个项目。

双方都僵持不下,但无论是 EvoMap 所提出的三层记忆系统、主动学习,还是 Hermes Agent 内一样的逻辑架构与核心概念,这种形态的 Agent 或许在此刻都比 OpenClaw 更值得关注。

之前 APPSO 介绍过 Hermes Agent 的基本情况,以及与 OpenClaw 的差别。

它最大的特点就是能自动学习进化,把我们反复用的流程,自动保存为可复用的技能;每一次的任务,都会自动从里面总结经验,是一个用的越多越顺手的 Agent。

目前 MiniMax 已经推出了 MaxHermes,能让我们在云端「无痛养马」,腾讯云也推出了一键部署到其轻量服务器上的 Hermes Agent 应用模板。

Hermes 也从「这东西牛不牛」来到了「这玩意怎么装,装完怎么用」的阶段。这篇文章,APPSO 手把手教大家在自己的电脑上安装 Hermes Agent,并上手用简单的例子来说明它和 OpenClaw 的不同。

这次安卓手机也能养马

和 OpenClaw 不同的是,Hermes Agent 不支持单纯的 Windows 系统。如果我们想要在 Windows 电脑上使用 Hermes Agent 必须先安装 WSL2,WSL 是 Windows Subsystem for Linux 的简称,它允许用户在 Windows 上运行 Linux 操作系统。

苹果表示在这波的本地 AI Agent 大战里,不用下场做大模型做产品,也吃到了 AI 最大红利。

不过,Hermes Agent 支持安卓手机,通过 Termux 应用,一台不需要 root 的闲置安卓手机,直接就能变成一台随身 Linux 服务器。

▲安装地址:https://termux.dev/cn/

Termux 是一个运行在 Android 手机上的「终端模拟器 + Linux 环境」,项目在 GitHub 上开源,目前已经获得了 5 万星。

我们可以简单地把它理解成在安卓里开了一个接近 Linux 的命令行世界;不用 root,也能安装很多常见开发工具、能像在服务器上一样敲命令、装软件、跑脚本。

在 Hermes Agent 的官方文档里,有一栏专门用来介绍如何在 Android 系统上使用 Termux 运行,我们只需要在手机上安装好 Termux 应用之后,其他操作和电脑类似,部分的功能像 Docker 隔离、后台常驻、语音能力会受限制。

▲官方文档:https://hermes-agent.nousresearch.com/docs/getting-started/termux

本地安装之外的选项,云端部署则是和 OpenClaw 一样,目前腾讯云已经宣布率先支持 Hermes Agent 一键部署,通过旗下轻量应用服务器 Lighthouse 内的 Hermes Agent 应用模板。

仿佛过去的记忆在又一次敲打我,接下来大概是各家的云平台,都逐渐推出相关的一键接入服务。

MiniMax 在今天也宣布推出第一个云端沙箱 Hermes,MaxHermes。和 MaxClaw 的体验类似,我们需要订阅 MiniMax 付费计划,同时连接 MiniMax Token Plan,完成两项升级后才能在 MiniMax 上部署 MaxHermes。

从安装到连接飞书/微信/QQ,只要五分钟

打开终端(macOS 用 Terminal,Windows 用 WSL2),粘贴这一行命令。

curl -fsSL https://raw.githubusercontent.com/NousResearch/hermes-agent/main/scripts/install.sh | bash

它会自动处理好所有依赖——Python、Node.js、ripgrep、ffmpeg,以及 Hermes 本体。不需要你提前安装任何东西。

等它跑完,再执行,

source ~/.bashrc

这一步是让终端认识新装的 hermes 命令,如果跳过,下一步执行 Hermes,会报错「找不到命令」。整个安装过程大约两到三分钟,取决于网速。

安装完成之后是和 OpenClaw 类似的配置阶段。我们需要配置模型 API,选择对应的模型供应商,并复制粘贴 API。以及选择连接何种即时通讯软件,微信、QQ、企业微信等。

▲选择 Quick Setup

这些配置可以在之后的 Hermes setup 命令下再次进入,这里我们演示一遍按照 Hermes Agent 推荐的流程进行设置。

关于模型,第一项 Nous Portal 是 Hermes Agent 公司所推出的 API 订阅方案。目前小米 MiMo V2 模型可以透过 Nous Portal 连接,免费使用到本月 22 号。

其余的 OpenRouter、OpenAI Codex、Kimi、MiniMax、智谱 Z.ai 等,都可以在对应的模型开放平台,订阅相关的 Token Plan 之后,创建专门用于 Hermes Agent 的 API。

▲这里我们选择了 OpenRouter,OpenRouter 提供了多款可以免费使用的模型

使用 Nous Portal 服务,必须先订阅 Nous Research 计划,才能免费使用小米 MiMo 模型。这里可以选择免费计划,每月 0 元。不过即便是 0 元的订阅计划,也需要使用 Stripe 完成支付,必须有一张 VISA/万事达的信用卡,才能完成订阅。

▲订阅网址:https://portal.nousresearch.com/products

选择了模型供应商之后,继续选择 Hermes Agent 使用的具体模型。Nous Portal 支持的模型非常多,免费的小米 MiMo V2 Pro 需要滑动到最下面的位置才能看到。

▲ 我们使用 OpenRouter 上的免费模型,来自英伟达的 Nemotron 3

继续设置聊天平台,目前最新的 Hermes Agent 版本已经支持了钉钉、飞书、企业微信、微信、QQ、iMessage,以及 Telegram 等常见聊天平台。

▲键盘上下切换不同的平台,按空格代表选中,Enter 进入配置。这里我们选择飞书作为消息通道。

不同的平台配置方式不同,按照 Hermes Agent 推荐的操作执行。如果你选择飞书,它会给我们一段链接,要求在手机飞书,或者飞书网页版内打开,打开后是自动创建机器人的界面,创建完成,选择默认操作,就连接成功了。

▲ 飞书连接成功,这里的网关安装可以选择 Yes,亦可在之后的终端中执行命令 hermes gateway install

在飞书应用内,和机器人发起聊天,机器人会回复一条要求执行 hermes pairing approve feishu XXXXXXX 的消息,将这行命令复制到终端里执行,我们就能在飞书内和 Hermes Agent 聊天。

一切配置完成,在终端里输入 hermes,这匹马就算是牵到了我们电脑里。

询问它能为我们做点什么,可以看到它可以执行的操作,包括终端命令、文件操作、网页交互、代码执行、任务管理、记忆和技能、会话回溯、后台作业、子代理等多个功能。

在最新版本的 Hermes Agent,也提供了可视化、界面友好的控制台,可以让我们不用在终端里,完成一切的操作。在终端里输入 hermes dashboard,会自动打开一个地址为:http://127.0.0.1:9119 的本地网页。

▲Hermes Agent WebUI 控制面板,可以在里面设置不同的模型,连接不同消息平台。

用的越多,越省事

安装很容易,怎么用好 Hermes Agent,才能感受到它和 OpenClaw 最大的差别。

我们现在用 AI 的逻辑,无论是 OpenClaw 还是 ChatGPT,本质上还是我们输入,AI 输出,关掉对话,任务就结束。

Hermes 要改掉的就是这件事,有着和 OpenClaw 同样多的功能,另外还有会自动累积的记忆,会生长的能力。每一次交互,它都在变得更了解我们,偏好、工作方式、我们反复做的那些事。

▲使用 Hermes 是一个飞轮,从执行任务,到创建 Skills,写入记忆到下一次的任务执行

例如我们简单地在 Hermes 里面告诉它要求设计一个老少皆宜的益智类小游戏,并且在后续的交流中告诉它要多设计一些关卡,有难度的区分,界面要更精美等。

▲在 Hermes Agent 内,所使用的模型,和当前上下文窗口使用占比,会一直固定在终端底部。

这轮任务结束,我们问 Hermes,要它说说我的用户画像是什么。它很快就从上一个做益智小游戏的项目里,定位到我使用中文交流、表达直接具体、注重细节和精致度等特点。

和大部分 AI Agents 所使用的关键词检索不同,Hermes 使用的是语义相似性的向量查询,它会根据「基于之前的反馈进行迭代改进」,得到我重视反馈循环,并将这一点放进用户画像内。

基于 Hermes 的持久记忆和累积学习,用它来搭建知识库是再合适不过。

我们使用 Hermes 内置的 LLM-Wiki Skill,结合 Obsidian 笔记平台和飞书,在手机上把自己想到的任何事情,发给飞书,Hermes 就会自动帮我们把这些碎片的内容整理成知识库,并在 Obsidian 内以结点的形式呈现。

▲输入 /llm-wiki 之后会提醒我们输入想要创建什么主题的知识库

这里我们告诉它创建一个类似于我的「第二大脑」的知识库,我会把我看到的好文章、有意思的选题、素材统统发给它,Hermes 需要帮助我整理。

当把文章发送给 Hermes 之后,我们在 Obsidian 里面立刻能看到它的处理,把文章的要点总结,同时下载文章全文到 raw 文件夹内的 article 分类下,同时会自动处理不同的概念和主题,彻底贯彻 Wiki 的逻辑。

▲一开始的微信公众号链接 Hermes 没有顺利抓取,使用爱范儿网页链接后,能抓取原文并自动保存

在 Hermes Agent 里还有许多 Skills,我们在安装时,就已经内置了有 79 个 Skills。官方的 Skills Hub 显示目前提供了 16 个类别,来自 Anthropic、Lobe Hub 等社区公开的 Skills 平台,共计 521 个 Skills。

这些 Skills 涵盖了从日常的生产力工具,到代码审查、PPT、PDF、OCR、YouTube 转写,再到模型微调、vLLM 部署、Stable Diffusion、Whisper、音乐生成,几乎把「数字办公 + 开发 + 创作 + AI 工程」串成了一整套工作流。

例如我们可以直接使用 manim-video.skill,在 Hermes Agent 内就能创建一个简单的视频。

▲官方提供的视频案例,大多数时候用来创建一些简单的视觉,解释数学公式等视频

多 Agents 协作也是现在的热门玩法,在 Hermes Agent 内,我们可以用 Profiles(配置文件) 来跑多个独立 Agent。每个 profile 都是一个完全隔离的 Hermes 环境,有自己单独的个性化设置,像是网关、SOUL.md、记忆、SKills 以及环境变量等。

也就是说,我们可以同时有一个写代码的 Agent、一个研究用的 Agent、一个私人助理 Agent,它们互不污染。通过定义的流程,这些 Agents 能在 Hermes 里面形成多 Agent 工作流。

在 Hermes Agent 的官方文档内,有相当多的 Hermes 指令和教程,还有一篇专门教大家如何从 OpenClaw 迁移到 Hermes 的文章。

▲https://hermes-agent.nousresearch.com/docs/guides/migrate-from-openclaw

如果你想从 OpenClaw 转到 Hermes,按照官方教程,三行命令就能快速迁移。

一键卸载指南

装到一半发现不知道怎么继续,或者使用了一段时间觉得不行,想要卸载也很简单。

官方提供了一键卸载命令 hermes uninstall,在终端运行之后,我们会看到保留数据、完全卸载和取消三个选项。

其中保留数据会将 Hermes Agent 的相关配置,像是模型的 API、以及连接到不同第三方通讯工具的 API 保留,只是将整个框架删除。我们可以直接输入 2,表示完全卸载。

如果仍然不放心,回到初始的终端页面,执行下面这三行命令,也会将电脑上所有关于 Hermes Agent 的内容全部删除。

rm -f ~/.local/bin/hermes
rm -rf /path/to/hermes-agent
rm -rf ~/.hermes

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

微软想给所有 Windows 电脑预装龙虾

在这个 AI 如火如荼的时候,「桌面端」似乎显得有些冷清。

归根结底,对于 LLM 类 AI 应用来说,你只需要一个对话框就可以完成交互,在 app、在浏览器,还是在桌面端完全没有区别。

而 OpenClaw 的出现,多少改变了这一点——这种本地部署的软硬件结合方式,重新将「电脑」这一载体扔回了 AI 漩涡的中心。

图|封面新闻

然而 Open-Claw 长期存在着一个底层缺陷:它是基于类 Unix 环境构建的,天生对 Linux 和 macOS 比较友好,在 Windows 上安装起来很麻烦。

由于 OpenClaw 高度依赖类 Unix 环境,许多底层脚本也是基于 Darwin 或 Linux 写的,因此想要在 Windows 上得到一个能用的龙虾助手,光是折腾 WSL2、Docker 和 Nix 就足够劝退 90% 的尝鲜用户了。

面对这种用户需求和系统环境的矛盾,「从善如流」的微软敏锐地察觉到了这之中隐藏的需求,提出了一个雷霆方案:

我们要给 Copilot 也加上类 OpenClaw 能力。

从副驾驶到代理人

虽然我们曾经调侃过微软滥用 Copilot 导致它变「Microslop」的问题,但时至今日,Copilot 的确依然是 Windows 内建的最主要的 AI 方案之一。

在经历过普遍的对于 Copilot 的反对声音之后,微软似乎终于打算做一些有意义的工作了。

根据最新的行业消息,微软全球资深副总裁(CVP)之一奥马尔·沙欣(Omar Shahine)受命组建一支新的「精锐团队」,挖掘 OpenClaw 在企业环境中的潜力,以及将「类 OpenClaw 能力」集成进 Copilot 的可能性。

奥马尔·沙欣(中间)|LinkedIn

长期以来,微软服务、尤其是 Windows 用户,对 Copilot 的评价始终呈现出一种诡异的两极分化。

对于微软自己来说,它在财报中自豪地宣称 Copilot 拥有近 1500 万付费用户(大约相当于 Office 365 用户的 3%),还拥有「巨大的增长空间」。

然而市场却对 Copilot 充满了寒意:微软的股价在 26 年表现惨淡,甚至在大型科技股中垫底,跌幅一度达到了 24% ——

图|Analytics Insight

投资者和股市的逻辑很直白:

如果 Copilot 继续作为一个需要用户不断喂提示词、总结两页文档能反向吐出四页废话的「对话框」,那它永远无法产生真正意义上的生产力溢价。

尤其当隔壁的 Claude 已经能「连接」PowerPoint 和 Excel 来代替用户操作复杂内容的时候,微软必须拿出一些更硬核的东西来证明自己。

这也是微软通过「Copilot 风味 OpenClaw」期望达到的效果,我们可以给它起名叫「MS-Claw」。

图|TechCrunch

毕竟纯粹基于 LLM 的 Copilot 本身实在是太废物了,虽然权限极高,但几乎无法实现任何具备 agentic 能力的代理操作功能。

如果说现有的 Copilot 是一个听命行事的速记员,那么正在开发的 MS-Claw 则是一个全天待命的「数字分身」,旨在让 Copilot 实现 24/7 自主运作电脑的效果。

图|Jukka Niiranen

换言之,MS-Claw 和直接从 GitHub 上部署的开源版本 OpenClaw 能力差不多——

它不再被动地等待用户输入指令,而是主动筛选你的 Outlook 收件箱、梳理日历、在后台自动重组 Excel 数据,在你每天打开电脑之前就准备好待办清单和当日简报。

这种从以 LLM 为代表的「反应式 AI」向「代理式 AI」的跨越,正是为了解决企业级用户最头疼的安全与效率平衡问题,以及挽回 Copilot 的口碑。

图|Microsoft

为了「和 Anthropic 抢时间」,微软 CEO 萨蒂亚·纳德拉(Satya Nadella)重组了工程架构,将消费者与企业版的 Copilot 开发团队合并,并提拔了多位高管直接向其汇报。

比如原本带领 Agent 365 的查尔斯·拉曼纳(Charles Lamanna),就负责监督在现有 365 Copilot 服务中构建 MS-Claw 的工作,奥马尔·沙欣也在他的团队中。

查尔斯·拉曼纳|Microsoft

除了前面提到的代用户操作 Microsoft 365 应用套件之外,微软的另一个目标是让 MS-Claw(以及整个 365 Copilot)更好地在后台参与 Microsoft 应用程序里面工作,无需用户的持续监督。

例如,MS-Claw 可以在用户手动编辑新 Excel 工作表的时候,根据之前的命令,在后台静默整理其他工作表的格式或者信息。

图|Microsoft

另外据知情人士透露,365 Copilot 的产品负责人也讨论直接过为 MS-Claw 构建一些具体的代理(agents),比如市场经理、销售总监或会计。

比起接入外部代理或者不划分角色,这么做可以让每个代理的权限控制变得更简单,增加在处理企业内部敏感信息时的安全性。

总之,抛开混乱的命名不谈,微软希望通过 MS-Claw 实现的——不管套着 365 Copilot 还是 Microsoft 365 的皮——本质上就是借 Copilot 给用户提供一个「开箱即用」的 Agentic AI 解决方案。

Copilot 一共有多少种?|Tey Bannerman

更多厂商,都在预装龙虾

除了微软正在尝试向 Windows 中集成 OpenClaw 类似物之外,越来越多的笔记本厂商也开始「越俎代庖」,先一步为 PC 集成了各种各样的龙虾。

这其中就包括爱范儿先前报道过的联想天禧 Claw,以及荣耀前两天刚刚发布的 YOYO Claw,都属于内置在 OEM 厂商自己 app 中的「预制菜」式龙虾,主打一个开箱即用。

毕竟 OpenClaw 及其变体能在 Mac 生态率先引爆,很大程度上得益于 macOS 的类 Unix 环境。

对于开发者和极客用户来说,各种自动化脚本和权限管理几乎是开箱即用的。

图|YouTube @Andres Vidoza

相比之下,在 Windows 手动部署原版的 OpenClaw 简直是一场噩梦。

不仅需要先配置好 WSL2 子系统,搭建出一个 Linux 虚拟环境,最后还可能因为 Windows 11 混乱的权限设置和各种 bug,导致 AI 代理无法顺利模拟鼠标点击之类的难绷问题。

图|Windows Central

作为 OEM 厂商,联想和荣耀的切入点精准地踩在了这道「部署门槛」上——

对于绝大多数「有点需求又不那么精通技术」的消费者而言,只需要买一台带着天禧 Claw 或者 YOYO Claw 的电脑回家,开机登陆完就能直接开始帮自己整理数据。

厂商通过在 Windows 里预装、预配置、预处理一个 OpenClaw 工具,其实就是在向大众用户售卖这种「AI 便利性」。

这样做有用吗?还真有用。

至少对于普通用户来说,多一个「开箱即用」的功能总归不是一件坏事,哪怕上面写着的是 Copilot。

微软或者 OEM 厂商预装各类 Claw,相当于帮用户完成了最脏最累的底层适配工作——

只有这种时候,AI PC 才真正从贴着炫彩标签的笔记本,变成了内置了数字助理的生产力终端。

另外对于很多用户很重要的,则是「端云混合」的部署逻辑,天生为风险隔离和算力成本提供了解决方案。

不止天禧 Claw 和 YOYO Claw 已经标明端云混合,微软实际选择的,其实也是和之前「Azure 云电脑 – Agent 365 – 365 Copilot」相同的路径。

图|Microsoft Learn

这样一来,「某某 Claw」与各种搭配的代理就可以优先在本地处理敏感的个人数据或屏幕截图,只在涉及复杂逻辑推理时才请求云端模型。

这种隐私保护与性能的平衡,是目前几乎纯云端的 Copilot 365 难以实现的。

最重要、同时也是对用户钱包最友好的一点,是这种由厂商主导的「帮你部署」和「端云混合」的龙虾方案可以非常有效地节省 Token 开销。

图|Notebookcheck

比如通过模型分级路由、本地 RAG(压缩对话历史)、智能提示词缓存等等手段,端云混合的 Claw 方案据估算可以将 token 消耗量压缩到此前的 50% 甚至更低,有效避免「Claw 跑一晚,卡里少三千」的情况。

针对那些 API 开销极度敏感的企业和个人用户来说,这种「省钱办大事」的产品才是最具有吸引力的那个。

AIPC 的终点,是预制菜

站在 2026 这个时间点上,我们可以大胆得出一个结论:

未来的 AI PC,如果做不到出厂预装代理 AI(Agentic AI),那它根本就不配被称为 AI 生产工具。

我们必须意识到——在声势浩大的 LLM 游戏之后,FOMO 的无限叠加已经让我们对 AI 的耐心彻底耗尽。

图|TNW

绝大多数普通用户已经玩腻了「我问你答」的顾问游戏,然而公司却变本加厉地要求人们继续用 AI 提高自己的效率。

做不到,就掉下斩杀线。

正因如此,人们如今需要电脑做到的,不是更快的 CPU 主频,也不是更薄的机身,而是它能否像一个真正的「合伙人」或者「副驾驶」那样,直接帮我执行和解决任务。

图|Itequia

因此,无论是微软这样的 Windows 源头厂商,还是联想、荣耀这种笔记本 OEM 厂商,出厂预装「龙虾」或类似物,将成为未来衡量 PC 厂商核心竞争力的硬指标。

未来的操作系统不会只是一个运行软件的平台,而会变成一种「代理调度中心」。

与此同时,硬件厂商的角色也将发生巨大的转变:它们不再只作为零件的「方案整合商」,而是会兼任「AI 工作流」的定义者——

比如我们可以想象,未来联想预装的 Claw 可能更偏向商务协作,荣耀的 Claw 可能更擅长跨设备调控,而微软的 MS-Claw 则能够一条龙服务代理整个 Office 全家桶……

这种代理式 AI 角色的差异化,将成为 AI PC 品牌忠诚度的新来源。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

OpenClaw Memory Wiki 技术文档

OpenClaw Memory Wiki 技术文档

基于 OpenClaw v2026.4.7 最新版本整理,更新日期:2026-04-08

目录


概述

OpenClaw 是一个开源的个人 AI 代理框架,其记忆系统采用 基于文件的记忆模型——所有持久化信息以 Markdown 文件形式存储在代理工作空间中(默认路径:~/.openclaw/workspace)。系统不维护任何隐藏状态,只有显式写入磁盘的内容才计入记忆。

Memory Wiki 是 OpenClaw 记忆体系中的高级层,作为可选的伴生插件(memory-wiki),将持久化记忆编译为一个具有溯源能力的知识库(vault),支持确定性页面布局、结构化声明(claims)、矛盾追踪和机器可读摘要。


核心架构

OpenClaw 的记忆系统由三层文件构成:

文件 作用 加载时机
MEMORY.md 长期持久存储:事实、偏好、决策 每次会话开始自动加载
memory/YYYY-MM-DD.md 每日笔记:运行中的上下文与观察 当日及前一日自动加载
DREAMS.md 实验性:梦境日记与巩固摘要 可选,供人工审阅

核心记忆工具:

  • memory_search:语义搜索,匹配概念含义而非精确措辞
  • memory_get:检索特定的记忆文件或指定行范围

Memory Wiki 作为补充层叠加在核心记忆之上,不替换核心记忆插件。


Memory Wiki 插件

Vault 模式

Memory Wiki 支持两种运行模式:

1. Isolated(隔离)模式

1
2
3
4
5
memory-wiki:
vaultMode: "isolated"
vault:
path: "~/.openclaw/wiki/main"
renderMode: "obsidian"
  • Wiki 拥有独立的 vault 和数据源
  • 不依赖 memory-core
  • 适用于:希望 wiki 作为独立的、经过策展的知识库

2. Bridge(桥接)模式

1
2
memory-wiki:
vaultMode: "bridge"
  • 通过公共插件 SDK 接口读取活跃记忆插件的公开记忆 artifacts 和事件
  • 不直接访问私有插件内部实现
  • 适用于:希望 wiki 编译和组织核心记忆插件导出的 artifacts

建议:除非明确需要桥接模式,否则优先选择 isolated 模式。

页面组织结构

Wiki vault 采用确定性目录布局:

1
2
3
4
5
6
7
8
9
10
11
~/.openclaw/wiki/main/
├── sources/ # 导入的原始材料、桥接页面
├── entities/ # 持久对象:人物、系统、项目
├── concepts/ # 观念、抽象、模式、策略
├── syntheses/ # 编译摘要、维护性汇总
├── reports/ # 生成的报告
├── _attachments/ # 附件资源
├── _views/ # 视图定义
└── .openclaw-wiki/ # 托管内容与缓存
└── cache/
└── claims.jsonl # 编译后的声明摘要

关键目录说明

目录 内容 示例
sources/ 原始导入材料与桥接页面 论文摘录、会议纪要
entities/ 持久对象——人、系统、项目 entity.kubernetesentity.alice
concepts/ 抽象概念与模式 concept.event-sourcing
syntheses/ 编译摘要与汇总 synthesis.q1-review

结构化 Claim/Evidence 模型

Memory Wiki 的核心创新是将知识从自由文本升级为 结构化声明。每个页面可在 frontmatter 中携带结构化的 claims:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
---
id: entity.kubernetes
claims:
- claim: "Kubernetes 默认调度器使用 bin-packing 策略"
confidence: 0.85
source: "sources/k8s-scheduler-doc"
updated: 2026-03-15
status: active
- claim: "Helm v4 已移除 Tiller 依赖"
confidence: 0.95
source: "sources/helm-release-notes"
updated: 2026-04-01
status: active
---

# Kubernetes

正文内容...

Claim 字段说明

字段 类型 说明
claim string 声明内容
confidence float 置信度(0-1)
source string 溯源引用(指向 sources/ 下的页面)
updated date 最后更新日期
status enum active / contested / resolved / stale

Claims 可被追踪、评分、质疑和溯源,使 wiki 的行为更像一个 信念层(belief layer) 而非被动的笔记堆。


关键能力

矛盾检测与聚类

wiki_lint 工具能自动扫描 vault 中的结构性问题:

  • 矛盾检测:发现语义上互相冲突的 claims
  • 矛盾聚类(Contradiction Clustering):将相关的矛盾声明分组,便于集中解决
  • 溯源缺口:标记缺少 source 引用的 claims
  • 开放问题:识别尚未解决的疑问

新鲜度加权搜索

wiki_search 的搜索排序综合考虑:

  • 语义相关性:基于向量相似度的概念匹配
  • 关键词匹配:精确标识符和代码符号的 BM25 匹配
  • 新鲜度权重(Freshness Weighting):最近更新的 claims 获得更高排名
  • 置信度得分:高置信度的声明优先展示

编译摘要(Compiled Digests)

为避免代理和运行时代码在查询时解析 Markdown 页面,Memory Wiki 维护编译后的摘要:

1
.openclaw-wiki/cache/claims.jsonl

每行为一个 JSON 对象,包含 claim 的完整元数据。代理可直接读取此文件进行高效查询,无需遍历页面。

过时性仪表盘

Memory Wiki 内置 Staleness Dashboard,可视化展示:

  • 各 claim 的最后更新时间
  • 过时(stale)声明的数量与分布
  • 需要审查的知识区域

Wiki 工具集

Memory Wiki 插件注册以下工具供代理使用:

工具 功能
wiki_status 显示当前 vault 模式、健康状态、Obsidian CLI 可用性
wiki_search 搜索 wiki 页面,支持共享记忆语料库
wiki_get 按 id/path 读取 wiki 页面,可回退至共享记忆语料库
wiki_apply 执行窄范围的综合/元数据变更,无需全页编辑
wiki_lint 结构检查:溯源缺口、矛盾、开放问题

使用建议

  • 当溯源(provenance)重要时,使用 wiki_search / wiki_get 而非通用 memory_search
  • 对元数据更新使用 wiki_apply,避免自由编辑页面
  • 有意义的变更后运行 wiki_lint

CLI 命令参考

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
# 状态与诊断
openclaw wiki status # 查看 vault 状态
openclaw wiki doctor # 诊断 vault 健康问题

# 初始化与数据导入
openclaw wiki init # 初始化新 vault
openclaw wiki ingest ./notes/alpha.md # 导入外部文档

# 编译与质量检查
openclaw wiki compile # 重新编译 claims 摘要
openclaw wiki lint # 结构检查与矛盾检测

# 搜索与检索
openclaw wiki search "kubernetes" # 搜索 wiki 内容
openclaw wiki get entity.alpha # 获取指定页面

# 综合与应用
openclaw wiki apply synthesis # 应用综合更新

# Obsidian 集成
openclaw wiki obsidian status # 检查 Obsidian 集成状态

Obsidian 集成

Memory Wiki 支持与 Obsidian 笔记软件深度集成:

1
2
3
4
5
6
memory-wiki:
obsidian:
enabled: true
useOfficialCli: true # 使用 Obsidian 官方 CLI (v1.12+)
vaultName: "openclaw-wiki"
openAfterWrite: false

官方 Obsidian CLI(v1.12+)提供完整的 vault 自动化能力,包括:文件管理、每日笔记、搜索、任务、标签、属性、链接、书签、模板、主题、插件、同步与发布。

renderMode 设为 "obsidian" 时,Wiki 页面输出为 Obsidian 兼容格式,可直接在 Obsidian 中浏览和编辑。


Dreaming 系统(实验性)

Dreaming 是一个可选的后台巩固流程,与 Memory Wiki 配合工作:

  1. 收集(Collect):从每日笔记中提取短期信号
  2. 评分(Score):基于阈值(得分、召回频率、查询多样性)筛选候选项
  3. 晋升(Promote):将合格项目提升至长期记忆(MEMORY.md
  4. 记录(Document):在 DREAMS.md 中写入阶段性摘要

v2026.4.7 中 Dreaming 系统的改进:

  • 支持将脱敏的会话转录导入 dreaming 语料库
  • 按天生成 session-corpus 笔记
  • 游标检查点与晋升/诊断支持
  • 在每日笔记导入前剥离托管的 Light Sleep 和 REM 块

搜索后端与混合检索

Memory Wiki 的搜索依托 OpenClaw 的混合检索架构:

后端 特点
Builtin(默认) 基于 SQLite,支持关键词、向量和混合搜索
QMD 本地优先,支持 reranking 和外部目录索引
Honcho AI 原生跨会话记忆,支持用户建模

当配置了 embedding provider 时(支持 OpenAI、Gemini、Voyage、Mistral),wiki_search 采用 混合搜索 策略:

  • 向量相似度:语义理解层面的概念匹配
  • BM25 关键词匹配:精确标识符与代码符号匹配
  • 新鲜度加权:近期更新的内容获得排名提升

v2026.4.7 新增了当 sqlite-vec 不可用或向量写入降级时的显式警告。


配置参考

完整的 Memory Wiki 插件配置示例:

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
plugins:
memory-wiki:
enabled: true
vaultMode: "isolated" # "isolated" | "bridge"
vault:
path: "~/.openclaw/wiki/main"
renderMode: "obsidian" # "obsidian" | "plain"
obsidian:
enabled: true
useOfficialCli: true
vaultName: "openclaw-wiki"
openAfterWrite: false
ingest:
autoIndex: true
search:
backend: "builtin" # "builtin" | "qmd" | "honcho"
freshnessWeight: 0.3 # 新鲜度权重系数
lint:
contradictionClustering: true
stalenessThresholdDays: 30
dashboard:
enabled: true

v2026.4.7 更新要点

OpenClaw v2026.4.7 是 Memory Wiki 的重要里程碑版本,恢复了完整的 memory-wiki 栈:

Memory Wiki 核心恢复

  • 插件 + CLI + sync/query/apply 工具链
  • Memory-host 集成
  • 结构化 claim/evidence 字段
  • 编译摘要检索
  • Claim 健康度 linting
  • 矛盾聚类
  • 过时性仪表盘
  • 新鲜度加权搜索

其他相关更新

  • 推理中心:新增 openclaw infer hub,支持跨 model/media/web/embedding 的 provider 推理工作流
  • 媒体生成:工具/媒体生成支持跨 provider 自动降级,保留意图
  • Webhook 集成:内置 webhook ingress 插件,支持外部自动化创建和驱动 TaskFlow
  • 向量召回警告sqlite-vec 不可用时显式提醒
  • Dreams 配置感知:Dreams 配置读写现在尊重选定的 memory slot 插件

参考资料

联想天禧 Claw 产品体验:大家都能吃的龙虾才是好龙虾

2026 年虽然是马年,但真要选个「年度动物」的话,非得是龙虾莫属。

就像海里的龙虾一样,OpenClaw 虽然美味,但想要烹调和享用好,还是需要相当的门槛的:不仅要自己配置环境、设置接口、寻找模型,更是得专门留一台 24 小时待机的电脑给它当「笼子」。

再加上自己配置技能(Skill)、进行微调(SFT)、接入 MCP 所需的时间、精力和金钱成本,真正的日常用户其实是很难让 OpenClaw 发挥出「明显改善效率」的意义的。

就在这时,老牌 PC 大厂联想站了出来,做了一件非常具有启发性的事情。

它们以联想电脑、平板和摩托罗拉手机为载体,做了个免安装、跨平台、全天候的 Claw 服务——

换言之:让每个人都能享受 Claw 的乐趣

3 月 18 号,联想在春季新品直播中正式宣布了自家智能助手「天禧个人智能体」 Claw 能力上线,并于 3 月 30 号正式开启了内测:

▲ 图|联想

爱范儿也参与了这次天禧 Claw 的测试活动。在这段时间的使用之后,我们觉得:天禧 Claw 就是现阶段上手难度最低、跨设备能力最强、软硬件结合最好的 Claw 部署方案之一。

龙虾「最后一公里」,联想替你走

以往想要在 Windows 上安装一个能用的龙虾,是件非常让人头疼的事情。

由于 OpenClaw 高度依赖类 Unix 环境,许多底层脚本也是基于 Darwin 或 Linux 写的,因此想要在 Windows 上得到一个能用的龙虾助手,光是折腾 WSL2 就足够劝退 90% 的尝鲜用户了。

而对于联想的天禧 Claw 来说,以上这些都不是问题——

与纯本地手动部署不同,天禧 Claw 采用了「端云混合」的运营逻辑。

联想作为软硬件供应商,可以直接给自家硬件预留好调用接口,然后用类似「云电脑」的形式,在服务器端运行天禧 Claw。

这样一来,用户既省下了手动部署的麻烦,获得了文件隔离的安全性,同时还能享受到纯本地龙虾带来的硬件操控能力。

仅需一个联想账号,所有人都可以在电脑、Pad 和手机上同时运行天禧 Claw,做到了真正的「零成本部署」和「开箱即用」。

就拿我们在内测阶段的体验来说,在这台联想 YOGA Air 14 上运行天禧 Claw,其实只需要四步:开机、打开天禧 app、登录联想账号,开始使用:

同时,天禧 Claw 作为一款「预装类」的龙虾助理,最大的优势就在于它出厂预装了非常多实用的技能(Skills),不需要挨个在 ClawHub 上下载压缩包了:

在目前的测试版本中,天禧 Claw 已经支持了包括文档处理、设计创作、硬件操控、生活娱乐、技术工具等等十多种 Skills 。

无论是要天禧 P 个图、草拟一份周报、写一封声情并茂的请假申请,还是直接搞定路演 PPT,都只是一句话的事儿:

除了这些预装技能之外,你当然也可以自己给天禧 Claw 添加别的 Skill ——

比如我自己常用的高级搜索工具 web-search-plus,只需要把 ClawHub 的项目网址发给天禧 Claw 就可以自动完成安装:

但即使不看上述的第三方 Skill,天禧 Claw 作为一款电脑出厂预装的龙虾助手,仅仅依靠它自带的那些技能就已经足够满足绝大多数的日常需求了。

就拿编辑的工作流为例,我可以用自然语言给天禧 Claw 设置一个循环任务,让它每天早上检索并整理过去 12 小时的热门科技新闻,生成摘要并导出至本地:

而在工作过程中,则可以直接和天禧 Claw 以聊天的形式让它帮忙搜索信息、整理知识库和修改图片,以及对我来说最重要的——查找本地文件:

这时,天禧 Claw 就可以发挥出它作为一个端云混合龙虾的全部优势:我既不需要盯着一个沉闷的 cmd 窗口等回复,过程期间我的电脑风扇也不会起飞,只需要舒舒服服等待它反馈。

第一个免配置跨平台龙虾

折腾 OpenClaw 的另一个问题是如何跨端跨网进行指挥。

如你所知,OpenClaw 原本作为一个纯本地化运行的 agent 工具,如果你的使用场景仅限自己家里的空间,那么完全不需要担心操控问题。

可一旦你希望出门之后也能控制你的龙虾,尤其是涉及到使用 MCP 以及管理龙虾后台的时候,就必须给家里的网络设置内网穿透或者虚拟代理,繁琐程度可想而知。

天禧 Claw 对于这个问题给出了一个相当完美的解法:它重新给龙虾套了一层网络客户端的壳,所有指令都通过「天禧个人超级智能体」app 上传和下发。

这样一来,只要你的电脑开着机、连着网,你在千里之外只需要拿出手机或者平板电脑,就可以继续执行天禧 Claw 在电脑上的操作:

并且这种能力还不是单向的——我用这一台 moto razr 60 可以远程管理联想笔记本上面的文件,自然也能反过来用笔记本管理手机和 Pad。

这时就不得不提天禧 Claw 的独家 Skill 了:由于天禧 Claw 属于联想的第一方应用,联想专门为它配置了一套可以直接调用硬件功能的专属技能

比方说用手机给电脑上的天禧 Claw 发信息,让它把电脑设置成暗色模式,并且把屏幕亮度调整到最低,电脑就可以直接执行:

同理,在电脑上对着天禧 Claw 说在平板上设置一个明早 7 点起来喂猫的闹钟,它就可以在平板上直接创建闹钟,完全不需要解锁:

而上述的一切,都只需要一个联想账号。

这样一套跨平台、跨设备的龙虾不仅不需要分别折腾 Windows 和 Android 两套繁琐的配置,更实现了熄屏时的后台静默操作,能够为普通用户解锁什么样的便捷场景简直不敢想——

小问题不影响天禧成为「最方便吃」的龙虾

需要注意的是,联想天禧 Claw 目前仍然处在测试阶段,我们体验到的各项功能严格来说都还不是「完全体」。

在短暂的测试中,我们也注意到了天禧 Claw 目前存在的一些问题——毕竟从它的运行机制来说,相比本地部署 OpenClaw 它还存在一些不太完美的地方。

首先,你虽然可以通过给天禧 Claw 发送链接的方式要求它安装 Skill,但添加某些 Skill 所需的 API Key 却很麻烦。

原因很简单:天禧 Claw 运行在联想服务器上的一个虚拟容器里,我们对话的 app 只是一个聊天窗口。

如果你使用的 Skill 需要通过修改根目录里面的 .json 文件添加 API Key,那暂时是没有办法进行修改的:

其次,目前测试版天禧 Claw 还不支持更换基础的对话模型,也无法直接修改和调整它的「性格」和对话方式——

换言之,如果你想让你的龙虾说话「更有人情味」,或者保持某种预设角色的话,天禧 Claw 目前还办不到,仅能通过添加知识库的方式让它的对话风格产生一些倾向。

最后,也是最重要的,就是天禧 Claw 的记忆机制和词元(token)收费规则了。

受限于运营模式,测试阶段的天禧 Claw 还无法负担非常长的上下文 session,会自动执行 /compress 压缩早期的信息,因此有时候会忘记你之前告诉过它的东西。

而如果你想要让天禧 Claw 长期记住什么信息,就必须命令它「记住这个」,从而将信息半手动地保存到当前账号的知识库里:

同时,联想官方目前尚未公布天禧 Claw 的词元收费制度,至于后续是否会开放用户自行选择基础模型则有待讨论。

参考其他已经存在的 OpenClaw 托管类服务的收费标准,我们猜测天禧 Claw 后续可能会采用「限时免费、后续订阅」的机制,同时也可能整合进联想其他云服务的订阅当中。

总的来说,天禧 Claw 是目前难得一见的、真正称得上「零门槛人人可用」的龙虾方案——

用户不需要自己折腾 Linux 容器,不需要在闲鱼上花 800 块钱安装再卸载,也不用担心天禧 Claw 会误删你的文件——它在执行任何删除动作之前都会向你询问,并且所有调用的数据都保存在天禧 app 的沙盒内。

对于基础的 OpenClaw,我们总会把它形容成托尼·斯塔克的 Jarvis ——但真正的难点从来都不是和 Jarvis 对话,而是怎么让它去接入和控制那些硬件。

而天禧 Claw 恰恰像是有了自己战甲的 Jarvis:它可以自己对话、自己控制、自己决断,我们只需要像托尼一样直接下达命令就好。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

腾讯「八虾夺嫡」内幕:一只龙虾,怎么成了全村的希望

99 年生的张舒昱,是腾讯电脑管家团队入职不久的产品经理,这在腾讯算不上核心业务线。

今年 1 月 OpenClaw 刚在中国爆火,她着了迷,拉上几个人攒了一个产品原型 QClaw:基于 OpenClaw,一键安装,通过微信直接操控智能体。

项目在腾讯体系里几乎没有存在感,没有立项审批,没有总办资源,几个年轻人凑在一起写代码。

3 月 9 日,QClaw 内测上线。一周之内,数百万用户注册。

然后事情开始失控,惊动了腾讯总办。

高层反应极快,随即调拨数十名员工和计算资源到张舒昱的团队。同日,另一支团队推出了 WorkBuddy,同样兼容 OpenClaw。再隔一天,腾讯港股大涨超过 7%,投资者把涨幅直接归因于这两只虾。

3 月 11 日凌晨 2:06,马化腾发了条朋友圈:「自研龙虾、本地虾、云端虾、企业虾、云桌面虾,安全隔离虾房、云保安、知识库……还有一批产品陆续赶来。」

这对腾讯 11 万员工是一个鲜明的信号,无数员工将其解读为:Pony 支持他们 all in 龙虾

据 The Information 独家报道,截至本月,腾讯内部同时有 8 个团队在开发基于 OpenClaw 的产品和服务。加上在研和内测项目,总数已超过 10 个。

15 年前,腾讯内部三个团队赛跑移动 IM,张小龙的广州研发部跑出了微信,是腾讯史上赛马最成功的一次。这次换了个物种,叫赛虾。

一个 99 年产品经理做的边缘项目,两周之内变成一家万亿市值公司的战略支点,似乎有点不可思议。

张舒昱对 The Information 说了一句大实话:「我们都在用 AI Agent 做实验。此刻,没有人能说什么是最佳方法。」

翻译一下就是:我们也不知道答案,但先跑起来总比站着强。

全村的希望:腾讯为什么把命押在一只虾身上

要理解腾讯对龙虾的狂热,先要直面鹅厂当下在 AI 竞争中的处境。

过去两年,中国 AI 大模型军备竞赛打得昏天暗地。

阿里砸钱做千问,字节孵出豆包,在用户规模和模型能力上都拉开了身位。腾讯呢?手握游戏和微信广告的丰厚利润,但在 AI 赛道上远不及这两个对手激进。

自研的混元大模型尚且无法与竞争对手匹敌,又拖累了自家 AI 助手「元宝」的进展。

腾讯不是没努力。去年请来前 OpenAI 研究员姚顺雨执掌混元研究,重建了研发基础设施。 4 月即将发布的混元新一代模型,业内普遍视为腾讯模型能力的一次摸底考试。

▲姚顺雨. 图片来自:智源社区

但远水解不了近渴,在新模型交卷之前,缺乏强大的内部模型,让元宝在与豆包和千问的竞争中暂时落于下风。

所以当 OpenClaw 在中国引爆了 Agent 热潮,腾讯高层几乎是本能地抓住了这根绳子。这只龙虾证明了 AI 的下一个爆发点未必在聊天框里,可能在桌面上,在工具里,在无数个能替你干活的智能体身上。

腾讯高层的判断很清晰: OpenClaw 引发的这一轮 Agent 浪潮,将是 AI 战场重新洗牌的机会

他们逻辑是这样的,如果腾讯能通过将 OpenClaw 类Agent 能力与微信深度整合,提供配套工具和服务,成为中国最好的 Agent 使用平台,那么即便其内部大模型不是最强大的、AI助手也不是最受欢迎的,腾讯依然有可能在 AI 下半场逆风翻盘。

2020 年,马化腾在腾讯内部将视频号称为「全村的希望」,寄望于它在短视频赛道上扳回一城。如今,「全村的希望」换了物种。

区别在于,视频号好歹是亲生的,龙虾来自一个奥地利独立开发者的 GitHub 。

某种意义上,这更像是 2014 年纳德拉接手微软后做做的事,承认在移动互联网上输了,放下「什么都要自己做」的控制欲,押注一条全新赛道。

纳德拉用了十年,腾讯希望快一点。

八虾夺嫡,腾讯赛虾背后

外界把多团队并行理解为经典赛马机制,腾讯内部更愿意说「多样性」。QClaw 和 WorkBuddy 是最先冒头的两只虾,路线截然不同。

QClaw 是张舒昱从电脑管家边缘团队杀出来的,直接拥抱 OpenClaw 开源生态,做微信一键安装,野蛮生长。设计理念就四个字:打开即用。不需要配置环境,不需要懂终端命令,微信扫一下就能让 AI 接管你的电脑。

▲张舒昱. 图片来自:南京审计大学

WorkBuddy 则走了一条完全不同的路。负责人汪晟杰在接受 APPSO 采访时反复强调一件事:百分百自研,没用过一行 OpenClaw 源码

它走半自动化路线,避开了 OpenClaw「透传」模式下信息暴露在公网上的风险,采用 bot 推送通知模型,每一步关键操作都需要用户确认。汪晟杰的定义很明确:龙虾是一个概念,不等于 OpenClaw。WorkBuddy 要做的是安全可控的龙虾,企业能放心用的龙虾。

汪晟杰透露了一个时间细节:WorkBuddy 在 1 月 17 号那个周末就已启动,三四个人通宵做出 MVP(最小化可行产品),原计划 3 月 16 日发布。看到龙虾热潮后提前了一周,撞上了 QClaw 同期发布。

▲ 汪晟杰.

也就是说,腾讯并非在 OpenClaw 火了之后才匆忙跟进。多个团队在不同时间点嗅到了同一个机会,OpenClaw 的爆火更像催化剂,把水面下的项目一夜之间推上了前台。

但赛虾机制的矛盾也摆在桌上。

QClaw 和 WorkBuddy 功能高度重叠,都能通过微信操控 AI 智能体,用户该选哪个?8 支团队同时跑,资源会不会内耗?

答案藏在张舒昱那句话里:「此刻没人知道什么是最佳方法。」8 支团队同时下场,与其说是信心爆棚,不如说谁都没有把握

腾讯选择用数量对冲不确定性,多条路线同时跑,押中一条就够了。

赛马机制的精髓从来都是:靠数量提高命中概率。15 年前微信就是这么跑出来的。

马化腾的养虾哲学

赛虾的前提是有虾可赛,但这只虾不归腾讯管。

3 月 12 日,OpenClaw 创始人 Peter Steinberger 在 X 上公开批评腾讯,矛头直指腾讯的 SkillHub 服务复制了社区 Skills 却没有做出任何贡献。

两天后,腾讯通过 GitHub 捐款,随后被列为特色赞助商,与 OpenAI 并列。在上周英伟达 GTC 大会上,腾讯云 CEO 汤道生当面约见 Steinberger,提出由腾讯云贡献服务器和安全服务,并探讨与 OpenClaw 基金会更深层的合作。

中国市值最高的互联网公司之一的高级副总裁,飞到圣何塞跟一个开源项目创始人坐下来谈合作。在腾讯历史上几乎没有先例。当你需要别人的东西比别人需要你的东西更急迫时,身段自然就放下来了。

同一周的财报发布会上,腾讯总裁刘炽平宣布 2026 年将 AI 新产品的投资至少翻倍,从去年的 180 亿元起步。而在阐述钱花到哪里时,他只点了三个名字:混元、元宝、以及最新的 Claw 产品

一个月前还是边缘项目的龙虾,一跃与腾讯自研大模型和旗舰 AI 应用并列。龙虾从「大家自己玩玩」正式升格为「公司战略」

马化腾最近在财报会议上的发言,进一步回答了一个更本质的问题:腾讯想用龙虾做什么

他的切入角度直接跳过了产品层面,落在生态上。

马化腾认为龙虾类应用有记忆和个性,更像助理,带有「活人感」,能让 AI 落地到办公、终端、小程序等各种场景中,不再全部挤在 chatbot 这条独木桥上。

但真正耐人寻味的是他关于「去中心化」的论述。微信本身是中心化的 App,但微信生态是去中心化的,数十万小程序商家构成了开放平台。马化腾认为 AI Agent 天然具有去中心化特征,可以融入微信生态。有一句话特别关键:

所有服务商的心态都是怕被 AI 智能体「短路化」「渠道化」。

意思是,他不想让 AI Agent 变成一个新的中间商,把微信里的服务商变成纯粹的后端 API。他想让小程序保留独立性,同时具备 AI 能力。「每一个小程序都可以智能化和龙虾化。

这个思考比「我们也做龙虾」高出一个维度。马化腾看到的是一种范式转移的可能:AI 的价值分配方式,从「一个超级 chatbot 统治一切」变成「无数分布式智能体各显神通」。

如果这个判断成立,拥有全球最大通讯生态和最活跃小程序平台的微信,天然就是 Agent 时代最肥沃的土壤

刘炽平在财报会上把这套逻辑做了明确的总结:「Claw 提出了一种去中心化的模型……有段时间,似乎每个人都在争夺成为 AI 智能体唯一的入口和垄断者。但现实并非如此。」

一句话概括腾腾讯的押注逻辑:模型之争输了一局,但生态之争的牌还没摊开

当然,这套叙事也可以被翻译成另一句话:我们模型不够强,所以告诉你们模型没那么重要。

自洽和自欺之间,有时候只隔一层窗户纸。但关键在于,这一次腾讯确实有牌可打。微信不需要成为最强大模型的容器,只需要成为最好用的 Agent 运行环境

这和纳德拉的 Azure 逻辑如出一辙,你不需要自己做出最好的 AI,你只需要让最好的 AI 都跑在你的云上。

养虾产品全景图,腾讯到底下了多少注

腾讯的「养虾」远不止做几个 C 端产品那么简单。腾讯周五公布了「养虾产品全景图」,这套从底层到应用层的完整龙虾矩阵,密度超出外界预期。

消费级产品打头阵。QClaw 主打微信一键安装,面向普通用户;WorkBuddy 走桌面端自研路线,强调安全可控;微信 ClawBot 负责让用户在微信聊天界面直接操控龙虾。

三个产品覆盖了「小白用户一键上手」「桌面深度使用」「微信生态无缝接入」三个核心场景。光是消费级这一层,腾讯就同时铺了三条路。

企业级产品紧随其后。ClawPro 面向企业和政务客户,主打安全隔离和精细权限管控,企业微信独占通道,账号权限分级,内置技能审核机制,代码生成类操作要过审,网页搜索走安全网关。

汤道生在腾讯云峰会上重点推介了 ADP(智能体开发平台),定位是企业构建定制化 Agent 的工具箱。配合 Claw Runtime 提供安全沙箱运行环境,Lighthouse 做安全管理。

整套企业方案的逻辑很清晰:OpenClaw 太野了,我帮你把它关进笼子里。

开发者生态也没落下。CodeBuddy 是去年下半年就上线的 AI 编程助手,现在被纳入龙虾矩阵成为开发者入口;SkillHub 是 AI 技能社区,做了本土化适配,也正是因为这个产品被 Steinberger 点名批评后才有了后面那笔捐款。TokenHub 则是模型服务市场,不光接混元,也接 DeepSeek、MiniMax、Kimi 等第三方模型,统一计费。

腾讯连「卖铲子」的生意都想好了。

从这张全景图可以看出,腾讯不想只在产品上做单点突破,要做一整条龙虾产业链——从安装到运行,从个人到企业,从消费到开发,每个环节都有人盯着。

这正是汤道生反复强调的「Harness 工程」思路:Agent 时代的胜负手不在模型本身,在于脚手架。工具调用、上下文工程、长期记忆管理、工作流设计,这些看起来不性感的苦活,才是决定 Agent 好不好用的关键变量。

汤道生在腾讯云上海峰会上表示:「AI 落地不只是算法题,Harness 工程能力是关键变量。不同的脚手架设计,会显著影响实际使用效果和 token 成本。」

翻译成人话就是:模型是发动机,但没有底盘和方向盘,跑不了多远。腾讯模型暂时跑不过别人,但如果能把底盘和方向盘做到最好,照样能赢。

虾潮退去之后

把所有线索串起来,这个故事可以被浓缩成一句话:腾讯用一家大公司能调动的所有资源,去拥抱了一个自己无法控制的开源项目

这是一个充满张力的姿态。

OpenClaw 的更新节奏是每周两三个版本,API 说改就改,Breaking Changes 说来就来。Peter 点一下 merge,深圳大厦里好几支产品团队可能就要通宵救火。腾讯把战略命脉系于别人的 GitHub 仓库上,这需要的不只是勇气,还有一种前所未有的谦逊。

但换个角度想,腾讯可能也没有更好的选择了。

如果继续只在模型和 chatbot 赛道上硬碰硬,不是陪跑就是陷入同质化厮杀。但 Agent 浪潮撕开了一条新缝隙:谁能把 AI 变成最好用的工具,谁就能重新定义入口

微信有 14 亿月活,有小程序生态,有支付,有社交关系链。这些东西造不出最强模型,但能造出最好的 Agent 使用环境,这是腾讯手里唯一一张别人没有的牌。

问题在于,这张牌的有效期有多长。

OpenClaw 仍在快速迭代,生态远未定型。今天的龙虾热,会不会像去年的 Manus 一样来得快去得也快?8 支团队赛虾,会跑出下一个微信,还是跑出 8 个半成品?马化腾的「去中心化 Agent 生态」蓝图很美,但从蓝图到现实之间,还有需要经历多少次「技术事故」?

不过,有一件事是确定的。

当一家公司的 CEO 凌晨两点发朋友圈,总裁在财报会上把龙虾和自研模型并列,高级副总裁飞到美国去约见开源项目创始人,8 支团队同时下场赛虾,AI 投资直接翻倍,它就已经不是在追热点了,它在押注这家公司的未来。

赌的不是这只虾能活多久。赌的是在 AI 重构一切的十年里,腾讯还能不能坐在牌桌上,以及坐在什么位置

视频号当年也被叫做「全村的希望」。五年过去了,它还没打败抖音,但在微信生态内长出了自己的活法。龙虾能不能也走出第三条路?答案还早。

不过,当一个巨头被逼到墙角,终于想清楚自己要什么,把资源砸向同一个方向的时候,你永远不能低估它。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

❌