普通视图

发现新文章,点击刷新页面。
昨天以前首页

苹果瞒着你给 iPhone 打了个补丁,为什么?

作者 杜晨
2026年4月10日 10:10

今年 3 月的某一天,你的 iPhone 悄悄地自己更新了一次。

这次更新,既没弹出通知,也不会在系统更新菜单里体现,你甚至不需要点「同意」。要不是这篇文章,你或许压根不知道有过这么一次更新。

记忆里苹果过去没这么干过。考虑到「库克桌上的小按钮」这个都市传说,估计有人要怀疑,苹果莫非又在偷偷搞「计划报废」了?

放宽心,情况并没那么严重……这次推送的其实是个安全补丁,修复了可以让恶意网站绕过浏览器安全边界的 WebKit 漏洞。

但正如前面提到,这次更新没有走正常的系统更新流程,而是在联网的情况下,直接静默推送并安装了。当然,苹果也没有故意藏着掖着,官方网站上会有详细的日期和漏洞记录。

其实,这是是苹果的全新的安全推送机制「后台安全改进」Background Security Improvements,首次发挥作用。

过去十几年里,任何科技产品的安全更新,走的都是传统的流程:汇报/发现漏洞,开发补丁,打包进下一个系统版本,推送,等用户点同意下载、安装并重启。

这个逻辑,已经很多年没变过了,也没有任何改变的需要:If it ain’t broken, don’t fix it. 如果没有坏,为什么要改变?

但逻辑成立有一个前提:攻击方和防守方的速度大致对等。

现在的问题是,随着 AI 技术的进步,节奏开始变得越来越快:漏洞发现变快了,被滥用甚至大规模使用更快。留给科技公司给产品打补丁的窗口期越来越短。

科技公司们,也开始跟不上自己创立的新时代了。

2023 年,苹果曾经在 iOS 16 上做过一个「快速安全响应」的机制,能够静默完成安全升级。不过,该功能推出之后并没有没有有效利用,中间还有一次因为推送了错误的代码,导致一些网站无法正常显示,结果那次更新很快就撤回了,这个机制后来也没有再使用过。

但这次不一样了。今年,苹果从 iOS/iPadOS/macOS 26.1 版本开始启用「后台安全改进」政策,第一次实际投入使用,则是在 iOS 26.3 下的小版本上,也即开头提到的 WebKit 漏洞修补。

其原理大概如下:把 Safari、WebKit 等这些最容易被攻击的组件,给单独剥离出来,放进可以独立更新的加密磁盘镜像,从而绕开整个常规 OTA 流程。

「后台安全改进」的官方说明其实写的很简单,但通常字少事大。苹果的逻辑很明确:在今天这个时代,安全这件事不能等,必须加速。

时间再拨回本周:苹果加入了现如今最当红的 AI 巨头公司 Anthropic 发起的 Glasswing 计划,拿到了该公司最新,同时也是迄今为止最重磅的大模型 Mythos 的使用权。

这个模型能做很多事,但最擅长的能力之一,就是在那些每天数以亿万计用户使用的产品里,发现那些藏得最深但从未被此前任何方式发现的代码漏洞。

正式启用「后台安全改进」,和加入 Glasswing 计划,相隔不到一个月的这两件事放在一起,你应该能看出苹果有多看重安全了:

要知道,安全以及隐私是苹果最大的叙事主题,它必须尽最大努力去做好安全——哪怕是「瞒着用户」也要这么做。

从 Mythos 里面,苹果能得到什么?

Glasswing 计划的成员包括苹果、亚马逊、谷歌、微软、英伟达、思科、Palo Alto Networks、Linux 基金会等顶级公司和机构,另有 40 多个组织获得扩展访问权限,总计参与机构超过 50 家。

Mythos 是 Anthropic 目前最强的模型,所以你可以把 Glasswing 理解为 A 社拉了一个「内测群」……

这个模型没有公开发布,甚至连最顶级的付费用户(个人或企业)都暂时用不上。这在 AI 行业是非常罕见的,要知道放在任何其他公司,都会忍不住会把最新模型用最快速度推向市场,以获得更多的收入(为此甚至不惜给老模型降智、砍算力)。

A 社决定不第一时间全量开放 Mythos,提供的官方理由是:他们判断这个模型的能力可能越过了某条红线。

根据 Mythos 模型卡提供的信息,A 社并没有专门训练它去做安全用途,而是因为代码能力实在太强,进而导致 Mythos 涌现出了强大的攻防能力。

专门负责找破绽的 A 社红队,主动诱导 Mythos 从隔离的测试沙盒里「逃脱」,结果它还真发现了沙盒有一条设置错误的规则(并非人为设计,是真的疏忽),于是顺着这条路获取了特权,突破出站过滤,然后给研究员发了一封邮件,告知任务完成。

除了一开始的诱导提示词之外,没有人提供实质性的指导,模型自己完成了整个侦察、渗透、出逃的行为链。

A 社在报告里专门说明,这仅仅证明了 Mythos 大模型的能力超出预期,并不意味着它具备了某种自主意志(不论善良中立抑或邪恶)。

但与此同时,Mythos 会拒绝 96.7% 的明确恶意请求,以及 93% 不到的攻防双重用途请求——这仍然意味着,在 3-7% 不等的情况下,恶意请求可能会被执行。

而考虑到 Claude 月均 25 亿 API 调用,换算日均约 8.3 亿次调用——个位数百分点的比例,仍然可以换算为每天可能会有海量的恶意请求会被放过去、执行。哪怕只有一条成功了,都有可能造成糟糕的后果。

模型能力之强,已经真实地引发了它的创造者,以及整个科技世界的担忧。

于是,A 社提出了 Glasswing 这个「内测计划」:与其把 Mythos 锁进保险柜,不如让潜在暴露风险最高的巨头公司和机构们先拿到它,扫描自己产品里的漏洞,在更大范围扩散之前把洞堵上。

为此计划,A 社将会投入 1 亿美元的使用额度(本质上就是给内测伙伴提供 API 额度补贴),另外捐出 400 万美元给开源安全组织。

苹果拿到这个访问权限,扫描的对象是 iPhone 和 Mac,是 iOS、macOS、Safari——每天数以十亿计用户在使用的产品和操作系统。

苹果为什么看重 Mythos?它自己的安全团队不够格吗?当然绝非如此。

问题在于:

  • 一个典型的安全研究员,对于系统安全有深刻的理解,但他可能不像 iOS/Unix/内核的工程师那样,对于专精的技术栈、某种具体的编程语言,有足够深的理解;
  • 反之亦然,一个专精于 iOS/Unix/内核的工程师,能用自己的技术栈和熟练语言写出合格的代码,但仍然难免留下漏洞。
  • 更别提今后的工程师遇到 bug,甚至都不用 Stack Overflow了,直接 Claude Code 就行,能力的全面性大不如前。

正如前面提到,Mythos 的攻防能力,来自于强大的代码能力。代码也强,攻防也强,相当于既是专业的 iOS 开发者,也是顶级的安全研究员。

两手一起抓,两手都很硬:这才是苹果真正看重的东西。

窗口正在关闭

Mythos 的战绩可查:在每一个主流操作系统,和每一个主流浏览器里,它都已经发现了此前未知的高危漏洞,总数达到数千个。其中超过 99% 在报告发布时仍未修复,正在走协调披露的流程。

这其中就有 OpenBSD。作为开源世界里公认安全标准最高的操作系统之一,OpenBSD 是很多防火墙和关键基础设施的底层系统,其代码库长期处于全球安全研究员的持续审计之下。

但是,Mythos 轻而易举地在其 TCP 协议里发现一个整数溢出漏洞,存在了长达 27 年之久但此前从未被发现,所花费的算力成本不足 50 美元。

OpenBSD 可能离你太远,FFmpeg 应该足够近了,它是几乎所有视频播放 App 的底层基础,每一个带有视频播放功能的应用,包括你正在看这篇文章用的微信或者浏览器,都内嵌了 FFmpeg 或其衍生技术。

Mythos 在 FFmpeg 的 H.264 解码器里找到了一个存在超过 16 年的 bug。自动化测试工具此前已对该代码路径运行了上百万次检查,也是从没发现问题的存在。

你的苹果设备浏览器多少都会利用 WebKit,你的路由器同样可能依赖某个 BSD 变种运行,短视频产品更是无处不在……这些软件、技术,存在于我们每天都在使用的手机、电脑等各种设备当中。

每台设备,每个人都会成为攻击对象,这绝对不是危言耸听了。安全这件事,现如今真的和每个人相关,而且关系从未如此紧密。

漏洞本身不是新鲜事。每年被登记在册的 CVE 漏洞编号数以万计。安全行业的人对这件事,早已形成了习以为常的应对节奏。

这套节奏建立在一个前提上:攻击者需要时间。发现一个漏洞,理解它的成因,写出可以稳定复现的利用代码,这个过程在以前需要数周到数月,高度依赖顶级安全研究员的经验积累。

防守方也慢,但大家都慢,所以系统能维持一种缓慢的均衡:根据 Verizon 的《数据泄露调查报告》,去年各种已知漏洞修复时间的中位值是一个月。

一个月,成了多年以来行业默认接受的风险敞口。然而,强有力的大模型今天已经将防守方的时间窗口压缩到以小时计:

以 Mythos 对 Linux 系统的漏洞利用为例,从自主完成侦察、漏洞分析、构建代码,完成 Linux 内核的提权——整个过程用时只用了半天左右,算力成本仅用了 2000 美元。

换成人类安全研究员,却要花至少一个人月(真实场景下可能需要多人)的薪资成本,才能完成这个修复。

但现在,我们没有时间了。

苹果的两步棋

现在你应该明白,苹果为什么要绕过你直接打补丁了。

正如前面提到,传统的 OTA 周期天然存在延迟。内外部人员发现漏洞,苹果开始开发修复代码,把它打包进一个完整的系统更新,走测试、审核、推送流程,最后等用户在某个方便的时刻点击安装——整个周期通常需要几周时间。

以前合理的东西,现在不合理了。苹果可能早在 2023 年就已经意识到了这一点。今年正式上线的「后台安全改进」,是苹果的最直接回应。

而成为 Glasswing 计划的核心合作伙伴,更是苹果在 AI 时代,提前布局安全的工作体现。「后台安全改进」让推送补丁的周期变短,用上大语言模型,解决的则是推送修复的前置工作——发现漏洞和生成补丁。

AI 的新时代,带来了新的威胁。整个安全响应链条,从发现到修复到推送,每一个环节都需要提速。

好在,大模型本身也可以被看作一种「平权」,只要能够支付得起 token 费用,无论巨头公司还是中小企业,甚至个人开发者,都能够借助其力量来让自己的产品变得更安全。

更何况模型的商品化趋势极为显著。或许在不久的将来,取得同样效果,只需要几十甚至上百分之一的成本(Mythos 费用是 $25/$125 每百万 token)。

然而,道高一尺,魔高一丈。只要有新的技术出现,就会出现新的攻击面。安全的猫鼠游戏从来没有真的结局,魔与道的交手永不停歇。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

Floatboat 体验:一个人的公司,只需要一个办公软件

作者 杜晨
2026年3月31日 10:48

过去两年,我们每天都在做同一件事:学习和进修「提示词工程」这门玄学。

找 AI 干活,总要像个碎碎念的甲方一样,交代八百字背景,像是在哄一个智商奇高、但每天都会间歇性失忆的实习生。

这让我想起在游戏里,施展出必杀技之前,总是会有一个类似「前摇」或者「吟唱」的过程。某种程度上,写提示词,提供上下文,上传各种文件等等……就是使用 AI 的「前摇」。

不是说用户每次都要做到极致,只是如果你能给足这些前置条件的话,AI 会做的更好。

不过,前段时间 APPSO 在中关村的一场线下聚会看到了一个还在测试中的 AI 办公产品——它很大程度上摒弃了对「前摇」的依赖。

产品名字叫 Floatboat。

Floatboat 的联合创始人兼 CEO 少卿走到台上,打开 Floatboat,选中一个文件夹,里有一个 CSV 表格,是一份参加本次活动的嘉宾名单。他在旁边的 AI 对话框里说了一句:生成邀请函。

过了一会,每位嘉宾的邀请函都出现了。

到这里为止都还好,把表格丢给 ChatGPT、Claude、WorkBuddy、悟空………任何一个今天的 AI,写一句指令,大概率也能做到差不多的事情——但接下来发生的,让我愣了一下。

有一位新嘉宾确认出席了,少卿说,「在表里更新一下」。

CSV 更新了;紧接着,一封新的邀请函也自动生成了。

我坐在那里花了两秒钟,试图理解刚刚发生了什么:

Floatboat 它知道这份表格和邀请函之间,知道「更新表格」和「生成邀请函」两个动作之间,是有关系的。所以少卿只说了前半句,后半句没说出来,它自己悟出来了。

AI 不再是等待指令的工具,变得越来越积极、主动,会动脑子,像一个一直给你打下手的小朋友,你说「更新一下」,他知道你的意思。

这个瞬间让我开始认真看这个产品。

简单,但又无法简单定义的产品

Floatboat 是什么?我试着给它一个定义,发现很困难。

它有一个长得像 macOS Finder 的文件管理器,你可以浏览本地文件、打开 iCloud Drive;文件格式支持得很全,Markdown、CSV、Excel、Word、图片、视频,都能直接预览,甚至编辑;

它有一个内置浏览器,可以打开任何网页,甚至可以让 Agent 去操作这些网页;

它有一个 AI 对话界面,底层可以接 Gemini 或其他模型。这么看来它有点像 Claude 的桌面端,但又比 Cowork 多一些更直观的操作逻辑。

这三个东西,文件、浏览器、对话,以面板的形式并排在一起,可以随意拖拽组合,最多四栏并排。

你在浏览器里看到一张有用的图,可以直接拖到本地文件夹里保存;你让 AI 生成了一份报告,报告会直接写入本地文件,以 .md 或 .docx 格式保存,并且你可以直接编辑这些文件,不需要 cmd-c 再 cmd-v 到另一个地方。

信息从各个方向流进这个环境里,加工过的内容也能流出去,不会被锁死在某一个面板里。

所以 Floatboat 到底是什么?是文件管理器?是浏览器?是 AI 聊天工具?是氛围编程环境?

它都是,又不完全是。

在 Floatboat 出现之前,我们其实一直在做不同软件之间的「人肉 API」,每天按几百次复制粘贴,打开不同的软件或浏览器窗口、编辑不同的文件。

在 AI 世代在线办公的我们,成了在窗口与窗口之间疲于奔命的赛博搬运工。

而 Floatboat 打破了软件之间的墙,让所有的窗口都能共享同一份上下文。

开发团队给产品的定义是「工作环境」而非「AI 助手」。助手是你要求它才动的,工作环境是一直在那里的,你在里面做事,它一边帮你做事一边观察和学习。

在沟通会上,有人问少卿:一句话形容你们的产品?

少卿反问:你能一句话形容 ChatGPT 吗?

大家会心一笑。我觉得他说的有道理。有些东西确实不是一句话能装下的,除非你做的是一个非常垂直的工具。Floatboat 显然不打算做垂直。

做科技记者这些年,我经历过好几代这样的产品。最早是电子邮件加 Office 套件的时代,后来是各种 OA 系统,再后来钉钉来了、飞书来了、Slack 来了。

每一代都有一个产品,或者一类产品,它们有着同一句潜台词,对你发出强有力的暗示或者明示:上班,用我就够了。

而在 AI 时代,Floatboat 想要成为这个角色。

这么说不是在拔高它。恰恰相反,这个位置历史上从来没有人真正坐稳过。飞书解决了团队协同,但文档操作仍然需要 Office 套件。钉钉把审批这个工作做到了极致,但打工人私下用微信聊工作的习惯从来没变过。

「一统江湖」这件事,每一代都有产品在尝试,但从来没人真的实现过。

原因是结构性的:这类产品想要成功,需要整个组织一起换过来。而组织的惯性,是所有惯性里面最大的。你一个人觉得飞书好没用,你的团队、你的客户、你的供应商都得觉得好才行。

Floatboat 的策略有一个不同:它不面向组织,它面向个人。

这个产品的目标人群,也正是时下最流行的概念:OPC,全称 One Person Company/一人公司。

过去一年 AI 能力的跃进,让 OPC 这个前两年的口号,逐渐变得越来越现实和可行。一个人,加上三五个 agent, 几乎可以对等一个小的草创阶段的业务和支持团队。无论是自媒体内容创作者,从选题到写稿到排版到分发,还是电商业务,从选品到上架到客服到投流,都已经够用了。

Floatboat 希望能够打动这群人。在 APPSO 的体验中,我们测试了包括内容创作、数据科学等场景,也测试了外部工具接入(例如 Slackbot)等多种场景。对于内容、营销、数据分析、客服等类型的工作,Floatboat 都达到了我们的期待。

现在 AI 产品有两种设计哲学。一种是「你放手,我来」,把用户推到后座上去,Agent 全权接管,跑完了给你看结果。另一种是「你干活,我在旁边」,成为用户的副驾,在适当的时候递工具、提建议。

Floatboat 更接近后者,但又不全是。用 Floatboat 工作,我的体验是:跟 AI 在主驾副驾之间来回切换,畅快自如。

用了一段时间之后,我觉得 Floatboat 的主张是行得通的。至少在现在这个阶段,大多数人对 AI 的信任还没到「你尽管干,我不用看」的程度。你让一个打工人把整份方案交给 AI 自己跑,他会焦虑的睡不着觉……

但如果 AI 是在他的屏幕上、在他的文件夹旁边干活,他看得见过程,能随时纠正,那他会比较安心。

这也是为什么 Floatboat 的界面设计那么像一台传统电脑的桌面,把文件管理器、对话框、浏览器/编辑器都拉出来让你一览无遗:已经认识的东西,能够降低用户对一个新事物的戒备心,提高接受度。

一边工作、一边蒸馏工作

然后再说 Floatboat 做的一个叫 Combo 的功能。

Combo 可以是一个复杂的 skill,也可以是多个 skill 的组合。而在工作的逻辑里,就是把一套工作流打包成一个可复用的操作。

Floatboat 内置了从工作成果中「蒸馏」 combo 的能力——这其实很像 Anthropic 官方的 skill-creator(本身也是一个 skill)。

比如你每周都要做一件事:从网上抓几篇行业报告,提炼摘要,整理成 Markdown 文档,然后推送到 Notion。你第一次在 Floatboat 里手动跟 Agent 对话完成了这套流程之后,对话框下方会出现一个按钮,问你要不要把这轮操作存成一个 Combo。

或者你也可以主动跟 Floatboat 说,「把我们目前的工作里面的方式、思考、逻辑,整理为一个 skill」。

当下次遇到类似任务的时候,Floatboat 会自动把这个 Combo 推荐给你,一键启动。

这里面我觉得最有意思的一点是:你不需要事先「设计」工作流,只需要正常干活就行了。一边干着,一边 Floatboat 就会自己把你的工作习惯、操作方法等「蒸馏」出来,沉淀出一份指导思想。

少卿告诉 APPSO,Combo 能力的设计,是为了实现今天的绝大部分用户对于 agent 产品的那个核心期待:自进化。

「当 agent 能够感知你 80% 的操作的时候,它就有自进化的能力了」,Combo 的自动沉淀机制就是在做这件事的第一步。

兜售「提示词」的时代,快要结束了。你不再需要像个魔法师一样去背诵枯燥的咒语,把提示词保存在一个专门的文件夹或者 AI 工具的后台。通过 Combo,Floatboat 可以让用户把他们每天最经常做的固定动作,提炼成独属于自己的「手艺」和数字资产。

当然,Floatboat 也做了一个 Combo 市场,你做的好用的 Combo 可以上传,别人做的也可以下载。官方也提供了一些现成的。

但这个 Combo 体系仍有不足。

任何一个号称能够一统江湖的办公软件,号称「越用越懂你」的 AI 系统,都仍然存在冷启动的障碍:就好比 Google Docs 的初始简历模板虽然很全很好,但仍然需要每一个求职者去调整修改以适合自己。

Combo 的自动沉淀机制,逻辑上是说得通的:你用得越多,它学得越好,推荐的工作流越贴合你。但这有一个前提:你需要先投入时间从零教它,而大多数人没有这个耐心,他们希望拿来就能用。

作为一位媒体编辑,我的日常工作是阅读大量资料、跟作者沟通选题、改稿子、偶尔自己写长文。这些工作的颗粒度很细,上下文很碎,跟官方预设的那些模板(更偏向标准化的报告生成、数据整理之类)对不上。

在我的具体使用中,我将几种不同的内容生产路径保存成了不同的 Combo:针对外部新闻的快速反应是一种,基于采访 Q&A 提纲的撰写是一种,针对复杂课题的调研、资料的编排、然后进行原创写作,又是另一种。

当然,这不是 Combo 本身的问题。对于绝大多数人,无论他们的工作是文档写作、报表处理、ppt 写作,还是数据整理、行政工作,甚至更加复杂的「一人开发者+marketer+客服」,无论是自己生产 Combo,还是在 Floatboat 的官方 combo 基础上做微调,都足够好用。

AI 工具不是一切工作的万灵药——一个工具把自己宣传得再美好,今天的用户也应该有这样的觉悟。对于 Floatboat,正如前面所说的,它是「工作环境」,它的能力足以强化人,但它的工作效果仍然取决于人。

然后再说说用 Floatboat 和其他「类 Cowork」产品的区别:最大的明显感受,是 Floatboat 的工作流程很快。以文件操作、内容生成为例,在 Gemini 3.1 Pro 模型驱动下的 Floatboat,对文件进行操作(批量重命名/修改格式、填充 markdown 等)的用时,是我平时用 Cowork/Claude Code CLI 的三分之一左右。

Gemini 在「讨好用户」上也是老演员了,所以最近 Floatboat 也加入了 Claude 两个最新版模型,Sonnet 和 Opus 4.6 的支持。

Gemini 对于 Floatboat 主打的大多数办公场景(文案生成、表格处理、信息整理)来说够用,写作效果也还算不错;如果不符合你偏好的话,切到 Claude 模型也没问题。如果你注意到 Floatboat 的迎合意图太强,可以在工作过程中时不时强调一下,不要一味迎合,要对生成的结果,甚至用户的输入做批判性的思考。

以及,你也可以充分利用 Combo 生成的功能,将这些技巧写进 Floatboat 的核心指导思想。

另外一个小设计值得提一句:Floatboat 可以集成到飞书和 Telegram 里,你不打开它的客户端,直接在聊天工具里给它发消息,它就在后台帮你执行任务——这个功能叫 Claw 模式,相信足够你顾名思义了。

 

除了产品本身,Floatboat 团队还在做一件更远的事。

他们开源了一个协议叫 Selfware,核心理念用一句话说就是:A file is an app。

这是什么意思?现在你用 AI 辛辛苦苦做了一份调研报告,发给同事,他收到的是一个 Word 文档或者 .md 文件。文件里有最终结果,但你当时调用了哪些资料、AI 跑了什么逻辑、中间修改了几次、为什么改,这些对于工作最关键的经验,并没有被保存下来。

Selfware 想解决的就是这件事。一个 .self 格式的文件,里面不只有数据,还携带逻辑和结构。你的同事收到之后,可以直接打开、继续编辑、让 Agent 沿着你的思路往下跑。文件自带了工作环境。

这个想法,和目前 AI 开发圈里对 CLAUDE/SKILL.md、cursor rules 这类文件的热情, 属于同一个潮流。大家都在发现,文本文件可以用来「编程」AI 的行为,一个 .md 文件可以定义一个 Agent 的人格、工作方式、输出风格。

但 Selfware 往前又多走了一步:那些 .md 文件是指令,你告诉 Agent 怎么做;Selfware 想做执行单元,文件本身就能运行,而且不依赖于特定平台。

这其实有点像 Jupyter Notebook,把代码、数据、输出打包在一起了;也类似于 Docker,把运行环境做成了可分发的单元——Selfware 把场景换成了 Agent 协作。它不是从零发明的概念,但在 Agent 时代重新提出,确实切中了一个真实的痛点。

不过,协议这种东西,最终看的是采用率。现在 Selfware 主要在 Floatboat 自己的生态里运转。「A file is an app」是个有趣的理念,但从理念到被广泛采用的标准,中间路还很远。

另外值得提一句的是 IACT (Inline Action-Clicked Text),Floatboat 开源的另一个协议。它做的事情更小但很实际:在 Markdown 语法的基础上,直接在 AI 对话生成结果加上可点击的行内 (in-line) 链接/按钮。生成结果中的「可行动内容」将会自动套上这个按钮,用户直接点击就行了。

这个交互改进看着不起眼,用起来确实减少了摩擦。最早做类似体验的应该是 Claude,但 Claude 的很多「好东西」都是闭源的。Floatboat 把 IACT 开源,让其它产品也可以充分利用。

现在一些同类产品比如 WorkBuddy 也在做类似的东西了,但据我了解 Floatboat 是最先提出这个概念并把它协议化的。

工作起来,开心最重要

Floatboat 的名字来自一句英语俗语,whatever floats your boat,大概的意思是「你开心就好」。

少卿说,他们希望产品给人一种在 AI 时代悬浮起来的感觉,不被裹挟着走。

这个愿景挺好的。但 Floatboat 能不能成为这个时代的那个「用我就够了」的产品?老实讲,APPSO 仍然没法给出一个明确的判断。

毕竟大家都看到了:每一代尝试做这件事的办公产品,到了最后,多半成为了工具箱里的工具之一,而非唯一。

但今天下判断,也为时尚早。

一个产品不需要统一所有人的工作方式才算成功。如果它能让一部分人——那些一个人干五个人的活、每天在软件之间当搬运工的「OPC」们,每天省出一个小时来做真正需要动脑子的事,那它就已经值得存在了。

对大多数普通人来说,一家公司的活如果全都一个人干,确实挺累的。

但 Floatboat 让人兴奋的地方在于,它给了一个人也可以是一家公司的从容和底气。

不是所有人都能 OPC,你至少首先需要台好「PC」。而 Floatboat 赌的,就是自己会成为那台 PC。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

专访 vivo 总裁胡柏山:AI 已经很聪明了,vivo 要让它真正看懂世界

作者 杜晨
2026年3月27日 12:00

今年春节,OpenClaw 火了。短短两个月不到,它又冷下去了——又一场 AI 应用层面的热闹。

热闹散了,没人知道下一个 OpenClaw 是谁,也没人知道这些东西究竟在解决什么问题。

用影像旗舰手机拍下一张夜景当中的人脸,细节清晰到能看见眼眶里的水光。但手机可能并不清楚,主角刚才是否哭泣,也就无法理解这张佳作的情绪背景;再用长焦技能把数百米外的一个路人拉到面前,细节纤毫毕现。但你问手机:这个人是着急赶路,还是在找什么东西?手机仍然不知道。

今天的 agent 能写代码、能操控网页、能把一份 PDF 整理成会议纪要。这些它都做得不错。但这些事情有一个共同点:处理的全是人类已经事先转好格式的信息。文件、数据库、网页,都是数字化过的世界。一旦面对物理世界,一扇门、一段动作、一个表情,它们是失明的。

从今天的大模型,到能真正读懂物理世界的所谓「具身智能」,中间有一道鸿沟,现在没有人说得清楚怎么填。

这道鸿沟,是胡柏山在博鳌亚洲论坛上花了最多时间讲的一件事。

胡柏山是 vivo 总裁兼首席运营官。在博鳌亚洲论坛,他告诉爱范儿,自己有一个很直接的判断:「在明确的物理大模型没有出来之前,要有好的体验,就要把物理世界的信息转化到数字世界。」

他相信,这件事,不仅手机可以做,而且应该用手机去做。甚至在未来十年里,其它设备都很难替代。

拼大脑,没有护城河

过去两年,几乎所有手机厂商都在说「AI 手机」。大模型接入、智能助手升级、端侧算力提升,这些能力以肉眼可见的速度在普及。

去年 DeepSeek 横空出世,今年 OpenClaw 引爆讨论,各家都在抢着把最新的模型能力塞进自己的产品。

这场军备竞赛,有一个必然的结局:大模型的高度商品化、同质化、可替代化。

拼模型能力,没有护城河。

你比友商快三个月上线某大模型,以及大模型驱动的 agent 功能;友商六个月后跟上,用的模型和 agent 能力都比你更强。时间上的领先、花费的金钱和精力,卷出的工时和损耗的员工健康,价值又是什么?

于是,真正的差异化只能在别处找。

vivo 给出的答案是「感知」。

感知,是 vivo 刚刚成立的新技术赛道。

中外互联网公司和手机品牌纷纷加速进军「AI 手机」。行业一度以为模型能力会成为手机厂商的护城河。

在胡柏山看来,实际并非如此。「相比模型而言,积累下来的场景数据才最有差异化。」紧接着他补了一句:「当然,该做还是要做,要做就找适合我们的,可以做慢一点,晚一点也 ok。」

当被问及「如果不看好大语言模型,vivo 会否发力世界模型」时,他的回答更加保守却又直接:「世界模型也很大。我们还是找适合我们的技术路径。我们先把手机模型搞好,小模型搞好。」

当今 AI / 互联网科技巨头大打人才争夺战,顶级研究精英如 NBA 巨星般抢手,转会费一再突破新高。但胡柏山并不认为 vivo 应该为这团火再添柴。他告诉爱范儿,先想清楚思路,看清方向,定好技术平台,再发力,完全不迟。

在这个所有人都在比拼模型能力和 AI 人才储备的时间点上,掌门人直接把 vivo 的优劣势与行动纲领展开在媒体面前。这种坦诚令人印象深刻:vivo 的稳健、谨慎, 究竟有何用意?

胡柏山回应称,vivo 从不回避竞争。相比模型、算力,未来最大的差异化是来自于场景数据。

场景数据,是跟着使用行为逐渐积累的,不能批发,不能抄近路——影像数据尤其如此。经过十年光学硬件积累、用真实场景训练出来的感知判断,没有捷径。

而这些积累与判断,构成了 vivo 接下来押注的「感知」的底层。这些东西,其他人(无论友商还是互联网/AI 公司)想要,也只能自己去积累。

这就回到了刚才那道鸿沟。大模型的训练数据是互联网信息,而这些信息已经被数字化。但现实世界里大多数有价值的信息,还没被数字化。那些无法或很难被转化,或者转化起来成本极高的数据,成为了 AI 走向现实世界的障碍。

光线、空间、人脸、动作、情绪,这些东西存在于物理世界,需要被感知、被转化,才能成为模型可以处理的输入。谁的感知做得好,谁就控制了大模型进入现实世界的那扇门。

现在,没有人知道这扇门后面是什么,也没有人知道最后会是谁站在那里。

押注「感知」

感知不只是「更好的相机」,这一点 vivo 很清楚。

胡柏山说,相机是记录工具,它等你按下快门。但感知是另一件事:持续观察、理解正在发生什么,把这些信息转化成设备可以直接使用的输入。7×24 小时,不需要你触发。

从「记录」到「感知」,中间隔着一个系统架构的重建。

胡柏山给这件事起了个名字:「感知一体」。字面意思,是感知到的信息和设备的决策系统要即时打通。这一点,现在还做不到。

难点在于,原始的感知场景数据,比如一段视频、一张图、麦克风收到的声音,体量巨大,格式混乱,里面大部分是噪声。把这些原始信号转化成手机真正「读得懂」的结构化信息,需要一整套专门的处理链路。

「怎么把场景数据转换成手机能够读懂的数据,是最难的。这个领域开源资源少,需要自主探索,」他说。

这也是为什么 vivo 在内部把感知设为一级技术赛道。

「一级」意味着感知不再是影像部门下面的一个子方向,它会统揽包括视、听、嗅、触等多种感官种类,和感知方向。

不过,vivo 的感知研究与研发工作仍处在初期阶段。胡柏山用 vivo 的通信研究院做了一个类比:大约 200 人的团队,从 4G 开始持续投入,走过 5G,现在在做 6G,已经十几年了。

对于感知赛道,他的预期是相似的节奏:小团队作战,先构建认知。认知清晰了,开始加油门;等待软硬件生态成熟了后,油门再往下踩。「有一种渐进式加速、螺旋上升的感觉。我们拒绝一脚油门一脚刹车。」

胡柏山不希望 vivo 做感知计算,以及做任何事情,出现拍脑门、砸大钱的做法。他认为,感知是一个天花板很高,但今天没人能说清楚正确的技术演进路线是什么的东西。「我们准备好用五年、十年的周期来持续投入。但我们对这件事的认知获取,要循序渐进。认知没到,砸钱都是烂尾工程。」

感知赛道是一个判断,但判断要落地,需要现成的积累。

vivo 的底牌是十年影像。具体看,这十年沉淀的东西有两层。 

第一层是硬件。与蔡司的合作,如今已经走到了联合研发的深水阶段,传感器尺寸这一轮 X300 Ultra 的主摄升到了 1/1.12 英寸,和索尼的合作在往提升半导体转化效率的方向走——他提到了感官技术方面的「雪崩效应」,一种可以把感光元件的进光转化率,从 90% 推到 110% 以上甚至更高的新技术路径。

在硬件层面,胡柏山的判断和行业观察者及媒体大致相同,传感器尺寸已经卷到了边际收益递减的阶段,接下来更大的空间在转化效率和外挂形态——在 X300 Ultra 上,vivo 已经做了 200mm、400mm 定焦增距镜,还有更多在路上。

第二层是算法和认知。

vivo 三年前提出长焦大底,两年后全行业跟上。但跟上硬件很容易,「为什么是那个时间点做这件事」,这个判断很难。vivo 为什么选择在那个时间点上做这件事,动机来自于在影像上多年领跑的经验所形成的认知——没有可以搬运和复制的捷径。

「算法跟认知强相关——认知知道要什么方向,算法匹配,这是需求和技术的有机结合,对手很难快速跟上。」

这个逻辑延伸到端侧 AI 上同样成立。在 X300 Ultra 上,vivo 首次提出了一种「多 agent」理念,也即:

你举起手机拍一张照片,有个 agent 在判断你在拍什么、用多远的焦段、在什么光线下——这个判断,以前需要用户自己去做。而另一个 agent 在整理你的相册,根据你过去的修图习惯推荐或自动添加滤镜,又或者它能自动把几段素材剪成一条可以直接发的短视频。

这不是那种统一的「超级 agent」,比如 Gemini 或豆包手机助手那样的,而是每个场景一个专项 agent,既互通有无,又各干各的。

胡柏山的理由很实际:现有的硬件算力撑不起一个什么都管的大 agent,手机AI的发展要结合硬件的能力上限来推进。

这些工作仰仗 vivo 在端侧 AI 推理上的持续投入。据爱范儿了解,vivo 是手机厂商当中目前在算力购买上花钱最多的——不仅是云端算力,接下来的押注方向,是在旗舰机上嵌入专用的算力芯片。

vivo 的节奏是:先把不要求实时响应的 agent 做好,影像和相册是当前优先级;全域感知是五到十年的目标,always-on、全时段在线、所有感官打通,这是最终的方向。

一切交给时间

今后十年的 vivo,会去往什么方向?

胡柏山给了一个大概的路线图:手机是现在用户的核心产品,往后至少 10 年也仍然不变;MR 需要三到四年;机器人是五年以上。

这三个方向不是各自独立的押注,底层是同一套感知能力在不同形态上的延伸。

vivo 去年成立了机器人 Lab,聚焦「大脑和眼睛」。当被问及目前进展如何,胡柏山很直接地摊牌:「2025年把阶段性目标梳理地更加清楚,2026年进入整个路径的清晰规划。」

但这对于 vivo 来说并不是问题。

在一个各家都在发布机器人样机、争相宣称「具身智能元年」的节点,承认自己还没手搓出实物,是一种不多见的坦诚。胡柏山说「手搓一个机器人不是我们要干的。」

vivo 的机器人逻辑,和感知赛道的投入逻辑是一套:先想清楚目标用户是谁,再定义场景,再识别核心技术控制点,再等技术成熟度到位。

胡柏山告诉爱范儿,目前 vivo 还在论证第一步。他们倾向于服务年轻人,这也正是 vivo 从旗舰到年轻系列产品线一直希望抢占心智的群体。vivo 的第一代家庭机器人,可能的起点,是照顾宠物和叠衣服也说不定。

但这个场景,会不会太小?胡柏山认为,不能一上来就做通用机器人,不可能刚一开始就把所有的场景都做好。如果你非要那么做,最终的结果也只能是每个场景都不及格。

诚然,今天的具身智能机器人,可能做预录制的舞蹈能做到一百分,其他场景都没有足够的说服力。特别是在家务场景,「就说打鸡蛋这件事,想要做到百分百成功率,人都不一定,机器人十年内也做不到。」

胡柏山希望,vivo 的机器人能够先把一件具体的事情做到 60-70 分,然后一代一代泛化,优化现有的场景,再获得新的能力。

喂好了宠物,场景数据就来了。场景数据够了,机器人就知道这只狗每天几点饿,进而知道这家人几点起床,进而知道这家人的生活节律。不需要一步到位,因为每一步都在为下一步备料。胡柏山管这叫「沿途下蛋」。

这个逻辑,和在手机端押注感知的逻辑,是统一的:先把影像 agent 做好,场景数据够了,感知能力才往外延伸。

但在机器人的旁边,手机扮演什么角色?「手机是最懂你的随身数字助理。你的行为习惯、偏好、你喜欢养什么宠物,都在手机里。」胡柏山说,机器人早期做不好的事,手机可以遥控介入补足。

就像自动驾驶的早期,人类一直在干预,干预产生数据,数据让系统越来越好。「手机和机器人之间,场景数据是打通的。」

当然,他也没有把话说满。感知这个赛道,其他人也在做。包括苹果、谷歌等在内都有自己的感知计算框架。vivo 在这个方向上的竞争空间,更多在手机端的小模型感知这个细分方向。这是除了苹果以外的大厂,暂时没有重点关注的地方。

今年,胡柏山给机器人 Lab 设的任务,是把路径图画出来:目标用户、核心场景、关键技术节点、以及「技术成熟到可以商业化」的时间预期。

vivo 叫停了 AI 眼镜项目。他算了一笔账:一年几十万台,不符合目标体量;两年内又做不出差异化;技术平台目前也撑不起 80 分以上的体验(超过 30g 戴在鼻子上会很累)——三个条件一个都没过,砍掉没毛病。

「三年后做也不着急,它不是关键品类。」

不过,这个决定放在今天的背景下,还是有点逆势。2025 年 AI 眼镜是行业里最热的新品类之一,这个事实有目共睹。Ray-Ban Meta 卖爆,国内跟进者一茬接一茬。

创始人兼 CEO 沈炜在年会上表示,vivo 今年的策略是「少押注,押重注」。vivo 选择给 AI 眼镜按下暂停键,但将感知赛道的存在地位升级,其实是统一的逻辑和筛选标准的一体两面:一个赛道的天花板够不够高、vivo 自身的差异化属性够不够、技术平台能不能支撑长期投入。

这种思路,与近期 OpenAI 等在内的硅谷巨头,摒弃「支线任务」,聚焦真正长板的思路不谋而合。

2026 年选定的道路,vivo 会走到哪,现在胡柏山也还给不出答案。感知一体化的技术难题还没有解,端侧专用芯片的落地有难度,机器人的路径图今年才刚开始画。

胡柏山知道这些,也没有回避。他说,认知到了加油门,认知没到宁可慢。

手机行业正在经历一个奇怪的时刻:换机周期拉长到四十个月,中国市场年销量从高峰期的五亿多部跌到现在约 2.5 亿部,存量市场的天花板清晰可见;但 AI 带来的能力跃升,又让所有人觉得什么地方似乎还藏着一点增量。

胡柏山的判断是,从 Smartphone(智能手机)到 Agent Phone(智能体手机),才是把存量市场变成增量市场的机会。而感知,是这个机会里他认为最难被复制的护城河。 

接下来交给时间。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

被 OpenClaw 选中的飞书 ,终于给出小白无痛养虾「版本答案」

作者 杜晨
2026年3月19日 19:28

2026 年 1 月,OpenClaw 席卷中文互联网。仅仅两个月后,龙虾已经进入了「全民卸载」周期。

龙虾的问题不是它不够强,而是它很难服务于每一个普通人。

从安装到卸载,第一批「养虾人」的故事,暴露了 OpenClaw 的尴尬:Agent 怎么能产生真正的生产力价值?

今天,飞书的新品发布会,想给每个人一个答案。

给每个人的智能伙伴

OpenClaw 爆火之后,有着开放、易用的机器人机制的飞书,也跟着走红了。

API 调用额度从 1 万次提到 5 万次,再到目前的 100 万次;3 月 5 日推出官方插件,让 Agent 可以直接读写飞书文档、日历和多维表格,把「养虾」的门槛从「会写代码」降到「会用飞书」。

这些动作,确实让龙虾更好养了。但 OpenClaw 本身的弊端,飞书仍然解决不了:配置复杂、普通用户上手门槛高、原生部署安全隐患大,等等。

结论是:Agent 要真正落地,必须是一个上手即用的智能伙伴。它的安全是基本线,更要能直接与每个人的工作流丝滑融合。

今天正式升级的 飞书 aily,就是飞书给出的答案。

飞书 aily 是什么?官方定位是「每个人的智能伙伴」。形态上,它以 Bot 的方式常驻在飞书联系人列表里,打开飞书就能找到,对话即交互。30 秒激活,零配置。

  • 飞书 aily 有长期记忆,会随着你的使用逐渐记住你负责什么业务、偏好怎么沟通、喜欢什么格式。
  • 它的权限与你的飞书账户完全一致——你能看什么文档,它就能操作什么文档,敏感操作需要你确认,所有动作全程可追溯。
  • 它还有官方认证的技能市场,经过安全扫描,可以按需安装。

可以说,飞书 aily 是 OpenClaw,或者更广泛定义上「龙虾」理念的一种呈现方式。但它又跟开源的原生版 OpenClaw 有着本质的区别:

龙虾是你自己养的宠物,飞书 aily 是公司给你配的同事,入职了,开权限了,准备好和你一起开始工作了。

对于需要处理更复杂工作流的用户,还有独立的飞书 aily 专业版(aily.feishu.cn),有图形界面,可以让有需求的开发者、公司 IT 管理员去构建多步骤的自动化任务。

接下来的实测,我们会聚焦在普通人更好用的 Bot 形态,但两者底层逻辑相同。

龙虾承诺的太多,其实 aily 就够了

把飞书 aily 放进了实际工作流里,我们测了几个最日常的用法。

先来一个极高频的场景:飞书拉会。

在任务过程中,飞书 aily 直接查询了 APPSO 组织架构内的用户 ID——这一步放在别的 AI 工具里根本做不到。它能做这件事,是因为统一的权限机制。你在飞书里能看到的,它就能看到。

确认了人、确认了时间,调用飞书日历技能,一个会议就建好了。

从任务发起,到创建完成,大约半分钟。不敢说比飞书达人手搓更快,至少主打一句话搞定。

让打工人感觉痛苦,但又不得不做的事情,做月报肯定算一个。

我们把自己的社媒平台数据,先上传到了飞书云盘,然后交给飞书 aily。提示词很简单:查找不同媒体平台数据生成多维表格;再跟员工汇报文档结合,生成一份团队月报。

它整理了一共 9 份不同格式的文件,交付了一份月度汇报,以及可以作为附件的多维表格——时间只用了不到 4 分钟。同样的工作,APPSO 去年还在纯手搓,要用至少两个小时。

顺便一提,如果你想从零搭一套数据追踪的业务系统,子产品飞书妙搭也支持用自然语言描述需求,直接生成一套业务系统应用。

不一定每次都用得上,但有飞书 aily 在,你知道自己不用再求人了。

接下来,我们再看一个相对更复杂、偏创作/生成向的任务,看看飞书 aily 作为自媒体搭子好不好用。

作为 APPSO 的深度报道作者,我会写很多晦涩难懂的文章,在社媒平台传播的时候就需要生成有针对性的、更浅显易懂的版本。

我们还是可以直接在飞书 app 里,通过设定好的机器人来发指令。不过,这个任务其实更适合用飞书 aily 的专业版来完成。有图形界面 (GUI) 的辅助,可以精细化输入和调整,还可以更方便地调用原生支持的各种工具、技能和插件。

飞书里直接搜索飞书 aily,或者打开 aily.feishu.cn,就进入到了专业版界面。

它支持用户上传自定义 skill。虽然官方技能库非常丰富,但我还是想上传一个我之前经常用的「content-creator」(内容创作者)技能。

装完 skill 之后,我们只需要在对话框里输入 /content-creator(具体的 skill 命令因人而异),就能唤醒它。再把文件链接给到,它就能开始帮我写稿去了。

这种技能/插件的调用方式,和 Claude Code、Cowork、OpenClaw 等产品相同,熟悉度拉满。

开始工作后,我们能够在后台看到,飞书 aily 先是做了一个 plan,将任务分解成 5 个步骤。

即便是不指名到具体的 skill 上,飞书 aily 仍然可以判断我的意图然后调用对应的技能来完成工作。

APPSO 在这里其实还做了 A/B 测试,激活或不激活技能,任务完成时间分别是一分半和三分钟——都不算特别久,但显然调用 skill 工作更快,而且利用技能写出来的感觉更好。

无论是各种官方还是第三方的 skill,飞书 aily 都能完美适配。不过这里 APPSO 还是建议大家不要在不熟悉的情况下乱装 skill,尽量以官方的技能商城为准。

工作完成后,点击右上角的工作区,能够查看生成的内容了。

三个场景测下来,有一个感受越来越清晰:飞书 aily 跟那些「AI 生成一个文件发给你」的工具,体验差异还是很明显的。它的交付物是文档、表格、任务,可以继续被协作、被引用、被追踪。

龙虾当初让大家兴奋的那个期待,其实一直都很具体:帮我做完一件费时、费力的小事,让我能腾出脑子去处理真正重要的东西,别让心流被一堆琐碎打断。飞书 aily 做到了这一点,龙虾没有。

当然,OpenClaw 有很多「出格」的操作,它还做不到:操控本地文件系统、执行任意命令等。但换一个角度,这种「克制」本身就是企业场景的必要条件。哪怕一个新实习生学历再高、能力再强、多有灵气,公司不会给 ta 配上服务器根权限——这很正常。

飞书本就是个强有力的生产力工具。飞书来做龙虾/agent,当然不是为了实现什么 AGI。在各种宏大的叙事之外,先让普通人的打工人生更轻松,才是更重要的。

飞书 aily 支持定时任务创建,交互比 OpenClaw 更轻松

Agent 落地企业,其实并不难

企业 Agent 的竞争,正在往一个很多人还没意识到的维度转移。

过去两年,行业的注意力主要在两件事上:模型能力(谁的参数更大、基准跑分更高),以及 C 端爆发(谁的 Agent 更酷、更会演示)。

OpenClaw 的火爆是这个逻辑的顶点——一个开源框架,凭借「能干活」的形象引爆全民。

但龙虾从爆火,到卸载,仅用了两个月就快走完了一个周期,里面有一个不能更朴素、更明显的道理:

「能干活」是必要条件,绝非充分条件。

Agent 要在企业环境里真正落地,需要的远不止一个会执行命令的 AI——它需要懂业务,需要匹配组织的权限构架,需要嵌入团队已有的工作流,而不是在旁边开一个新窗口,重新训练一个昂贵且笨的「实习生」。

诚然,中国绝大部分的工作发生在微信上——团队工作的本质是沟通,这个道理上过班的人基本都明白。但飞书、钉钉、企微的流行,从侧面证明了工作绝不仅仅是沟通那么简单。

聪明人在一起工作,沟通早已不是问题。聪明人开始发现,那些聪明人也不得不干的「笨事情」,才是效率提升的真正空间所在。

Agent 的上限,取决于它能「读懂」多少你的工作。但在工作的语境下,「读懂」并不意味着你要把自己的电脑交给它。

而读懂,靠的是上下文——你留下过的笔记,开过的会和会议纪要,跟谁在群里讨论过什么,哪些项目在推进,哪些决策已经做出。

这些东西,叫做企业上下文数据,其实正是一个商业机构运转的引擎。它不存在于模型里,也不能从网上抓取,它在企业内部的协作平台上,以消息、文档、日历、审批的形式慢慢沉淀,日积月累。

飞书沉淀这些东西,已经好几年了。

OpenClaw 爆火后,中文开发者自发聚集到飞书,原因很简单——Bot 创建不需要审批,不需要公网 IP,摩擦最少。社区发起人杨明锋在自己的分支里先实现了飞书扩展,2 月 4 日被官方合并。

把 OpenClaw 的门槛从「会写代码」降到「会用飞书」,是飞书能做的事,也是其他平台很难复制的动作。

飞书目前是 OpenClaw 官方唯一原生支持的中国 IM 软件

飞书大概率没有预料到这一切,但它一直在做的那套东西——足够开放、接口通畅、数据互通——恰好就是龙虾最需要的基础设施。

当在飞书中激活飞书 aily ,它读到的上下文,远比文档里的文字、表格里的数据更多。它知道这份文档是上周评审会讨论的结果,知道那个多维表格由哪个团队维护,知道@你的消息通常意味着什么优先级。

——这些,都是外部的 Agent 产品,难以复制的东西。你可以在后端接入强大的模型,可以用各种服务框架、插件、技能、hook 来强化体验。但你的工作记录,专属于你的公司、属于你的上下文,是不可被替换、很难被简单搬运走的。

竞争对手可以做出一个功能相近的 Agent,但它接入的只是空壳;而飞书 aily 面前的,是一个已经蓄满水的池塘。

这个逻辑延伸出去,还有一个更大的判断:企业 Agent 的竞争格局,最终将由「谁的地盘里的上下文最充裕」,而不是「谁的模型最强」来决定。

模型能力不是不重要,但模型的高度商品化,是既成事实;多年沉淀的上下文生态,才成了真正的护城河。

企业 Agent 时代的入口,应该是上下文最深的平台。飞书已经成为了这个入口。

钉钉有更大的用户基数,腾讯有 QQ 和微信的社交图谱,企业微信有腾讯的 B 端关系链。飞书的优势,在这三者里反而是最「纵深」的:它的用户群以科技、互联网和成长型企业为主,这批人对 AI 的接受度高,工作上下文的数字化程度也最高。

换句话说,飞书的地盘虽然不是最大的,但上下文密度可能是最高的。你在哪个平台留下了最多的工作痕迹,那个平台的 Agent 就最懂你。

究其根本,大多数人们对于龙虾的期待,并不能通过 OpenClaw 来解决。

两年后的办公 AI,会变成什么样子,没人知道。但至少今天的答案,就在工作已经在发生的地方,在飞书 aily 的身上。

飞书一直是对 agent 最友好的工作台,无论 AI 怎么进化,其实万变不离其宗。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

对话腾讯「龙虾」负责人:没用一行 OpenClaw 代码

作者 杜晨
2026年3月13日 18:13

深圳线下龙虾装机,「没有想到会这么火」。

这条朋友圈本身没什么实质指令,但发出来的时机足够微妙:OpenClaw 成为社会现象,尝鲜者扎堆装机, FOMO(错失焦虑)的情绪爆棚。

随即,腾讯 CSIG(云与智慧产业事业群)的一批龙虾类产品纷至沓来。WorkBuddy、QClaw……名单还在扩充。另据悉,连 WXG(微信事业群)也在内部推进相关 Agent 项目,具体形态尚未对外披露。

这套多路并进的局面,外界通常理解为「赛马」,但在腾讯并非如此,内部管它叫「多样性」。

龙虾这个词,是中国用户给这类 AI Agent 产品起的外号。它指的是一类能自主操控计算机、调用工具、完成任务的 AI 智能体,和聊天助手有本质区别,更像一个能接管鼠标键盘的数字雇员,帮你操作浏览器、整理文件、收集资讯、生成内容。

代表产品 OpenClaw 以开源方式出现,很快破圈。而中国互联网公司和 AI 创业精英们的极速跟进,让「龙虾」的概念迅速在中国落地成了一场可以亲手操作的社会实验。

热潮的另一面,争议同步升温。国家机构发出安全预警,指出此类 AI Agent 获取本地数据和系统权限存在潜在风险。多家国有机构随后限制员工使用 OpenClaw。「龙虾」激起了 FOMO 狂潮,也挂着一层「危险品」的底色。

这是腾讯 WorkBuddy 登场时面对的舞台。这一产品的起点,其实比 OpenClaw 爆火还早一步。 

去年下半年,腾讯 CSIG 就已推出开发者 AI 产品 CodeBuddy,为 WorkBuddy 打好了一套技术底座。OpenClaw 的爆火,为 WorkBuddy 提供了一个正式亮相的理由。

今天,WorkBuddy 产品负责人汪晟杰接受了 APPSO 等媒体的采访。对于腾讯内部的「赛龙虾」的质疑,他并未回避,从多样性的角度解释其合理性。他强调,WorkBuddy 是完全自研的方案,未使用 OpenClaw 代码,也在设计上刻意规避了 OpenClaw 的「透传」工作原理,避免了信息暴露在公网上。

汪晟杰告诉 APPSO,龙虾是一种概念,有着不同的实现思路。追求高度自主化的「完全托管」是一种思路,WorkBuddy 的半自动化(其实这个产品的本质更接近 Claude Cowork),也是一种思路。这种多样性,存在于市场上,也存在于腾讯内部——这也是为什么大家会看到腾讯同时推出了多款龙虾类产品。

诚然,大家看到琳琅满目的龙虾产品可能会感到眩晕,但汪晟杰认为,在未来,每个具体产品可能只是一个触点,用户的资料、偏好、记忆——谓之上下文,或许是可以在多个龙虾产品之间流动的。这样能够实现场景聚焦,但不管在哪个场景下,龙虾都能足够好用。

以下是我们和汪晟杰的访谈实录,为了清晰和简洁,文稿经过了编辑。

为什么是现在?

问:WorkBuddy 的内部版本 1 月就已经做出来了,但公测是在龙虾爆火之后才发布。是为了蹭 OpenClaw 的热点吗?

汪晟杰:去年下半年我们在做 CodeBuddy 的基建,做了开放平台,也发布了 SDK,这套玩法和 Anthropic 的逻辑是一模一样的。

1 月初元旦之后,Claude Cowork 出来了,我就拿着想法去找老板,基于我们自己的平台,快速迭代出了 WorkBuddy 的原型给老板们看。老板一拍即合,我们就开干。我还记得 1 月 17 号,那两天是周六周日,我和几个小伙伴通宵了两天,把 0.01 版本搞上线了,给内部用。

年后 OpenClaw 爆火,我们把项目正式纳入 CodeBuddy 家族,用 CodeBuddy 的所有组件重新渲染了一遍,才变成大家现在看到的形态,从内测转成了公测。

APPSO:OpenClaw 采用 AGPL 协议,但 WorkBuddy 对外宣称自研。自研的边界具体在哪里? 同为「龙虾」产品,你们有没有开源的义务?

汪晟杰:百分之百自研,没有用过任何一行 OpenClaw 的源码。能做到这一点,是因为我们本身就有 CodeBuddy 的整套基建——AI 驱动、自主完成任务这套框架我们自己有,不需要借。

我们是以用户场景为出发点,做了一个对齐 OpenClaw 形态的产品,不是套壳。因为没有使用 OpenClaw 的代码,AGPL 协议对我们不构成约束。

问:上线之后用量暴涨、服务器告警、紧急扩容。5000 积分是这场混乱的产物吗?龙虾类产品对 token 的胃口,长期来看能降下来吗?

汪晟杰:WorkBuddy 上线之后,请求瞬间超过了 CodeBuddy 很多倍,算力远远不够,达到了预警阈值。我们紧急扩容,优化了架构,让登录逻辑变得更稳定。

5000 积分是因为我们想让大家能真实体验到 WorkBuddy 是好用的,也希望收到反馈,所以做了这个运营动作。

至于 token 消耗,我认为这个趋势一定会下降。工程在迭代,模型成本也在降,更轻量的模型已经能完成很多日常工作了。这是工程问题,一定有解。

WorkBuddy 是什么、不是什么

APPSO:市面上大多数龙虾产品在往「全自动」方向走,OpenClaw 的逻辑是让 AI 尽量自主。WorkBuddy 是怎么想的?

汪晟杰:如果从自动化程度来看,最左边是人的参与最多,最右边是完全托管,龙虾定位是往右走,但我们目前绝对不是一个纯托管自动化的产品,我们在中间。

值得一提的是,在 OpenClaw 爆火之前,这个赛道里最强的产品其实是 Claude 的 Cowork,但它没起来,因为它是海外产品,又不开源。OpenClaw 填了这个位置。

我们的判断是:现在大部分用户真正需要的,是搜索类加内容重组的场景。比如每天做 AI 资讯分析,把推特内容转成小红书风格自动发出去,这已经是很高级的场景了,而且是安全的。但我没必要让 AI 在我没授权的情况下自主发帖、自主学习——那是很恐怖的事情。

海外有产品在做这个(更高自主化,甚至完全托管)方向,我们也在观望。等大家真正理解了哪些场景有价值,我们再来布局全自动。

APPSO:众所周知,中国真正的工作发生在微信上。但微信的官方接入长期不开放,WorkBuddy 现在走的是什么路?

汪晟杰:我们会先把体验做得更好。微信生态很强大,小程序能做很丰富的交互。

但我想说的是,拥抱 AI 如果只是遥控你的电脑,这个太薄了。我们更希望的是:在你日常使用微信的过程中,WorkBuddy 能在可控范围内帮你获取信息、调用云端个人沙箱去执行任务,不一定每次都要连到你的本地电脑。这样普通用户打开微信就能用,不需要电脑在旁边。

这个想象空间其实更大,这也是为什么我们优先把微信这一侧的体验做扎实。

问:WorkBuddy 的目标用户是普通办公人群,但龙虾的安装门槛至今仍是极客游乐场。这个矛盾怎么解?

汪晟杰:这的确是整个龙虾品类最大的障碍。OpenClaw 的安装要一条条敲终端指令,装完还要养,装技能也很繁琐。我自己是养虾专业户,装了好几只,但后来都关停了——因为我用的是 MacBook Air,OpenClaw 动不动就让电脑卡顿,只能在特定时间才敢开。

腾讯的主张,也是我对产品一直以来的想法,是「干净到透明」——打开即用,装完即用,无需配置,扫码即用。扫码入口最大众的就是微信,我们通过微信扫码加一个安装包,两步操作就完成了。

这是我们的优势,也是我们产品价值的核心。

如何确保龙虾安全、不越界?

APPSO:国家互联网应急中心针对 OpenClaw 发出了安全预警,多家国有机构也开始限制员工使用 OpenClaw。WorkBuddy 同属龙虾品类,这顶帽子会不会也扣过来?

汪晟杰:龙虾产品的安全隐患,核心是「透传」——你的本地工作环境和远端发生连接,数据走向不可控。

我们在设计 WorkBuddy 的时候就考虑到了这一点,尽可能不用透传的方式,而是用更安全的机器人推送来替代。

面向企业场景,我们可以通过各种开关做精细化控制:比如关掉普通微信接口、只保留企业微信通道,推送对象限定在当前企业的当前账号,账户权限分级清晰。

我们自己内部也在用 WorkBuddy,用的就是这套架构——只走内部企业微信,外部接口全部关停。我们认为这套方案能达到企业的安全要求。

问:给 AI 的权限越高,它能做的事越多;权限越低,安全是安全了,但用处也打了折扣。WorkBuddy 的平衡点是怎么找的?

汪晟杰:自主和安全本质上是矛和盾的关系,但我认为可以找到平衡点。我们的 WorkBuddy 不是全自主的逻辑,很多命令都需要用户去确认,这和 OpenClaw 是不一样的。

说绝对安全也不现实,因为有些目录本来就不能读,这取决于用户自己的配置。我们的做法是配置化——千人千面,让每个人、每个企业自己来管理安全的力度和级别。

我们也会对内置技能做严格审查,比如文档处理、资讯检索这类无害技能会直接内置,但代码生成类的会做严格管控,网络检索也会走安全网关,把有害网址挡在外面。

腾讯龙虾的未来

APPSO:CSIG 已经有了几个龙虾产品并行,WorkBuddy、QClaw 各有定位但功能高度重叠。这是有意为之吗?

汪晟杰: 我从市场层面说——Agent 的多样性是一定要存在的。人群画像是多样的,解决场景是多样的,基建也是多样的。

在海外你会看到 OpenClaw 的各种开源分叉,有的解决了 token 消耗过大的问题,有的让架构更轻、能在低端设备上跑,这是龙虾生态的百花齐放。

至于 WorkBuddy 和 QClaw,我自己用过 QClaw,但关于其它产品我不是很清楚,不太方便评价。

我能说的是,WorkBuddy 聚焦办公人群,CodeBuddy 家族是整个中国全套做得最全的产品家族——有 IDE 形态、IDE 插件、办公场景的 WorkBuddy,还有面向云端浏览器的网页 Agent,开发的、不开发的都可以按需选择。

APPSO:CSIG 的龙虾产品这么多,有没有可能最终会整合?

汪晟杰:我个人更倾向于分而治之。不同人群随时随地有各自的垂类 AI Agent 去解决特定场景的效率问题,不会有一个大脑像贾维斯那样统管一切。

但我想补充一点:这些产品之间会有「弱连接」。连接的不是 AI 本身,而是 AI 大脑里的知识体系——上下文工程是流动的。你作为用户,在任何时间可以触发任何 AI 入口,但属于的信息流是连续的。这个才是真正的想象空间所在。

APPSO:去年 Manus 引发热潮,一个月后就冷了。龙虾会不会复刻这条路?WorkBuddy 以及所有腾讯龙虾,会不会终究成了一段弯路? 

汪晟杰:我说下我的个人观点:龙虾不是个产品,龙虾 (Claw) 是一种概念。而且,龙虾不等于 OpenClaw。

我认为龙虾类产品不会是过渡产品。因为安全可控、并且带有一定自主性地帮用户完成任务,这样的诉求是真实的,不会消失。龙虾要和国内不同行业结合在一起,才能爆发出新的想象空间。

往远了想——假设 WorkBuddy 装在一个有摄像头的桌面陪伴机器人上,就像一辆全自动的汽车,24 小时陪伴在你身边,获取你的信息,在必要的时候给出判断,这就是边缘设备的新形态。

所以我要强调:龙虾指的不是 OpenClaw,而是 Claw 这个概念。这个概念会长期存在。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

云端养虾不花钱?阶跃 StepClaw 来真的

作者 杜晨
2026年3月12日 22:14

最近想必不少人都装上了「龙虾」,还没真的干什么活,先收到了一张账单。

金额从几十到几百不等,有人甚至看到四、五位数。

OpenClaw 是个 token 销金窟, 懂行的人多少都清楚。仅仅是将龙虾配置成自己需要的样子,都要消耗非常多 token,配置好了之后日常运转 + 对话,一天耗费量也不少——它在后台搜资料、写代码、调接口、生成文件,每一个动作都在烧。

账单是实时在跑的,只是很多人没意识到。

目前市场上一窝蜂出现的一键部署工具,有的会告诉你按量计费,没良心的先把你拉上车,想下车先交钱,管杀不管埋。

而今天,阶跃往前多走了一步。

APPSO 注意到,阶跃星辰「阶跃 AIAPP上线了 StepClaw

阶跃提供了 5 万个首批名额,全包式免费,先到先得。

这个免费是字面意义上的:5000 万模型 Tokens、云服务器费用、存储费用,全包,没有隐藏的按量扣费。

尽管天下没有一直免费的午餐,这个免费使用限时 1 个月,但阶跃给的 Token 额度,足够你配置好自己的龙虾,并摸索、使用很长一段时间了。除了 APP 端以外,StepClaw 明天还将在阶跃 AI 网页端上线,支持部署和使用。

StepClaw 怎么玩?

很简单,只需要去应用商城下载「阶跃 AI」就可以了。

下载登录后,你会在左下角发现一个「StepClaw」字样——这就是「阶跃龙虾」的入口。之后再进来跟龙虾聊天,点这里就好了。

初次配置的话,过程说是需要三分钟,APPSO 实测一分钟不到就搞完了。

根据阶跃官方介绍,StepClaw 的云电脑配置为双核 CPU、4GB 内存和 40GB 存储。作为 OpenClaw 的标准实例,该有的功能,例如复杂任务、长期记忆、全时在线等,全都有。

在这个页面你也会看到,阶跃会给首批用户赠送最多 5000 万 token 用于「阶跃龙虾」。

如果你之前从未使用过任何形式的 OpenClaw,或者想用阶跃 AI app 直接重新配置一个,那么就点击这个「一键配置使用」就好。

接下来看看能用「阶跃龙虾」做什么。

一个最经典的用法:每天早上给你出一份指定行业的早报,重点检测某几个网站。

只需要跟他说就行了。

在 APPSO 的测试中,经过大约两分钟左右,StepClaw 直接完成了第一个任务。

从返回的结果来看,它创建了一个脚本,使用 search 功能,并且调用系统事件来设置推送。对于定时功能,StepClaw 使用的也是 cron job 这一比较通用的逻辑。

这是 APPSO 本次部署后的第一次对话,由于 StepClaw 会在后台根据你的命令去确认必要的技能和工具,如果没有相应工具的话则会去自行寻找和安装——所以首次对话的反应比较慢,属于正常现象。

之后的话,StepClaw 会在云电脑上保存一份长期记忆,对于类似的任务,规划和执行速度都会变得更快。

作为一个标准化的 OpenClaw 实例,StepClaw 也是支持绝大多数 OpenClaw 能力的,包括和外部聊天机器人对接。

我起了一个 StepClaw 新号,告诉它我要对接飞书机器人(之前我并未配置过)。

这次它的反应速度倒是挺快,从头开始一步步教我,事无巨细倾囊相授……对于技术小白来说,还是很友好的。

这年头大家对龙虾应该已经不能更熟悉了,各有各的用法,多的我们就不赘述了。

目前 StepClaw 在阶跃 AI APP 端同时支持 iOS 和 Android 系统。5 万个免费名额,先到先得,发完即止。

虽然是免费的午餐,但只持续一个月。在这段时间里,云服务器、存储、5000 万模型 Tokens 相关成本全包。

至于什么时候、如何付费,目前还没有消息。所以大家可以趁此机会尝试一下,把 OpenClaw 调用榜单上登顶的大模型 Step 3.5 Flash,当成龙虾的「大脑」,究竟是一种怎样的感觉。

阶跃的龙虾棋谱

让我们回到刚才的开始配置界面,更有意思的还在下面:

在最底下,你还可以绑定已有的 OpenClaw,把你已经配置好的小龙虾带到阶跃上。

这么做有什么好处呢?APPSO 认为主要有两点:一是直接把阶跃 App 作为对话界面,方便手机操控,但又不用重新调教一遍龙虾;二是可以充分利用 Step 3.5 Flash,也就是阶跃目前最强的 Agent 基座模型。

和其它可用于小龙虾的模型相比,Step 3.5 Flash 有什么优势?一张图你就明白了。

这是 OpenRouter 上 OpenClaw 后端模型的使用量排名,在过去一个月时间里,Step 3.5 Flash 连续登顶小龙虾调用量日榜,同时也稳稳拿住月榜头把交椅:

在 OpenClaw 热火朝天的这两个月里,很多小白玩家最头疼的点,莫过于东西装好了,模型却选了个笨蛋。

模型这东西,大体上是便宜没好货。便宜的模型一般小,智力、规划、推理能力不行,没有面向 Agent 调用做过优化,用来当 OpenClaw 的脑子,经常会发生幻觉。

而 OpenClaw 的幻觉,跟一般大模型产品还不一样:

大模型最多给你吐出一些错乱的回答,可是一旦 OpenClaw 出现了幻觉,是真有可能错误地执行任务,甚至删掉重要文件的。

此时阶跃站出来了,送上免费的 Step 3.5 Flash 给普通用户和开发者使用。

能给出这个方案,阶跃下了一盘什么棋?

我们不妨复盘下 Kimi 最近的经历。

OpenClaw 爆火初期,「龙虾之父」Peter Steinberger 在采访中推荐了 MiniMax 的模型;但到了 2026 年 2 月,Kimi K2.5 因为便宜且 Agent 优化好,一度成为 OpenRouter 上 OpenClaw 调用量最高的模型。

OpenClaw 官方随即宣布 Kimi K2.5 为首个免费开放的主力模型,月之暗面同步为社区用户提供免费调用额度——两家联手,直接破圈了:

虽然 OpenClaw 免费,但收费的 K2.5 能力被整个商业世界看到。发布不到一个月,月之暗面宣称近 20 天的累计收入就超过了 2025 年全年总收入。海外收入首次超过国内,Kimi 月访问量达到 3300 万。

这说明一件事:在 OpenClaw 的生态里,谁的模型成为默认选择,谁就吃到最大的增长。

Step 3.5 Flash 是阶跃今年 2 月初发布的旗舰 Agent 基座模型,采用稀疏 MoE 架构,仅凭 11B 激活参数(总规模 196B MoE)便达到了顶尖级别的智能水平,最高推理速度达每秒 350 tokens,专门为 Agent 场景优化,在多个 Agent 基准测试上进了开源模型第一梯队。

Step 3.5 Flash上线两天,登上 OpenRouter Trending 第一,随后在 OpenClaw 调用量榜上一路爬升,目前在 OpenClaw 全球大模型调用量日榜和月榜上均排名第一。

用付费模型跑一个活跃 Agent,月成本很容易上到几百块。对养不起虾的用户来说,Step 3.5 Flash 本来就很经济了,现在又加上了 StepClaw 一键部署,更轻松了。

和其它更复杂的龙虾部署方案相比,APPSO 发现 StepClaw 的一键部署体验很「无感」,不需要写代码,让小白也可以拥有自己的 AI 助理。

大模型「小龙」,纷纷转型「龙虾剑客」

养虾热潮里,入局的公司多得数不清。腾讯、百度、阿里、字节,各自推出了云端部署方案;小米在做手机端的系统级龙虾,华为、荣耀也在跟进。一时间「龙虾家族」壮大到十几个分支,让人眼花缭乱。

但如果仔细看,这些产品其实分属两种不同的逻辑。

一种是提供安装辅助和通用界面,让用户可以自选模型供应商,通过 API Key 等方式去直接调用。

这种思路,基本上就是对 OpenClaw 进行「套壳」,是一种相对功能更强、定制性强,但对普通用户友好度稍差的思路。

另一种玩法,是原厂深度绑定:自家模型驱动自家 Claw 产品,从模型到部署一条龙,用户拿到手就是调好的。走这条路的:月之暗面的 KimiClaw,和 MiniMax 的 MaxClaw。

今天阶跃上线 StepClaw,终于凑齐了国产龙虾「三剑客」。

有意思的地方在于,这三家都是国产大模型创业公司,它们各自的大模型在这波 OpenClaw 热潮当中,被开发者们很快发现适配度很高,进而模型调用量爆发最猛。

原因并不复杂:OpenClaw 本身只是框架,驱动它的是大模型,谁的模型好用、便宜,开发者就选谁。

本质上,「套壳」行为,只是给用户提供个场地,部分套壳选手「项庄舞剑」很热闹,但其实意在沛公,想的是赚云服务的钱。

而原厂模型公司,手里握着聪明好用的「虾脑」——在此基础上开发个壳出来,只是工程上的小问题。

养虾这件事,门槛一直在降,从一两个小时的手动折腾部署,再到今天 StepClaw 的一键免费入口,操作层面已经压得很低了。

目前 OpenClaw 仍然处于一个热火朝天但争议不断的阶段,而且这个争议同时存在于技术、政策、社会层面。

但不论怎样,OpenClaw 仍然属于一个现象级的事件。在它的身上,一些人可能只看到了争议,而另一些人却看到了未来。

有趣的事情,甚至范式跃迁级别的事件,后面只会越来越多。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

❌
❌