腾讯龙虾团队答疑:龙虾的热度确实高过能力,但它是普通人拥抱 AI 浪潮的第一步
文|王毓婵
编辑|苏建勋
最近一周,一向以风格稳重著称的腾讯一反常态,不仅借着一场“免费帮装虾”的线下活动迅速推高了大众对“龙虾”的热情,而且在短期内推出了大量“龙虾”产品。
目前已经上线的,有被称为腾讯版“免部署小龙虾”的办公工具WorkBuddy;支持一键启动,并将AI代理能力接入微信和QQ双端的QClaw;面向开发者的腾讯云轻量应用服务器Lighthouse,以及配套生态与安全工具Skillhub等等。CEO马化腾在朋友圈披露,接下来,腾讯还会推出自研龙虾、本地虾、云端虾、企业虾、云桌面虾,安全隔离虾房、云保安、知识库等等一系列产品。
OpenClaw,别称“龙虾”,是当下最火的Agent开源框架。这款可以被直接部署在电脑本地的Agent,能像人类一样操作系统、访问文件、回复消息,同时突破生理极限,7*24小时不间断干活。
春节后,龙虾成为了“大厂必争之地”。字节跳动旗下火山引擎上线了 ArkClaw,阿里云通义实验室则推出了 CoPaw,普通人装龙虾的门槛被迅速抹平。但关于龙虾到底能做什么,以及如何规避信息泄露、误删文件等风险,大众仍然有诸多疑问。
3月12日晚,腾讯“龙虾特攻队”接受了包括36氪在内的多家媒体的采访。腾讯云开发者AI产品负责人丁宁、腾讯轻量云总监钟宇澄、腾讯云安全总经理苏建东、AI Agent 安全中心负责人谢奕智透露了“摆摊帮装虾”这场活动的前因后果,并回答了关于安全、商业化和产品矩阵的诸多问题。
以下是对话实录,36氪对内容进行了不影响原意的删减:
关于“摆摊帮装虾”:一次无心插柳的全民 AI 实验
Q:3月6日腾讯总部大楼下的“摆摊帮装虾”活动是怎么实现的?当初是如何筹备的?
钟宇澄:整个过程其实非常迅速。3月1日,我们在公司内部发放了几百张免费的轻量云 OpenClaw 体验券,原本预估应该够用,没想到不到20秒就被抢购一空。之后许多同事咨询如何安装和运行,我们就想干脆在腾讯滨海大厦北广场做一次线下的装机活动。
最初的想法比较简单,仅面向内部同事,所以定在3月6日周五举办。但后来和同事们聊起这个想法,大家觉得可以扩大范围,让司外有兴趣的用户也参与进来。于是我们在活动前两天通过视频号发了预告,没想到视频直接火了,超出了我们的预期。
在人员安排上,我们最初只招募了10名志愿者,由团队的核心产品和研发同事对他们进行了一两个小时的快速培训,教他们如何帮用户部署及演示基础场景。看到视频号的热度后,我们将志愿者扩充到了20人。
活动当天,由于早上九点就有用户开始排队,我们又临时从云服务器计算团队增援了近10名志愿者。
现场的情况非常令人感慨,来的用户各行各业都有:60多岁的退休工程师、推着婴儿车的妈妈、小学生等等。其中约80%的人是非技术背景,纯粹是对 AI 感兴趣 。我们原计划每人五分钟装完,但实际上一对一介绍和调试平均要花二三十分钟,甚至有人在现场待了一整天。当天我们在线下帮500多人完成了装机,整个事件的发酵完全超出了我们的预料。
Q:所以这只是一个“无心插柳”的活动吗?在开始前,是否有想过通过这次活动为腾讯其他“龙虾”产品宣传造势的营销动机?活动结束后,内部是如何评价的?
钟宇澄:实话实说,开始时真的没想那么多。当时 WorkBuddy 和 QClaw 更多还在内部阶段,没有正式对外推。我们的初衷只是因为云端部署 OpenClaw 比本地部署更复杂,需要跟用户解释清楚 。事件影响力扩大后,各产品开始快速协同,共同组成了现在的“腾讯龙虾”产品矩阵。
Q:很多开发者反馈“养虾”非常消耗算力和内存。最近一个月,腾讯云后台是否看到了明显的 Token 消耗上涨?如果热度持续,是否会带来算力压力?
钟宇澄:具体的 Token 统计由于涉及用户隐私和权限,我们并没有去做精确的统计。但可以预见的是,整个模型算力的消耗量确实比之前增加了不少,只不过目前还没有具体的量化数据。
关于安全与架构:闭源产品的“护城河”
Q:X 上曾有人通过指令诱导 OpenClaw交出了 API Key。如果我使用WorkBuddy,当它扫到类似指令时,会不会也执行命令把我的私密 API Key 发到评论区?
丁宁:这里需要明确一下,OpenClaw 是开源方案,而 WorkBuddy 是闭源产品。从架构上看,WorkBuddy 集成了我们自研且投产很长时间的能力,比如 CodeBuddy、Cloud Studio 里的 Gateway Server 和 Agent OS。我们在几年前就有比较成熟的针对开发者的 Sandbox(沙箱)机制,改一改就能变成 Agent OS。
再加上腾讯安全实验室提供的方案,对软件供应链投毒等行为都有很好的防范。最关键的是,WorkBuddy 只对用户个人指定的工作文件夹内容生效。比如你做本地文件整理或格式转换,它就在你指定的范围内工作,权限没有那么大,所以不会出现你担心的那种越权行为。
Q:那如果有人从 GitHub 上拉取代码,或者利用 WorkBuddy 往 Skill Hub 投毒,你们能检测出来吗?
谢奕智:我们会检测出来。腾讯内部有多个实验室,创新性地提出了用“Agent 对抗 Agent”的自动化审核机制。我们内部有多道防线,从传统的基于规则、特征,到用AI针对恶意代码进行检测机制,从源头杜绝恶意插件的流入。在创建和上传环节都会集成这个能力,一旦识别到风险就会主动拦截。
Q:广大网友有个担忧,会不会在WorkBuddy里捆绑安装弹窗广告等功能?
丁宁:WorkBuddy团队是做AI Coding的CodeBuddy团队。我们是从做DevOps、代码仓库、制品库起家的,所以我们没有您刚才说的这种广告基因。WorkBuddy内置的Skills都是我们自己审核过的,没有问题。但如果用户自己从第三方找的插件,这就跟用户在手机上非要装未经审核的应用一样。
范式革命:为什么是“龙虾”火了?
Q:OpenClaw 的火爆让人联想到 ChatGPT 时刻,这两轮浪潮有什么不同?有人说大模型只代表龙虾的智商,你们怎么看大模型和龙虾的关系?
丁宁:这是一个从“对话”到“执行”的范式变化。大模型最早只是一个对话框,而现在的 OpenClaw 加速了这种模式的推广。当 AI Coding 发展到 Autonomous Development 阶段时,Backend Agent 和 Skills 已经能支持更多的泛生产力场景。即使你不懂代码,也可以享受到这种“言出法随”的红利。OpenClaw 给了大家一种希望,虽然产品形态早已有之,但它的火爆确实让这种模式更精确地为人所知。
钟宇澄:我觉得龙虾不像 ChatGPT 那样属于革命性的技术突破,它更多是让普通大众能近距离感受到 AI Agent。龙虾能做的事情,在 2025 年的一些工具里其实也能做到,但对大众来说门槛太高。虽然它现在配置起来依然相对复杂,但它仍然是当前市面上能让大部分人快速感受到 AI 给生活带来变化的最好选择。
Q:有人质疑龙虾的热度超过了能力,调侃它是“头顶铝锅”时代的产物,甚至说是为了解决 Token 消耗过慢的焦虑。你们怎么看这些声音?
钟宇澄:焦虑因素或多或少会有,目前它确实也还做不到“一人公司”那种程度。但从我们上周五在腾讯大厦做的线下装机活动来看,情况很不一样。现场有 60 多岁的退休工程师,也有推着婴儿车的妈妈。虽然有人嘲讽他们不懂龙虾是在浪费时间,但我觉得他们能走出这一步去真正上手接触 AI,就已经比大部分人进步了。对于这些人群来说,龙虾是他们拥抱 AI 浪潮的一个具体抓手。
商业化与未来:从“单兵”到“团队”
Q:WorkBuddy 1 月份就在内部用了,为什么选在这周正式上线?是为了赶这波热度吗?
丁宁:确实有关系,热度加快了我们的节奏。我们原本准备在3月中旬发布。去年 DeepSeek火的时候大家都在休假办公,今年为了防止这种情况,我们年初就做好了提前发布的准备。既然年后这个 timing 到了,我们就直接发了。
现在的版本相比 1 月份最大的迭代是连通了 IM 工具的长链接,可以通过手机 QQ、飞书、微信进行远端操作。既然要做 AI Teams,这些场景我们必须提前覆盖。
Q:腾讯现在出了好几只“虾”,除了 WorkBuddy 还有 QClaw,未来这些产品会打通成一个统一的超级数字分身吗?
丁宁:当高价值的业务场景需要打通时,我们自然会去整合。目前还处于早期阶段,我们要先基于成功的闭环需求来做产品,不会凭空臆想一个产品形态。
钟宇澄:目前 WorkBuddy 更多是“本地虾”,而轻量云(Lighthouse)提供的是“云端虾”。我们在云端提供更简单易用的 OpenClaw 产品形态,未来也不排除云端和本地去做联动或融合的尝试。
Q:Pony(马化腾)之前说内部孵化 AI 应用很给支持,产品出来后内部在算力和人力上的倾斜是怎样的?
钟宇澄:对于轻量云而言,最大的支持当然是算力层面。此外,腾讯文档、腾讯地图、艾玛知识库等团队都提供了完善的 Skill 生态支持,让我们能给用户提供更丰富的场景。我们还做了 SkillHub,这是一个针对中国用户更友好、更安全的技能广场,解决了海外访问失败和合规过滤的问题。虽然不同团队的情况有差异,但目前大家都在各自擅长的领域快速往前跑。
苏建东:关于微信连接的安全性,我也补充一下。目前通过微信服务号直连的方式,相当于一个机器人对话通道。指令是发到后端执行的,而不是在手机上执行。所以它没有能力在微信里面去捞取你的私人数据。