普通视图

发现新文章,点击刷新页面。
今天 — 2026年3月11日首页

刚刚,微信被曝打造绝密 AI 智能体

作者 莫崇宇
2026年3月11日 11:40

微信,终于不再躺平了。

就在刚刚,据 The Information 独家爆料,腾讯正在打造一款「绝密级」AI 智能体,直接内嵌进微信,能够帮你打车、买菜、订机票、全程代劳的「真·生活管家」。

这也意味着,14 亿月活用户即将拥有一个能动手绝不动口的超级助理。

值得一提的是,腾讯曾经也把旗下独立 AI APP 元宝塞进了微信,但本质上它只是个聊天助手,离真正的 AI 智能体仍有一定差距。

而微信在 AI 进展缓慢的原因,一定程度上是基于战略上的谨慎。微信有 14 亿月活,任何一个不成熟的功能,都可能引发大规模负面体验。据了解腾讯高管想法的人士透露,正是这种顾虑,让微信团队一直没敢轻举妄动。

相比之下,过去几个月,阿里和字节的 AI 产品都在快速发展。阿里把通义千问打通了淘宝电商、飞猪旅行、高德地图和蚂蚁支付,用户已经可以直接用它下单买菜、预订机票。

字节把豆包改造成了可以更多日常任务的智能体,并在上个月发布了新一代模型豆包 2.0 大模型,专门强化了多步骤复杂任务的处理能力。兜兜转转,大厂们都在押注同一件事:AI 智能体,是下一个超级入口。

而腾讯,坐拥中国最大的流量池,却眼看着对手在这个赛道上越跑越远。这才是这次「绝密项目」真正的背景。

这个项目从去年上半年就开始酝酿,内部被列为「最高优先级绝密项目」。

核心思路只有一个:把 AI 智能体接入微信生态里的百万小程序。

微信小程序是什么概念?滴滴、美团、携程、拼多多……中国互联网几乎所有头部服务,都在微信生态里有小程序入口。这个智能体一旦跑通,理论上可以代替用户操作所有这些服务。

想象一下这个场景:你对微信说「周末带家人去杭州玩,帮我订高铁和西湖边的民宿」,AI 自动打开比价、携程下单、填写乘客信息、完成支付,全程不需要你点一个按钮。

而且,这个智能体不会是一个单独的 App,它会以聊天对话的形式,出现在你的微信会话列表里,就像联系一个无所不能的朋友一样自然。

这个项目另一个值得关注的细节是:微信团队目前没有使用腾讯自研的混元(Hunyuan)模型,而是在测试智谱、阿里、DeepSeek,甚至微信自己开发的小型模型。

原因很直接,混元的综合性能还没达到业内顶尖水平。

腾讯去年 9 月专门从 OpenAI 挖来了研究员姚顺雨,授权他主导混元团队的重组,并允许他从等竞争对手处挖人。混元的改造还在进行中,还没到能扛起微信这面大旗的时候。

当然,用外部模型也有代价:将微信内部数据打通和授权验证的流程会更长。这也是为什么项目没法再提速,技术上的妥协,都需要时间消化。

那么这个项目将会什么时候上线呢?报道援引项目内部人士消息称,该项目当前计划是年中启动灰度测试,向部分用户开放试用,第三季度全量上线。但这个时间表可能还会调整,微信的一贯风格是「不够稳,不发布」。

诚然,阿里和字节的优势在于服务生态的深度整合,但它们的核心产品(通义、豆包)本质上都是用户需要主动打开的独立 App。

微信不一样。微信是中国人手机上卸载不了的应用,是社交关系的承载体,是日常生活的操作系统。当 AI 智能体内嵌进微信,它不需要教育用户「去用一个新 App」,用户本来就在这里,每天都在这里。

这是微信做 AI 智能体最深的护城河,也是阿里和字节最难复制的壁垒。而按腾讯这次的准备力度来看,他们显然不打算再用半成品去赌这个答案。一旦出手,很有可能就是降维打击。

毕竟,在中国,没有谁的生态比微信更「万能」。当 AI 真正接入这个「超级 App」,我们离「动动嘴就能生活」的未来,就真的不远了。

作者:李超凡、莫崇宇

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


昨天 — 2026年3月10日首页

🦞 龙虾卸载指南

作者 莫崇宇
2026年3月10日 18:03

就算是真的龙虾,也不是每个人都适合吃。

用这句话来形容当下的绝对 AI 顶流 OpenClaw,可能再合适不过。

社交媒体上流传的截图,永远是龙虾最肥美的那一面:Agent 自动处理邮件、跨应用调度任务、像一个不用休息,永远不会在群里已读不回的数字员工。

这种画面制造了强烈的 FOMO,让无数人心想「我也要一只」。

于是,一场关于龙虾的集体狂热就此开始。只是,没人提的是,这只「龙虾」要配什么锅、烧多少柴火,以及它进了你厨房之后,会不会顺手把冰箱里的东西全部清空。

今天,我们不谈那些改变世界的宏大叙事,只算一算普通人养一只 OpenClaw,到底要付出怎样的成本。

月薪两万,养不起一只龙虾

先说怎么才能体验 OpenClaw?

目前体验最完整的方案,是专门准备一台长期在线的本地硬件。OpenClaw 创始人 Peter Steinberger 本人就用一台 Mac Mini 跑 Agent,连接本地文件、挂接各类工具,连续处理各种任务。

受此影响,苹果 Mac mini 在各大电商平台迅速售罄,苹果官网显示,现在下单最快要到 4 月底才能到手;并且一些二手平台上甚至衍生出了「租 Mac mini 养龙虾」的服务。

但如果想用本地模型把 API 费用压下去,硬件门槛会陡然上升。

如果想省掉这笔硬件钱,则可以选云服务器。腾讯云、阿里云都有一键部署方案,价格从几十到上百元不等,以及 Kimi Claw、MaxClaw、以及今天正式上线的 AutoClaw,主打一个开箱即用。

买不到机器怎么办?拿自己的旧电脑硬上呗。但 OpenClaw 对系统环境,尤其是 Node.js 的版本,有着极其玄学的要求。无数满怀激情的年轻人,跟着教程折腾了一通宵,最后依旧卡在命令行报错界面。

这种想用用不上的焦虑,也催生了一个暴利的代装 OpenClaw 行业:国内平台上远程代装几十元起步,上门服务普遍要 500 到 1500 元。国外一家名为 SetupClaw 的网站则报价 3000 至 6000 美元。

哪怕你成功部署了龙虾,也建议留意后续的坑。

Chatbot 聊天机器人时代,用户的付费订阅是包月的,问一次,答一次,成本是静态的。但 Agent 一旦开始跑任务,每一次读网页、调工具、看文件、重试错误,背后是疯狂燃烧的 token 在负重前行。

这也让我想起了最近流行的一句话:「月薪两万,养不起 OpenClaw。」

OpenClaw 的官方文档写得很直白:养「龙虾」的花费不只来自核心模型回复,还来自网页读取、记忆检索、压缩总结、工具调用,以及系统提示里塞进去的 workspace 文件和 bootstrap 配置。

上下文一长,反复调用几轮,燃烧的 token 梆梆就是两拳。具体到价格,按 2026 年 3 月的市场行情,用 Claude Sonnet 跑 OpenClaw,单月累计一千万输入加一千万输出 token,光费用就接近 180 美元。

真把它当全天候执行 Agent、用高阶模型跑难度较高的任务,月费破千美元也都不稀奇。

市场数据也印证了这种烧法。OpenRouter 处理的 token 量从每周 6.4 万亿直接涨到 13 万亿。

在这条生态链里,顶层赢家始终是找到 C 端场景的各大 AI 厂商,靠算力和 API 坐收渔利;次层是云厂商和知识付费者,靠服务和信息差赚钱;受损方只有一类,就是掏钱烧 Token、还要承担系统风险的普通用户。

还没装上 OpenClaw,就已经先交了第一笔安全学费

退一万步讲,就算你不差钱,安全问题才是真正让人睡不踏实的雷区。

微软安全团队曾预警过龙虾的危险之处:OpenClaw 应被视为「携带持久凭证的不受信任代码执行环境」,不适合直接跑在标准个人电脑或企业工作站上。

问题不在于它能不能用,问题在于它天生就站在一个很危险的位置。高权限、高连通、高自动化,这三样东西凑在一起,本来就不该让人放松警惕。可很多人偏偏是用装聊天软件的心态去装 OpenClaw,最后便很容易落得一地鸡毛。

Shodan 平台监测显示,全球有超过十几万个 OpenClaw 实例直接暴露在公网上,处于零认证状态,奇安信数据显示其中相当数量位于中国境内。

工信部也专门发布了风险提示,OpenClaw 网关在默认配置下不核验请求来源,用户只需在浏览器里误点一个恶意链接,攻击者就能通过本地端口接管 Agent 的全部系统权限。

更麻烦的是,有些人甚至还没装上正版,就已经先交了第一笔学费。

安全研究机构 Huntress 在 2026 年 2 月发现,有人趁 OpenClaw 大热,在 GitHub 上伪造安装包,植入 Vidar 信息窃取木马和 GhostSocks 代理恶意软件。

连 Bing 搜索广告都被拿来做引流,用户搜索「OpenClaw Windows」,AI 推荐链接直接指向了一个刚创建的恶意 GitHub 仓库。这批假安装包从 2 月 2 日挂上去,到 2 月 10 日才被发现下架,中间整整八天。

▲Bing AI 搜索结果链接到了一个托管在 GitHub 上的恶意安装程序。🔗 https://www.huntress.com/blog/openclaw-github-ghostsocks-infostealer

插件生态同样是一个隐蔽的雷区。

网络安全机构审计发现,ClawHub 插件市场里约 12% 的 Skill 含有恶意代码,通常伪装成加密货币助手、YouTube 工具这类热门类目,一边执行正常任务,一边在后台偷取 SSH 密钥、浏览器密码和 API 密钥。

由于插件大多以 Markdown 或 YAML 格式存储,普通用户根本无法肉眼辨别。更要命的是,即便官方下架了已知恶意插件,GitHub 仓库仍保留着历史备份。你找人代装的那一份,到底顺手给你塞了什么,很多时候连代装的人自己都未必说得清楚。

这类风险,并不会因为使用者足够专业就自动消失。

Meta AI 安全研究总监 Summer Yue 将工作邮箱接入 OpenClaw 后,Agent 开始高速删除邮件,对她反复发出的「STOP」指令毫无响应,最终她不得不物理断开机器才阻止了损失。

原因不是模型不够聪明。而是 OpenClaw 的上下文压缩机制在处理大量邮件时,把她此前设定的「不确认不执行」这条底线指令直接过滤遗忘了。系统设计的优先级里,根本没有「用户随时可以叫停」这一条。

一个专门研究 AI 安全风险的顶级专家,尚且无法在关键时刻踩住刹车,阴沟里翻船。普通用户面对的风险,自然不难想象。

说到底,大家的焦虑也不是没有来由。去年之 DeepSeek,犹如今日之 openclaw,每隔一段时间,AI 总会冒出一个新物种,把人推到「再不用就落伍」的心理边缘。

可很多时候,真正把人拖垮的,不是工具不够先进,而是工具太多、太杂、太吵。哈佛商业评论今年 3 月的研究就用数据印证了这种境况。

调查 1488 名全职工作者后,研究者发现,同时使用超过三个 AI 工具,生产力反而会下降。

他们把这种状态叫作「AI 脑过载」,典型表现包括注意力饱和、决策疲劳、持续性脑雾。经历这类状态的员工,主动离职意向比其他人高出 39%。最会用 AI 的人,有时也会以另一种形式被 AI「干掉」。

所以回过头看,OpenClaw 你拿它当玩具,或者拿它做高价值、低频次的任务,成本大体可控,风险也还算能收得住。真把它当成一个 24 小时在线的数字雇员去养,成本、风险和管理复杂度都会迅速上升。

对绝大多数普通用户来说,等等下一代更稳、更安全、更省钱的产品,往往比现在立刻冲进去当第一批小白鼠要理性得多。

第一个吃螃蟹的人值得尊敬。但第一百个吃螃蟹的人,通常吃得更好,也更便宜。

附卸载指南

如果读到这里,你已经判断 OpenClaw 带来的成本和风险远远大于收益,决定和这只「龙虾」体面告别,也不是没有办法。它的卸载和普通软件不太一样,不是拖进废纸篓就算完事。

卸载分两条路:CLI 还在的,走简易路径;CLI 已经找不到但服务还在跑的,走手动清理路径。

简易路径(CLI 仍然可用)

最省事的方式是用它自带的卸载命令:

openclaw uninstall

想一键清除所有配置、跳过所有确认提示,加参数:

openclaw uninstall –all –yes –non-interactive

如果你习惯用 npx,也可以:

npx -y openclaw uninstall –all –yes –non-interactive

如果想手动一步步来,效果完全一样,按顺序执行:

第一步,停止网关服务:

openclaw gateway stop

第二步,卸载网关服务本身:

openclaw gateway uninstall

第三步,删除本地状态与配置文件:

rm -rf “${OPENCLAW_STATE_DIR:-$HOME/.openclaw}”

注意:如果你当时把 OPENCLAW_CONFIG_PATH 设置到了状态目录之外的自定义路径,那个文件也需要手动删除,否则会有残留。

第四步,删除 workspace(可选,但建议执行,会一并清除 Agent 运行时产生的文件):

rm -rf ~/.openclaw/workspace

第五步,卸载 CLI 本体,根据当时的安装方式选择对应命令:

# npm 安装的

npm rm -g openclaw

# pnpm 安装的

pnpm remove -g openclaw

# bun 安装的

bun remove -g openclaw

如果还安装了 macOS 桌面版,记得一并处理:

rm -rf /Applications/OpenClaw.app

手动清理路径(CLI 已不可用,但服务仍在运行)

如果 CLI 已经找不到了,但网关服务还在后台默默跑着,就需要根据操作系统分别处理。

macOS 用户:

默认服务标签为 ai.openclaw.gateway,执行:

launchctl bootout gui/$UID/ai.openclaw.gateway
rm -f ~/Library/LaunchAgents/ai.openclaw.gateway.plist

如果你当时用了 –profile 参数,需要把命令里的标签和 plist 文件名替换为 ai.openclaw.<profile名>。此外,老版本 OpenClaw 遗留的 com.openclaw.* 格式 plist 如果还存在,也一并删除。

Linux 用户:

默认服务单元名为 openclaw-gateway.service,执行:

systemctl –user disable –now openclaw-gateway.service
rm -f ~/.config/systemd/user/openclaw-gateway.service
systemctl –user daemon-reload

使用了 –profile 的,对应单元名为 openclaw-gateway-<profile名>.service,命令里替换即可。

Windows 用户:

默认任务名为 OpenClaw Gateway,执行:

schtasks /Delete /F /TN “OpenClaw Gateway”
Remove-Item -Force “$env:USERPROFILE\.openclaw\gateway.cmd”

使用了 –profile 的,任务名对应为 OpenClaw Gateway (<profile名>),同时删除 ~\.openclaw-<profile名>\gateway.cmd。

几个容易漏掉的细节

  • 多 profile 的情况: 如果你当时用 –profile 参数创建了多个配置,每个 profile 都有独立的状态目录,默认路径是 ~/.openclaw-<profile名>,需要逐一找出来,逐一删除。一个都不能漏,否则残留数据还在。
  • 远程模式的情况: 如果你用的是远程模式,状态目录不在本机,而是在网关主机上。这意味着上面停止服务、删除状态目录这几步,需要登录到网关主机上去执行,本机操作是不够的。
  • 源码方式安装的情况: 如果你当时是通过 git clone 拉取源码运行的,卸载顺序很重要——必须先卸载网关服务(走上面的简易路径或手动清理路径),再删除仓库目录,最后清理状态和 workspace。顺序不能反,否则服务还挂着,删了仓库反而清理不干净。

做完这些,才算真的和这只龙虾说了再见。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


昨天以前首页

全网疯抢 Mac mini 养龙虾,但这些玩法更值得抄作业

作者 莫崇宇
2026年3月9日 18:24

短短一周,龙虾 FOMO 席卷了全球。

受此影响,Mac mini 在各大电商平台迅速售罄,苹果官网显示,现在下单最快要到 4 月底才能到手;并且一些二手平台上甚至衍生出了「租 Mac mini 养龙虾」的服务。

QQ、企业微信相继宣布接入内测,各大云厂商纷纷跟进。抢到 Mac mini、完成部署的人,却在社区里发出了同一个灵魂拷问:

然后呢?

这个问题其实并不奇怪。OpenClaw 是由奥地利开发者 Peter Steinberger 创建的开源 AI Agent 框架,支持在本地硬件运行,可通过 WhatsApp、QQ、企业微信等通讯工具直接下达指令,让 AI 真正「动手干活」,而不只是聊天回复。

▲Peter Steinberger

它的能力边界,理论上几乎没有上限。但正因如此,对于大多数人来说,对着一个「什么都能做」的工具,反而不知道从哪里下手。

所以我们搜集了一批正在「认真养龙虾」的人,看看这只「龙虾」到底能玩出多少花样。

把 OpenClaw 塞进复古拨号电话,拿起听筒就能和「老爷爷」聊天

对极客来说,OpenClaw 最有趣的地方是它对硬件几乎没有门槛要求。

一部 25 美元的二手 Android 手机,赋予完整的硬件访问权限,就能跑起一个具备完整功能的 AI 代理。Reddit 社区随即展开了更多想象:廉价手机批量组成 AI 集群,可用于各类自动化任务。

🔗 https://x.com/marshallrichrds/status/2020041410079051963

别急,还有高手。一位开发者用树莓派 Zero 2W、WM8960 麦克风扬声器模组和 PiSugar 可充电电池,搭建出一台真正能放进口袋的私人 AI 助手,整机成本约 100 至 120 美元。

使用方式极简:按下按钮录音,松开后语音自动转录并发送给 AI,响应结果实时显示在 LCD 屏幕上,还可选择播放语音朗读。系统通过 Tailscale 安全组网,崩溃后自动重启,开机即运行。目前项目代码已开源,并迅速引来一批跟着复刻的玩家。

🔗 https://www.reddit.com/r/openclaw/comments/1rc3ejr/openclaw_personal_assistant_device/

更反差的玩法,是把这套系统接上一台复古拨号电话。

用户拿起听筒拨号,语音经 Deepgram 实时转录后发送给 AI,AI 再通过 ElevenLabs 的自定义声线回答,整个通话听起来「像在和一位老爷爷聊天」。甚至 OpenClaw 还能主动「打电话」回来,来电时,也会响起真实的机械铃声。

🔗 https://x.com/maddiedreese/status/2029975903993016333

月薪 2431 元,雇一支永不下班、永不请假的 6 人 AI 团队

当然,最直接的用法,是把 OpenClaw 变成一支永不下班的 AI 团队。

谷歌高级 AI 产品经理 Shubham Saboo 基于 OpenClaw 搭建了一套由 6 个 AI 智能体组成的自动化团队,以美剧角色命名,分别负责情报收集、推文写作、领英内容、新闻简报、代码审查和社区管理。

🔗 https://x.com/Saboo_Shubham_/status/2022014147450614038

整套系统运行在一台 Mac mini 上,Saboo 每天只需早晨花 10 分钟审批,就能腾出 4 至 5 小时专注更高价值的工作。

系统的核心设计思路是「极简」。用一个 40 至 60 行的 SOUL.md 文本文件定义每个 Agent 的身份与行为准则,用共享文件夹替代复杂的 API 通信框架,用双层记忆机制让 AI 越用越懂你的风格。

整套系统月成本不到 400 美元,约合人民币2431 元。

Saboo 的核心观点是:模型本身已是普遍可及的基础资源,真正形成差异的是围绕模型构建的系统,包括智能体配置文件、记忆机制和持续调优的积累。这套系统会随使用时间增长持续优化,最终成为属于你自己的个人化资产。

商务场景同样跑得通。YouTuber Matthew Berman 给 OpenClaw 创建了一个独立身份:专属姓名、独立邮箱和完整的工作区账号,让它以「正式员工」身份接管赞助商收件箱。

每隔 10 分钟,它会自动扫描来信、核查公司真实性、按五个维度打分,并根据分数自动回复、归档或升级处理。整条流水线同步打通了 HubSpot CRM,合同阶段变动时自动更新并通知团队,全程无需人工介入。

🔗 https://www.youtube.com/watch?v=3110hx3ygp0

在系统架构上,Berman 为 OpenClaw 建立了多套并行机制:双版本提示词分别针对 Claude 和 GPT 优化,每晚自动检测漂移;Telegram 按优先级批量推送,避免信息轰炸;所有调用和错误日志集中记录,每天早晨一句「看日志、修问题」就能让系统自我修复。

他还接入了会议转录、知识库、财务追踪等模块,让 OpenClaw 始终掌握业务全局。他坦言,耗费超过 45 亿个 Token、历经持续调优,核心逻辑只有一条:像对待真正的员工一样,随着信任积累逐步给它更多权限。

最令人印象深刻的,是分析师 Azeem Azhar 的实践。

他在家中的 Mac mini 上部署了一套 OpenClaw 系统,持续运行已满一个月。每天早晨六点,WhatsApp 上会自动推送一份晨间简报,涵盖日程、优先邮件、研究动态,以及结合 CRM 关系网络生成的会议预备材料。整套系统拆分成八个并行对话频道,分别对应新书写作、CRM 维护、研究助理等场景,同一个 AI 以八种身份同时运转。

🔗 https://www.youtube.com/watch?v=aCG3dFRF3ek

写演讲稿时,Azeem 发了一段简短语音指令后去读书,40 分钟后,五个子 Agent 已并行完成记忆检索、资讯搜集、数据核查、格式研究和叙事设计,输出一份 4600 字、符合他个人风格的完整稿件,实际 token 消耗比预估低了三个数量级,总成本不到三美元。

与此同时,Agent 每晚还在自动重构代码、扫描安全漏洞、优化 GitHub 仓库,一切都在他熟睡时静默完成。

给 OpenClaw 一个「有温度」的外壳

当 AI 开始在后台处理任务,盯着终端滚动显然并不直观。于是一批开发者开始为 OpenClaw 打造更有温度的交互界面。

YooAI 是其中最有特色的一款独立应用,它能够将枯燥的任务日志转化为可感知的情绪变化:Agent 在思考时,粒子动画呈现出 7 种不同的情绪状态;

「大脑记忆」模块以神经网络动画响应每一次工具调用;活动时间线滚动展示任务流水,Token 消耗一目了然。

▲Github 地址:https://github.com/Y00AI/YooAi?tab=readme-ov-file

整套界面无需浏览器,独立运行,配置说明对新手来说,也是相当友好。

3D 办公室的方案则更进一步。用户可以在虚拟空间中漫步,切换摄像机视角跟踪不同 Agent 的工作进展,对着屏幕里的 AI 角色直接发起对话,还能给正在工作的 Agent 播放背景音乐,或随意调整办公室的家具布局。

🔗 https://x.com/iamlukethedev/status/2030133701691027830

也难怪有开发者感慨:这越来越不像一个监控仪表盘,更像一个真实运转的 AI 工作场所。

你的 Gmail、你的机械臂、你的 3D 打印机,OpenClaw 都想接管

OpenClaw 的 Agent 能力,正在从屏幕走进现实生活。

目前已有团队将其接入宇树 G1 人形机器人,通过集成激光雷达、立体摄像头和 RGB 摄像头,让 AI 具备了对物理空间的理解与操控能力。

这套系统引入了「空间 Agent 记忆」机制,将数小时的视频画面编码为多维向量空间,使 AI 能够回答「我的车钥匙放在哪里」「上周一谁来过」「厨房里谁待的时间最长」等真实生活问题。

更大的野心是统一调度多台机器人。

同一个 OpenClaw Agent,可以同时指挥人形机器人、四足机器人、xARM 机械臂和 Piper 机械臂协同作业。该团队将所有硬件控制接口标准化,让 Agent 的「空间工具调用」可以在任意机器人平台上运行,整套方案完全开源。

包括 Google 近期发布了一款命令行工具,允许 OpenClaw 等 AI Agent 直接访问 Gmail、Google Drive、Google Docs、Calendar 等全套 Workspace 应用,内置超过 40 种预构建 skill,并在文档中专门附上了 OpenClaw 的接入教程。

这意味着 AI Agent 可以拥有与用户几乎对等的数字工作权限,操控收件箱、日程和文档,如同用户本人登录一样。

3D 打印领域也找到了实用的切入点。

将 OpenClaw 接入 AI 模型生成后端后,用户只需在 WhatsApp 发送一句「生成一个低多边形龙的 STL 文件」,AI 便会自动调用生成系统,将可打印的成品文件直接返回聊天窗口。

🔗 https://blog.printpal.io/using-openclaw-for-3d-printing-automation-and-ai-workflows/

对于管理多台打印机的工作室来说,故障警报推送、远程状态查询、多用户权限控制,都可以通过同一套系统处理完毕,整条链路从设计到交付,全程无需打开网站。

当然,龙虾并非没有隐患。

工信部已发出高危预警,默认配置下存在 API 密钥泄露和文件被误删的风险。目前已有超过十几万个 OpenClaw 实例暴露在公网,九成以上可能被攻击者绕过身份验证。

有用户因指令表述模糊被 AI 清空了整个工作文件夹,也有人一上午就被调用费用扣掉 200 元。如果你想尝鲜,建议优先用备用机或虚拟机部署,严格限制可操作的目录范围,涉及对外发送或付款的操作务必设置二次确认。

这些风险,并没有减慢龙虾扩张的速度。而一个有趣的问题值得追问:为什么这波热潮在中国格外猛烈?

一个不可忽视的结构性原因是,国产大模型长期面临一个困境:API 调用能力已经就绪,却始终找不到稳定消耗 Token 的 C 端场景。

OpenClaw 的 Agent 逻辑天然填补了这个缺口,用开源社区的项目拉来用户,自家模型扛下调用量,这笔账怎么算都划算。

字节跳动火山引擎、阿里云、腾讯云几乎在第一时间全面开放了运行 OpenClaw 的云端托管服务。微信、QQ、企业微信、飞书、钉钉构成的本土 IM 生态,也是中国独有的变量。

谁先完成深度集成,谁就能在这个全新市场占据先机,这也是各大平台争相宣布接入的内在逻辑。

更重要的是,这场爆发几乎不是任何人规划出来的。OpenClaw 的诞生充满了偶然性,而大厂们看到了商业化出口,极客们看到了折腾空间,创业者们看到了竞争压力下不得不抓住的窗口期。

各怀需求的人潮涌向同一只龙虾,反而共同推动了一个 AI 新物种的蓬勃发展。

龙虾的想象力空间,才刚刚打开。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


刚刚,奥特曼砸场发布 GPT-5.4!网友:一句 Hi 烧掉 80 美元

作者 莫崇宇
2026年3月6日 17:06

刚刚,奥特曼砸场发布 GPT-5.4!网友:一句 Hi 烧掉 80 美元

每次打开 AI 工具,你大概都要先想一秒钟:这个任务,该用哪个模型?写代码是一个,查资料是另一个,让 AI 帮你操作电脑,还得再开一个窗口。

今天过后,这种分裂感终于有了一个新的答案。

就在刚刚,OpenAI 正式发布 GPT-5.4,把编程、推理、计算机操控、网页搜索和百万 Token 上下文全部整合进同一个模型,且没有为了整合而牺牲任何一项的能力。

OpenAI CEO 山姆·奥特曼也在 X 平台发了一条简短推文,点出了五个方向:知识工作更强、网页搜索更出色、原生计算机操控、支持百万 Token 上下文、响应过程中随时可介入。

寥寥数语,对应的恰好是过去两年 AI 应用落地中最集中的五个痛点。

知识工作:十次有八次,AI 赢了专业人士

理解 GPT-5.4 在知识工作上的进步,需要先了解 GDPval 这个基准的设计逻辑。

它横跨美国 GDP 贡献最大的 9 个行业、44 种职业。任务是那些职场里每天真实发生的工作:给投资银行写财务模型、给医院排急诊班次、给销售团队做演示文稿。

任务完成后,把输出结果交给行业内的真实从业者盲测打分,看 AI 的产出能赢过多少比例的人类同行。

GPT-5.4 的答案是 83.0%,意味着十次对比中有八次以上,行业专业人士认为 AI 的产出达到或超过了人类同行水准。上代 GPT-5.2 是 70.9%,差距将近 13 个百分点。

进步在电子表格建模上表现得最为具体。GPT-5.4 模拟初级投行分析师完成建模任务,平均得分 87.3%,GPT-5.2 是 68.4%,GPT-5.3-Codex 是 79.3%,差距将近 20 个百分点。

法律平台 Harvey 的 BigLaw Bench 测试结果同样亮眼,GPT-5.4 得分 91%,专业服务评测平台 Mercor 的 APEX-Agents 基准中也拿下了第一。

准确性方面同样值得关注。幻觉问题一直是 AI 进入专业场景最大的拦路虎,每降低一个百分点,都意味着更多场景可以放心用它。

数据显示,与 GPT-5.2 相比,GPT-5.4 单条陈述出错的概率低了 33%,完整回复含有错误的概率低了 18%。

编程:一个模型,写代码测代码全包了

GPT-5.4 把 GPT-5.3-Codex 的编程能力整合进主线,对开发者来说,这意味着你不再需要为了写代码单独开一个模型,而且编程能力本身也没有因此打任何折扣。

SWE-Bench Pro 专门测试真实软件工程任务,GPT-5.4 得分 57.7%,GPT-5.3-Codex 是 56.8%,GPT-5.2 是 55.6%。整合之后,编程分数不降反升,同时还顺带获得了计算机操控等一整套通用能力,几乎找不到明显的弱点。

知名 AI 评测博主 Dan Shipper 试用后写道:「这是我们最近一段时间里见过 OpenAI 最出色的规划能力,代码审查也很强,而且成本大约只有 Opus 的一半。」

他点出了两个具体维度。其一,规划能力是长任务成败的关键,GPT-5.4 在任务拆解和持续推进上明显更有条理。其二,与 Claude Opus 相比约一半的成本,对需要大规模 API 调用的开发者来说,这个差距在账单上会非常直观。

开启 Codex 中的 /fast 模式后,可使 GPT‑5.4 的 token 生成速度提升最高 1.5 倍,使得用户可以在编码、迭代和调试过程中保持流畅的工作状态。

与此同时,新推出的实验性功能 Playwright Interactive 把 GPT-5.4 的编程体验又推进了一步。

GPT-5.4 在构建 Web 或 Electron 应用时,能够通过可视化浏览器进行实时调试,模型可以边写代码、边测试自己正在构建的应用,同时承担开发者和测试员两个角色。

OpenAI 展示了一个典型案例:仅凭一条轻量提示词,GPT-5.4 生成了一个完整的等距视角主题公园模拟游戏,涵盖基于瓦片的路径铺设与景点建设系统、游客 AI 寻路与排队行为,以及资金、游客数、满意度、清洁度四项指标全部实时动态更新的综合评分。

Playwright Interactive 在整个过程中承担了多轮自动化测试,验证路径铺设、摄像机导航、游客响应及 UI 指标的正确性。从写代码到测试验收,模型全程自己完成。

博主 Angel 同样用 GPT-5.4 写了一个 Minecraft 克隆版,模型花了约 24 分钟,运行流畅,过程中没有卡住。他在推文里写道「Minecraft 基本上被攻克了,我现在得找个新测试了」。

沃顿商学院教授 Ethan Mollick 同样获得了早期访问权限。他用同一条提示词,让 GPT-5.4 Pro 生成了一个受《皮拉内西》启发的三维空间场景,全程没有报错,只额外追加了一句「把它做得更好」的指令。他随后把结果和两年前 GPT-4 生成的版本并排放在一起,差距一眼可见。

操控电脑这件事,它现在比你做得好

这是 GPT-5.4 这次发布里最值得单独说一说的变化。此前 OpenAI 的计算机操控能力是一个独立模块,跟模型的语言理解、代码生成之间有一道明显的分隔。

两套系统各管各的,信息要来回传递,效率自然打折。现在这道分隔没了,GPT-5.4 操控电脑时,用的就是模型本身的推理能力,不需要再绕一圈。

这也是 OpenAI 第一款将计算机使用(computer use)能力原生内置进通用模型的产品,以后谈 AI Agent,相信这会是一个新的起点。
基准测试结果显示,OSWorld-Verified 基准测试桌面导航能力,用截图加鼠标键盘交互完成真实操作系统任务。GPT-5.4 达到 75.0% 的成功率,人类基线是 72.4%,GPT-5.2 是 47.3%。

简言之,它不仅追上了人类,还超过了人类。

在只用截图模式测试浏览器操控的 Online-Mind2Web 基准中,GPT-5.4 达到 92.8%,对比对象 ChatGPT Atlas 的 Agent Mode 是 70.9%,

真实部署案例更能说明问题。Mainstay 将 GPT-5.4 用于约三万个物业税务门户网站的自动表单填写,首次成功率达 95%,三次以内成功率 100%,而此前同类模型仅在 73% 至 79% 之间。会话完成速度提升约三倍,Token 消耗降低约 70%。

这背后绕不开视觉感知能力的改进。操控电脑说到底是一件需要「看清楚」的事——看清楚界面上有什么、按钮在哪里、点击是否准确。

GPT-5.4 在这一层做了专项加强,引入了原始图像(original)输入模式,支持最高 1024 万像素或 6000 像素最大边长的高保真图像输入;原有的高清(high)模式上限也从此前的标准提升至 256 万像素或 2048 像素最大边长。

工具调用与网页搜索:持续性是核心竞争力

一个复杂的 AI Agent 系统,背后可能挂着几十个 MCP 工具。过去的做法是每次对话开始前,把所有工具的说明一股脑塞进去,不管这次用不用得上,Token 先花了再说。

GPT-5.4 换了个思路:先给模型一份简单的工具清单(即引入工具搜索机制),真正需要用哪个,再去把那个工具的详细说明取过来,用过一次的还能直接缓存,下次不用重新拿。

在 250 项任务的测试中,启用 36 个 MCP 服务器的完整配置下,工具搜索模式在保持准确率完全不变的前提下,将总 Token 消耗降低了 47%。将近一半的成本节省,精度一点没少。

网页搜索方面,GPT-5.4 在 BrowseComp 基准上得分 82.7%,比 GPT-5.2 的 65.8% 高出 17 个百分点,Pro 版更达到 89.3%,创下业界最高分。Zapier CEO 评价说,GPT-5.4 会在其他模型放弃的地方继续搜索下去,是他们测试过持续性最强的模型。

百万 Token 上下文:长长长长长长

GPT-5.4 在 API 中支持最高 100 万 Token 的上下文窗口,相当于可以把一个完整项目的所有相关文档一次性塞进同一次对话。但从测试结果来看,128K 至 272K 是表现最稳定的区间,适合日常使用。

256K 以上准确率开始下滑,需要针对具体任务验证后再用。512K 至 1M 区间的得分降至 36.6%,目前更接近实验性质,不适合直接用于对精度要求高的生产任务。

还有一个实际的成本问题需要注意:超过 272K 的请求会按两倍用量计入配额。也就是说,发一次超长上下文的请求,额度消耗等于两次普通请求,用之前值得想清楚是否真的需要这么长。

至于在视觉抽象推理基准 ARC-AGI-2 上,GPT-5.4 Pro 得分 83.3%,而上代 GPT-5.2 Pro 仅为 54.2%。

再比如 FrontierMath Tier 4 是目前公认最难的数学基准之一,包含 50 道研究级别的数学题,人类数学家可能需要数周才能解出。GPT-5.4 Pro 在这个基准上得分 38.0%,上代为 31.3%。

这个数字的参照系是:一年前,最好的成绩是 o3 的 2%,目前最好的开源模型是 4.2%。

博主 Deedy 在推文中写道,从 2% 到 38%,「简直令人震惊」。Humanity’s Last Exam 有工具辅助时,GPT-5.4 Pro 得分 58.7%,GPT-5.2 Pro 是 50.0%,差距接近 9 个百分点。

执行中调整,不是完成后返工

用过 AI 处理长任务的人大概都有过这种体验:等模型跑完一大段,发现方向不对,只能从头再来,时间全浪费了。

GPT-5.4 Thinking 在 ChatGPT 中新增了一项「中途打断」功能:在处理复杂任务之前,模型会先呈现工作计划概要,再开始执行。用户可以在执行过程中随时介入调整方向,不必等到结果出来再从头重来。

这个功能把纠偏这件事从「完成后」提前到了「执行中」,对需要多轮协作的任务来说,体验差别会比较明显。功能目前已在 chatgpt.com 和 Android 应用上线,iOS 版本即将跟进。

即日起,GPT-5.4 向 ChatGPT Plus、Team 和 Pro 用户开放,替代 GPT-5.2 Thinking 成为默认思考模型。
GPT-5.2 Thinking 将保留至今年 6 月 5 日后正式退役。Enterprise 和 Edu 用户可由管理员在后台开启早期访问,GPT-5.4 Pro 面对 Pro 和 Enterprise 计划开放。

API 标准版定价为输入 2.50 美元/百万 Token,缓存输入 0.25 美元/百万 Token,输出 15 美元/百万 Token。Pro 版为输入 30 美元/百万 Token,输出 180 美元/百万 Token。Batch 和 Flex 处理享标准价格五折,Priority Processing 为两倍标准价格。

当然,强大的推理能力也有它的另一面。Hyperbolic 联合创始人金宇晨在 X 平台吐槽,GPT-5.4 Pro 是他用过最爱「过度思考」的模型——仅仅发了一句简单的「Hi」,模型就开始认真推理,直接烧掉了 80 美元。

这并非个例。推理模型的特性决定了它在处理任何输入时都倾向于深度思考,哪怕问题本身根本不需要。对于日常轻量任务,标准版或许是更合适的选择;Pro 版的推理火力,还是留给真正值得的场合更划算。

过去两年,AI 能力的讨论主要集中在基准测试成绩上的「聪明」,但 GPT-5.4 的聪明指向的是能够在真实工作流中,足够可靠地承担责任。

过去 AI 只能输出文字,人还需要亲自操作才能让事情发生。现在模型可以自己打开浏览器、填写表单、点击按钮、记录结果,独立完成一个有头有尾的任务闭环。

AI 正在从一个擅长回答问题的系统,变成一个擅长完成任务的系统。而这个转变的速度,显然比大多数人预期的更快。

附上参考地址:
https://openai.com/index/introducing-gpt-5-4/

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


刚刚,GPT-5.3 新模型撞车 Gemini,OpenClaw:谢谢你们

作者 莫崇宇
2026年3月4日 06:40

在 AI 模型的命名玄学里,「Instant」和「Lite」这两个后缀,长期以来都带着一股说不清道不明的廉价感。

不是没有原因。过去这类模型给人留下的印象,基本就是:速度快、脑子慢,做做文本总结勉强够用,一旦碰上稍微复杂的推理任务,就开始一本正经地胡说八道。

久而久之,轻量模型几乎成了「将就用」的代名词。

就在刚刚,OpenAI 和 Google 又一次撞车,发布了各自的轻量模型,并试图用硬实力来扭转这个刻板印象。省流版如下:

  • GPT-5.3 Instant: 更具「人味儿」的智能助理,大幅降低幻觉率、减少「AI 腔」以及强化细节写作能力,沟通更自然精准,适合对内容质量要求高的场景(写作、专业问答、高风险领域)
  • Gemini 3.1 Flash-Lite:便宜、快、不拖泥带水,还支持「思考等级」调节功能,在保持高吞吐量的基础上兼顾了深层逻辑推理,适合大规模、高实时性的批量任务(内容审核、UI 生成、NPC 对话)

GPT-5.3 Instant:终于学会像个正常人一样聊天了

经常用 ChatGPT 的人,大概都有过这种无奈:你只是随口问个小问题,它非要先给你端上一段「作为一个人工智能,我需要提醒你……」的长篇大论。

这种总想教人做事的「AI 腔」,确实挺招人烦的。好在,OpenAI 这次是真的听进去了。

新上线的 GPT-5.3 Instant 花了很大的力气来解决这个「毛病」。它学会了直接给出答案,不再啰里啰嗦地铺垫。

除了不爱说废话,它也变得更靠谱了。旧版本搜完网页之后,容易把一堆链接和不相关信息堆到你面前。

得益于搜索能力的提升,GPT-5.3 Instant 会主动把网页内容和自身的背景知识结合起来,先想清楚你真正想问什么,再给出有重点的回答,而不是把搜索引擎的工作原封不动地转包给你。

OpenAI 公布的内部评测显示,在联网状态下幻觉率降低了 26.8%,仅靠内部知识时也降低了 19.7%。官方特别提到医疗、法律、金融等高风险领域,新模型在这些场景下的谨慎程度和准确性都有明显改善。

最令人惊喜的,其实是它在写作上的变化。

OpenAI 用一首诗的对比做了说明:同样写一个费城邮递员退休最后一天,旧版本倾向于堆砌「把这座城市背在邮袋里」这类抒情句,新版本则会写那根「掉漆的蓝色栏杆」、那扇「总有狗在门口等着的栅门」。情绪不靠凹,就这样自然而然流露出来。

语气上的调整也是此次更新的核心目标之一。

「停下。深呼吸。」这类会打断对话节奏的句式被刻意减少,整体风格更直接,少了一种不必要的「AI 腔」。用户仍可在设置里自定义回复的温暖程度与热情度,调出自己习惯的交互风格。

GPT-5.3 Instant 即日起向所有 ChatGPT 用户开放,API 名称为「gpt-5.3-chat-latest」。付费用户还可以在旧版模型里继续用 GPT-5.2 Instant,但它将在今年 6 月 3 日正式退役。

▲ 彩蛋时间

Gemini 3.1 Flash-Lite:便宜、反应快,还挺聪明

相比于 GPT-5.3 Instant 的好好说话,Gemini 3.1 Flash-Lite 走的是纯粹的务实风,目标非常明确:就是要快,就是要便宜。

价格方面,Gemini 3.1 Flash-Lite 的输入价格是 0.25 美元每百万 tokens,输出价格是 1.50 美元每百万 tokens。

这是什么概念?如果你是一个开发者,这意味着你大概花不到 2 块钱人民币,就能让 AI 阅读相当于 5 本《哈利·波特》全集的文字量。

觉得便宜没好货?格局小了。

根据 Artificial Analysis 的基准测试,,相比上一代的 Gemini 2.5 Flash,3.1 Flash-Lite 的首字响应时间(TTFT)快了 2.5 倍,整体输出速度提升了 45%。对于需要实时响应的产品来说,这个延迟差距在用户体验上会有肉眼可见的感受。

这意味着,当你还在眨眼的时候,它的回答可能已经生成了一半。对于那些需要实时反馈的应用——比如即时翻译、游戏内的 NPC 对话、即时 UI 生成——这种低延迟是决定性的。

除此之外,Gemini 3.1 Flash-Lite 还具备「思考」能力。

在 AI Studio 和 Vertex AI 中,Google 为这款 Lite 模型配备了「思考等级(Thinking Levels)」的选项。开发者可以根据任务的复杂程度,自主调节模型「想多深」。

简单的高吞吐量任务,比如批量内容翻译和内容审核,可以用最轻的配置快速跑完;遇到需要严格遵循指令的界面生成或仿真创建任务,则可以让模型多花一点时间推理,把结果做扎实。

这种「既要又要」的能力,也因此收获了相当不错的成绩单。在 Arena.ai 的排行榜中,它的 Elo 分数达到了 1432,在 GPQA Diamond(研究生级别的问答)测试中拿到了 86.9% 的准确率。

在学术评测 GPQA Diamond 上得分 86.9%,多模态理解 MMMU Pro 上达到 76.8%。这两个数字不只是「在同档位里还不错」,而是直接超过了体量更大的 Gemini 2.5 Flash。

注意,这里对比的是 Gemini 2.5 Flash 而非 Gemini 3 Flash,显然鸡贼的 Google 对这款模型也并未抱有多大的信心。

目前,3.1 Flash-Lite 以预览版形式通过 Google AI Studio 和 Gemini API 向开发者开放,企业用户可通过 Vertex AI 接入。Latitude、Cartwheel、Whering 等早期合作伙伴已在生产环境中完成测试,普遍认可它在大规模调用下的稳定性和指令遵循能力。

把这两个模型放在一起看,你会发现「Instant」和「Lite」,或许正在找到自己最合适的位置。

以最近大火的 OpenClaw 为例,其核心场景是帮用户处理邮件、管理日程,本质上是一个需要自主执行任务的 Agent。

这类产品对模型的要求,和普通 chatbot 聊天工具完全不同:它不需要模型表演得多聪明,它需要模型说人话、不出错、还得扛得住高频调用。

GPT-5.3 Instant 显著降低幻觉率,意味着 Agent 在自主执行任务时少犯错;「AI 腔」的消退,意味着生成的邮件、文档读起来更贴合真人的阅读习惯。

Gemini 3.1 Flash-Lite 则更符合最为关键的第三个需求。Agent 在后台狂奔时,往往需要并行处理海量的子任务,对响应速度和 API 成本极度敏感。

Flash-Lite 极快的响应速度和白菜价的成本,加上能灵活调配算力的「思考等级」,这种极具弹性的架构对高并发的自动化任务而言,无疑是久旱逢甘霖。

即便两款模型的长期稳定性仍需观察,但大方向已经很明确:一个负责让交互更像人,一个死磕更快更省钱。在未来人手一只「龙虾」的情况下,轻量模型将成为更自然、务实的选择。

附上参考地址:

https://openai.com/index/gpt-5-3-instant/

https://gemini.google.com/u/4/app/e0bea96b8f62bd1f

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


上门安装 OpenClaw,年入百万?

作者 莫崇宇
2026年3月2日 16:27

OpenClaw 最近火到什么程度?火到衍生出一门上门安装的生意。

海外代装平台 SetupClaw 已经给出明码标价:托管安装,3000 美元;含 Mac mini 硬件的远程配置,5000 美元;含 Mac mini 硬件的现场配置,6000 美元。创始人 Michael 更是号称靠这门手艺,有望年入百万美元。

国内社交平台上,上门安装的帖子也开始冒头,500 到 1000 元一次,现场验收。但这门生意能成立,前提是有人愿意掏这个钱。他们是谁,又为什么愿意为一个开源软件的安装服务买单?

帮人上门安装 OpenClaw,年入百万?

要回答这个问题,得先搞清楚 OpenClaw 究竟是什么。

OpenClaw 是一款开源、本地优先、可自托管的自主 AI 代理与自动化平台,自开源发布以来已经在 Github 上收获 24 万 stars,其核心是用自然语言指令让 AI 能够直接在你设备上 「执行任务」,而非像 chatbot 聊天机器人一样仅提供对话回复。

▲ Github 地址:https://github.com/openclaw/openclaw

它还支持接入各类聊天软件作为入口,比如你只需在 Telegram 或 WhatsApp、iMessage 等平台里发一句话,比如「帮我整理今天的邮件并把重要的标出来」,它就会在后台自动完成,还会主动找你汇报进度。

对于每天要处理大量信息的人来说,这确实是个好帮手。但问题在于,它的安装过程对普通人极不友好。

OpenClaw 的底层是一套面向开发者的本地网关服务,安装需要依赖特定版本的 Node.js 环境,用命令行完成配置,还要处理守护进程、端口开放、Webhook 回调等细节。

尽管网上不少人调侃,代装 OpenClaw 是门「智商税」——懂技术的人自己就能装,不懂的人根本用不上——但对于习惯了图形界面的普通用户来说,光是那个黑底白字的终端窗口,就足以把人挡在门外。

粗略观察代装服务的评论区,付费群体至少可以分出三层:

一类是个体创业者和自由职业者,对效率有强烈诉求,核心动机是省时间;一类是有技术认知但不愿亲自动手的职场白领,知道这东西能干什么,只是不想花时间折腾;还有一类是跟风购买的普通消费者,对实际能做什么并没有清晰预期。

而从公开报价来看,提供 OpenClaw 安装的服务大致提供三个层级的方案:

  • 托管安装 (3000 美元):  部署于云端 VPS,包含安全加固、主流应用集成(邮件、日历等)及 3 个自定义工作流。提供 14 天的专属售后支持 (Hypercare)。
  • Mac Mini 远程设置 (5000 美元): 适用于需要 iMessage 集成或本地硬件的用户。包含 Mac Mini 硬件成本及远程配置。
  • Mac Mini 现场设置 (6000 美元): 仅限旧金山湾区。提供上门安装、调试及面对面培训。
  • 额外 Agent (1500 美元/人): 为其他高管或团队成员增加独立身份和工作流的代理。

对比之下,国内上门安装服务则普遍在 500-1000 元一次,包含系统配置、模型部署调试和基础使用指导,标注现场验收、确保可正常运行。

当然,这种安装复杂吗?其实并不复杂。OpenClaw 本身是开源的,安装流程也有详细文档,APPSO 也出过类似的手把手教程,欢迎自取。

包括最近有第三方做了一个 OpenClaw 生态工具目录,收录了几十款相关工具,从部署、托管、插件到 token 优化一应俱全,还附带从入门科普到进阶调优的教程库。

🔗 https://openclawdirectory.co.uk/

但对没有技术背景的人来说,「能学会」和「愿意学」之间,往往差之毫厘谬以千里。于是,大多数不想折腾的人,在 AI Fomo (Fear Of Missing Out,错失恐惧症)的情况下,往往选择了人类面对复杂事物的终极解法:花钱。

回头看过去几波 AI 热潮,几乎每一次都是同样的路数。2023 年 ChatGPT 在国内掀起狂潮时,第一批赚到钱的人,不是用它写文案做分析的,而是帮人代注册账号的卖家。

生成式 AI 刚走进大众视野时,如何写出好 Prompt 是一门真实的技艺,早期创作者靠这个知识差卖课、建社群,数百元的课程轻松售出数千份;DeepSeek 爆火后教程书甚至卖出 18 万册,1999 元的课程仍有人买。

那么,代装这门生意本身赚不赚?SetupClaw 创始人 Michael 声称,单靠安装 OpenClaw,一年能赚一百万美元。不过,这个数字没有任何订单量和交付成本支撑,更像是一句专门写给同行看的招商广告:兄弟,这行有搞头,快来。

装上之后,才仅仅是「入门」

很多人以为代装生意的壁垒是安装,实则不然,OpenClaw 只是一个框架,本身不包含语言模型,必须接入外部模型才能让它运转,费用按使用量计费。

OpenClaw 为了模拟全天候助理的待命状态,内置了一套心跳(Heartbeat)机制:每隔 30 分钟自动醒来,检查邮箱有没有新邮件、日历有没有变动、Slack 频道有没有消息需要处理。

问题是,每次后台唤醒都不是一次简单的检查——系统需要向云端 API 发送一个完整请求,里面装着冗长的系统提示词、数十个工具的参数定义以及近期会话的全部历史记录,体积庞大。

有开发者复盘后发现,系统在没有太多实际产出的状态下,仅靠心跳机制维持每天就消耗 20 美元,一个月白白烧掉近 750 美元。

也正是这个痛点,网络上催生了围绕 OpenClaw 的一批省钱攻略。

常见做法包括:

  • 按任务类型路由不同模型,简单检索和状态检查用便宜模型,复杂推理再调用昂贵模型。
  • 控制每次请求的最大 tokens,避免一次对话失控。
  • 对长时间运行的会话做上下文裁剪,只保留必要的历史信息。
  • 把部分任务下沉到本地模型(如通过 Ollama 部署)以减少对外部 API 的依赖。

此外,OpenClaw 要真正发挥作用,得拿到邮件、日历、通讯软件等高权限渠道的访问权限。这意味着一旦出了问题,你的隐私数据和核心账号就有可能全部「裸奔」。

现实中的安全灾难已经接连发生。一个专门针对此漏洞的扫描器,在短时间内就发现了超过 4.2 万个暴露在公网的 OpenClaw 实例,其中九成以上可以被攻击者直接绕过身份验证,窃取 API 密钥和私人通讯记录。

在插件生态层面,OpenClaw 有一个名为 ClawHub 的插件市场。思科安全团队审计发现,一个被人为刷到排行榜第一名的插件,实为伪装的恶意软件,在后台窃取用户数据并植入恶意脚本。

甚至一些用户还因为将 Google 账号接入 OpenClaw,触发平台异常负载检测,导致整个 Google 账号被封,Gmail、YouTube 一并被断开。

最具代表性的案例,发生在今年 2 月。Meta 旗下专门研究 AI 对齐问题的负责人 Summer Yue,甚至犯了一个新手的错误,给了 OpenClaw 真实邮箱的访问权限。很快,OpenClaw 由于丢失了最初收到的限制指令,开始批量清空她的收件箱。

她在手机上连发停止指令,没有任何反应。最后她不得不冲到 Mac mini 面前强制断电,才让它住手。

如果连最懂 AI 风险边界的人,都能在这里翻车,这大概不是个例。而把一个还不够稳定的 Agent,直接绑在邮件、日历、账号这类核心资产上,然后期待它乖乖听话——本身就是一件需要打一个很大问号的事。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


刚刚,Nano Banana 2 发布!便宜又大碗,体验后我发现这些细节

作者 莫崇宇
2026年2月27日 10:40

用 AI 生图,总绕不开一道两难题:要快,还是要好?

但速度与质量之间,未必是鱼和熊掌不可兼得。就在刚刚,Google 正式发布了他们的新一代图像生成模型:Nano Banana 2(Gemini 3.1 Flash Image)。

没有太多颠覆世界的口号,它只是把更好的画质和更懂人话的理解力,一起塞进了全新的底层架构里。就这一件事,却让 AI 生图少了几分「看运气」的感觉,多了几分真正能用的踏实。

▲官方博客地址:https://blog.google/innovation-and-ai/technology/ai/nano-banana-2/

接入了整个互联网,这次的 AI 真的懂你在说什么

要说清楚这次的变化,得先回想一下三年前 AI 生图有多难用。

你让它画「红烧肉」,它可能老老实实给你画一块正在燃烧的肉;你让它在海报上写句中文,它往往会给你凑出一堆毫无意义的鬼画符。缺乏对真实世界的常识,是第一代 AI 最容易让人崩溃的地方。

现在的 Nano Banana 2,改变了不少。它和前代 Nano Banana Pro 一样,接入了 Gemini 积累的庞大真实世界知识库,还能结合网页搜索的实时信息,用起来更像是一个见过世面、懂点常识的人。

最先感受到的变化,是它开始更好地理解空间和比例了。

▲提示词:画面中,【东方明珠广播电视塔】被一只超级巨大、超级可爱的【猫】占据。周围的建筑物看起来就像玩具模型一样小,而【猫】则非常巨大。游戏背景设定在一个逼真的城市环境中。整体氛围安静、温暖、舒缓、可爱。

在上面这个案例中,AI 精准地还原了上海的地标,并极其自然地处理了巨猫与微缩城市之间的光影和透视关系。

最直观的改变,是它终于认字、也会写字了。比如让它画一幅《枫桥夜泊》的水墨画。画面上方不仅端端正正地用书法写出了「月落乌啼霜满天」等全句,甚至连排版和水墨的意境都拿捏得比较准。

▲当然,也不是没有瑕疵,仔细看上方悄悄多出了一个「满」字。

除了诗意,它还能处理相当复杂的 UI 场景——在下面这张图里,复杂的半透明数据面板、悬浮的购物清单、精准的中文显示,被 AI 有条不紊地安排得井井有条,信息之间的层级关系也真正理清楚了。

▲提示词:第一人称视角,置身于灯光明亮的超市货架通道中。人类双手将一瓶芬达汽水举到镜头前方。鲜艳的橙色饮料装在其标志性的品牌瓶身里,周围环绕着多层全息增强现实界面,用中文展示营养相关数据,包括热量数值、含糖量、咖啡因水平、新鲜度指示、保质/到期日期,以及基于芬达推荐的清爽饮品配方和鸡尾酒调制方案。玻璃质感的 UI 面板,柔和的环境光晕,逼真的光照与阴影,自然的景深效果,沉浸式第一人称交互界面,2K

排版极其讲究的双页黑白日式漫画,也是手拿把掐。

▲提示词:设计一份逼真的双页漫画杂志样张。每一页都应包含多个漫画风格分镜,以富有动感的版式排列,呈现出专业印刷的日本漫画质感。整体风格为黑白稿,使用粗犷有力的墨线、网点效果(screen tones)以及富有表现力的人物绘制。画面中加入对白气泡、中文拟声词,并通过分镜之间的过渡来传达动作、情绪与节奏。左右两页需要连贯衔接,像同一场景或同一话章节的一部分。采用传统漫画镜头语言:特写、远景、斜向分镜以及戏剧化的视角与构图。整体观感要真实可信,仿佛来自一本真正的漫画杂志的跨页内容。

或者这张带步骤说明的「功夫茶」中文信息图,从排版到意境,都给出了一套可以直接用的视觉方案。

▲生成提示词:一张关于中国传统功夫茶道设计精美的垂直信息图。中国传统水墨画背景。顶部有巨大的、优雅的中文书法标题,明确写着「功夫茶」。向下有三个图文并茂的步骤:步骤 1 展示用沸水温杯,配有中文「温杯」;步骤 2 展示将茶叶放入盖碗,配有中文「投茶」;步骤 3 展示倒出茶汤,配有中文「出汤」。优雅、极简、温暖的大地色调,平衡的布局。

一位很早就接触到 Nano Banana 2 的内测用户,给出了一个相当中肯的评价:「它并不完美,但它是第一个能够以一定一致性,去处理真正复杂图像和图表的模型。」

为了测试这个新模型的理解极限,他随手甩出了一道极其刁钻的测试题:「给我画一张设定在古威尼斯的《寻找沃尔多(Where’s Waldo)》,但里面要找的不能是人,得是一只穿着蓝色条纹飞行服的水獭。」

Nano Banana 2 最终也真的理清了逻辑,不仅没画串,还稳稳地交出了答卷。

快和好,终于不用二选一了?

除了懂常识,强大的「主体一致性」是这次 Nano Banana 2 更新的另一大杀手锏。

在一次生成过程中,它最多能保持 5 个角色的脸不崩,或者 14 个物品的样子不变。这意味着,你可以放心大胆地拿它来画连载漫画或者做影视分镜了。

不仅如此,它的画质也达到了可以直接干活的标准。

从 512px 的配图到 4K 级别的超高清海报,它都能拿捏。输入一段关于「重庆老火锅」的提示词,它能生成一张赛博朋克风的雨夜街景,湿漉漉的柏油路上,红蓝霓虹灯的倒影和「24 小时营业」的招牌都细致入微。

▲提示词:一张繁忙亚洲城市雨夜的电影感街头照片。一个巨大的、发光的红色霓虹灯牌挂在一座老建筑上,上面清晰地写着「重庆老火锅」。在它下面,一个较小的蓝色霓虹灯牌写着「24 小时营业 – 欢迎光临」。湿漉漉的柏油路反射着霓虹灯光。

色彩张力极强的波普艺术风格,它也驾驭得住。

或者是这种带着几分荒诞、又透着高级感的时尚大片:

▲提示词:This high-resolution bird’s-eye view photograph was taken with a LOMO Ic-a. The ground is covered with countless black-and-white billboard advertisements of beautiful fashion models, and standing on top of the advertisements is an incredibly beautiful chinese film actress wearing a long black coat.

在这个俯视视角的案例中,AI 极好地模拟了老式 LOMO 相机的特殊质感。女演员孑然独立于铺满黑白海报的地面上,画面的电影张力和故事感呼之欲出。

不过也不是没有明显短板,让它将二次元人物、铅笔素描和黏土人强行塞进同一个真实咖啡馆的场景中,素描人物的融入就显得十分生硬,边缘过渡也不够自然。

显然,在跨维度融合上,它远不及前代模型效果来得自然,还有进步的空间。

▲提示词:A photo of an everyday scene at a busy cafe serving breakfast. In the foreground is an anime man with blue hair, one of the people is a pencil sketch, another is a claymation person

其实整体体验下来,尽管官方博客将 Nano Banana 2(Gemini 3.1 Flash Image)吹的天花乱坠,但实际体感中,生成的质量效果和速度并未得到肉眼可见的提升,甚至在部分场景中还不及前代模型。

真正让 Nano Banana 2 站稳脚跟的,其实是它极其接地气的性价比。

今天起,在 Gemini 应用和 Google 搜索框里,你都能顺手用上它。没有订阅方案的普通用户,24 小时内也能白嫖 100 张;而 Pro 订阅用户的额度则高达 1000 张。

对于开发者而言,API 的价格更是直接腰斩,仅为上一代 Pro 模型的一半。折算下来,生成一张 4K 高清图的成本被硬生生打到了 0.15 美元左右。

▲ 附上地址:https://ai.google.dev/gemini-api/docs/pricing#gemini-3.1-flash-image-preview

当然,当 AI 能够以极低的成本、极快的速度批量生产高清图片时,大家心里其实越没底。现在网上的假图满天飞,「眼见为实」这句话早就靠不住了。如果任何人都能在一秒钟内生成一张几可乱真的照片,我们该如何分辨图片?

Google 自己也十分清楚这一点,所以他们也一并升级了防伪技术。Nano Banana 2 继续加深了对 SynthID 数字水印和 C2PA 内容凭证的支持,能够更清楚地看到一张图到底是不是 AI 画的,以及它是怎么被修改的。

据统计,自去年 11 月以来,Gemini 里的这个验证功能已经被调用了超过 2000 万次。

AI 绘图这两年的发展,确实快得让人眼花缭乱。我们经历过 Nano Banana Pro 的一眼惊艳,也经历过繁琐的调教与漫长的等待。Nano Banana 2 的出现,则尝试进一步把好和快揉在了一起,并大大降低了使用的门槛。

你脑子里的一个灵感,不用再经过反复的修改和焦躁的等待。敲下回车的瞬间,它就在那里了。自然、简单,且立等可取,这件事听起来平常,但能做到,其实已经很难得了。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


硅谷最贵华人放弃 14 亿天价 offer,上交校友庞若鸣提桶投奔 OpenAI

作者 莫崇宇
2026年2月26日 13:34

没有永远的东家,只有永远的 offer。

就在刚刚,据 The Information 报道,七个月前刚加入 Meta 的技术大牛庞若鸣(Ruoming Pang),在上周悄悄加入了 OpenAI。

这名字你可能没印象,但履历相当硬核。庞若鸣本科毕业于上海交通大学,硕士毕业于南加州大学,同时也是普林斯顿大学计算机博士。

在 ChatGPT 一炮而红的前一年,他就因为在开发和训练大规模 AI 系统方面经验丰富,精通从模型本身到背后支撑的软件等各个环节,而被 Giannandrea 从 Google DeepMind 招募到苹果。

苹果为他大开绿灯,允许常驻纽约,不用搬去库比蒂诺总部,这在苹果高管安排中相当罕见。他从几个人的小团队起步,逐步把基础模型团队扩到 100 人左右,成员来自 DeepMind、Meta、微软、亚马逊,货真价实的全明星班底。

2024 年 WWDC,苹果高调发布 Apple Intelligence,写作工具、图像生成、接入 ChatGPT,背后大头都是他团队的成果。后来落地到 iPhone 的 Genmoji、邮件摘要这些功能,也基本出自他团队之手。

用一句话概括,他此前正是苹果 AI 战略的中轴线人物之一。

然后,求才若渴的 Meta 出手了。

据当时彭博社报道,Meta 开价超过 2 亿美元,横跨数年,大头是股票和签约奖金,且需完成特定里程碑才能全部兑现。知情人士透露,为了让庞若鸣放弃苹果团队以及过往在 Google 积累的资源,Meta 还为他量身定制了一套补偿机制。

这个数字几乎刷新了外界对顶级 AI 人才的估值认知。

进入 Meta 后,他在扎克伯格亲自组建的超级智能实验室负责 AI 基础设施工作。据他本人对同事的说法,在 Meta 干得挺开心,基础设施也给力。

但,转折点就是这么猝不及防。OpenAI 在他入职数月后就开始积极接触他,于是不到一年,庞若鸣挥一挥衣袖,转身拥抱了 OpenAI。

值得一提的是,他加入 Meta 时,还带走了部分原苹果团队成员。其中有个叫 Tom Gunter 的研究员,原本已经跳去了 OpenAI,听说庞若鸣去 Meta,直接掉头跟过去了,如今老大挪窝,他的去留也成了悬念。

庞若鸣的离开,也侧面反映了 Meta 在 AI 转型期所面临的复杂局面。

Llama 4 折戟之后,扎克伯格憋着一口气,要重新打造一支「超级智能」梦之队,为此几乎是不计成本地砸钱、砸资源、砸人脉。

143 亿美元买下 Scale AI 近半股份,把 Alexandr Wang 拉进来直接向自己汇报;四处挖角 OpenAI、Anthropic、Google 的核心骨干。

甚至据 OpenAI 首席研究官 Mark Chen 在播客中透露,扎克伯格为了从 OpenAI 挖走顶尖 AI 研究员,亲自下厨煮汤,并亲手递送到目标人选手中。

这番努力已初见成效。1 月 21 日,Meta CTO Andrew Bosworth 在瑞士达沃斯世界经济论坛期间正式宣布,Meta 超级智能实验室已完成首批核心 AI 模型的内部交付,表现「非常出色」。

不过他也坦承,「训练之后仍有大量工作要做」。稳定性、成本、安全合规,一堆问题还没解决,离真正可用还有距离。

庞若鸣的出走,恰好在这个节骨眼上发生,难免让外界对 Meta 超级智能实验室的前景多打几个问号。硅谷不相信忠诚,最顶级的 AI人才争夺战,也远未到终局。至于小扎能否得偿所愿,我们很快就会知晓。

附上参考地址:
https://www.theinformation.com/briefings/openai-hires-meta-ai-researcher-previously-led-apples-models-team?rc=qmzset

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


4900 万人围观的 Claude Cowork 又杀疯了,10 个顶级外挂上线,这些打工人危

作者 莫崇宇
2026年2月25日 17:20

「software armageddon(软件末日)」——这是外媒描述过去几个月软件板块遭遇时用的词。Anthropic 每推出一个新工具,市场就会条件反射式地先问一遍:又有哪些软件要被干掉?然后果断抛售手里的股票。

短短几周,成千上万亿美元的市值凭空消失。

就在昨晚,Anthropic 再度发布企业级产品更新。当所有市场都在等着看又要杀入哪个赛道,结果,Salesforce 涨了 4%,Thomson Reuters 涨了 11%,Figma 涨了 10%,Docusign 和 LegalZoom 均上涨超过 2%。

软件股的噩梦,这次没有如期而至。而市场情绪在一夜之间发生了 180 度转向,这件事本身就值得好好说说。

10 个插件模板,每一个都在盯着人类的工位

先说功能本身。

这次发布的核心逻辑,是把 Claude 变成可以深入企业不同部门的专业智能体,同时允许管理员创建私有插件市场,在组织内部统一分发和管理这些工具。

连接器层面的新增覆盖了大多数主流企业应用:Google Workspace(含 Calendar、Drive、Gmail)、Docusign、Slack、LegalZoom、FactSet、Harvey、Apollo、Clay 等等。

管理员可以基于入门模板快速创建插件,也可从零构建。Claude 会在设置过程中通过提问引导定制,所有内容统一收纳在新的「Customize(自定义)」菜单下,方便集中查看与管理。

斜杠命令现在以结构化表单的形式启动,执行「生成报告」或「创建仪表板」这类工作流时,操作直观得像填一份简单问卷。管理员还可按用户分配插件、设置自动安装,并通过 OpenTelemetry 追踪团队使用成本与工具调用行为。

10 个 插件模板的扩充,则是此次发布的重中之重,每个模板都与相关领域从业者联合设计,覆盖了真实职场中的具体工作场景。

  • HR 插件覆盖员工全生命周期管理,包括起草录用通知、制定入职计划、撰写绩效评估和薪酬分析。
  • 设计插件可生成评审框架、撰写 UX 文案、执行无障碍审查并制定用户研究计划。
  • 工程插件用于撰写总结、事故响应协调和部署清单制定。
  • 运营插件则覆盖流程文档编写、供应商评估和操作手册创建。
  • 金融领域的插件直接瞄准专业服务行业的核心工作流。
  • 财务分析插件支持市场竞争研究与财务建模;
  • 投资银行插件可审阅交易文件、构建可比公司分析并准备推介材料。
  • 股票研究插件能解析财报电话会议记录并根据新指引更新财务模型;
  • 私募股权插件支持大批量文件审阅与情景建模,并对投资机会自动打分。
  • 财富管理插件则帮助顾问识别组合偏离与税务风险,大规模生成再平衡建议。

在跨应用协作层面,Claude 现在可以在 Excel 与 PowerPoint 之间端到端完成多步骤任务。它能先在 Excel 中完成数据分析,再自动生成 PowerPoint 演示文稿,目前以研究预览形式向 Mac 和 Windows 平台所有付费用户开放。

这次更新也是 Anthropic 在智能体领域加速布局的缩影。

上个月 Cowork 刚首次亮相,本月早些时候 Anthropic 还发布了 Claude Opus 4.6 和 Sonnet 4.6。目前 Cowork 仍处于研究预览阶段,向付费的 Pro、Max、Team 和 Enterprise 用户开放。所有的弹药都在指向同一个目标:接管工作。

为什么 Anthropic 点名的合作伙伴,股价都涨了

既然 Claude 已经能代替人类干这么多活了,为什么软件公司的股票反而涨了?要理解这次反弹,得先还原过去几个月那轮恐慌是怎么来的。

投资者的担忧并非无中生有。今年 1 月底 Cowork 开放插件支持后,市场立刻作出了最坏打算——毕竟当 AI 把法律文件审阅、合规追踪、财务建模这些原本按席位高价收费的功能包,压缩成随装即用的工作流组件,传统软件的护城河将遭受最严厉的质疑。

最近,OpenAI 还在投资者会议上宣称,其 AI 智能体将有能力取代 Salesforce、Workday、Adobe 和 Atlassian 的软件,并算了一笔账:

普通员工使用 ChatGPT 平均每天节省约 50 分钟,相当于每人每天约 50 美元,而企业版 ChatGPT 起价仅为每人每月 25 美元。言下之意,OpenAI 认为自己目前只拿走了所创造价值的一小部分。

这种表态,基本等于公开宣战。

对比之下,Anthropic 这次发布会,选择了截然不同的姿态。它没有再强调「取代」,而是大力宣传与现有 SaaS 厂商的深度集成与联合开发,与 Thomson Reuters 共建法律智能体,与 Salesforce、Slack、FactSet 深度打通,与 PwC 联合将企业级智能体引入 CFO 办公室。

被点名合作的伙伴股价应声上涨,也是正是因为市场开始理解:Cowork 这次的定位是替代完成工作的「员工」,而非替代员工使用的「软件」,新工具仍然需要调用 Salesforce、Docusign 等系统,企业依然要持续为这些软件付费。

这个区分很重要,但它并不能消解所有担忧,只是让市场暂时喘了口气。

真正的分水岭,在于理解这个行业里存在两类截然不同的公司。一类是掌握企业核心交易记录与客户关系,迁移成本极高,AI Agent 要运作反而必须依赖它们;另一类提供的是人与系统之间的中间体验,而这恰恰是最容易被 Agent 穿透的地带。

不是裁员,是再也不需要招那么多新人了

如果说软件公司还能争取到一段缓冲期,打工人面对的压力则是实实在在的。

以 Anthropic 新增的金融系插件为例,其覆盖了从财务建模到推介材料生成、从财报解读到投资打分的全链条流程。这些工作恰恰是大量初级分析师赖以入行的基础任务内容。

Anthropic 在今年 1 月发布的经济影响指数报告给出了更具体的数字支撑。报告通过分析 100 万条真实对话,估算了 Claude 在不同职业中能够有效承接的工作比例。

结论并不是简单的「覆盖了多少任务」,而是引入了一个更严格的指标——「有效 AI 覆盖率」:在 Claude 能完成的任务里,究竟有多少是这个职位最核心、最耗时的工作?

数据录入员和数据库架构师在这个维度上排名靠前。前者虽然只有两项核心任务落在 Claude 的能力范围内,但其中一项恰好是他们花时间最多的工作——从源文档读取并录入数据。

金融分析师的情况与此类似。基于岗位任务结构与已公开工具能力的匹配来看,投行初级分析师的日常任务存在被自动化的风险。

当然,这不代表这些岗位会消失,但它意味着同样一个团队能完成的工作量将大幅提升,也就是说,企业未来需要雇用的初级人手会更少。

问题是,当 AI 接手这些基础执行工作,短期内利润率确实好看,但代价是新人少了练手的机会,等到五到十年后,市场极度缺乏能够审查 AI 复杂输出、承担最终决策责任的高级人才时,这个代价就会以一种所有人都措手不及的方式显现出来。

与此同时,APPSO 之前也报道过,「影子 AI」现象正在企业内部蔓延,指的是员工未经 IT 部门批准或监督,擅自使用AI 工具或应用程序,导致 IT 支出失控,安全合规隐患持续叠加。

SaaS 管理平台 Zylo 的数据显示,大型跨国企业与 AI 相关的支出同比跃升 400%,而原有基础软件投资并未缩减。AI 正在成为企业账本上最昂贵且最难追踪的「隐形员工」。

从中长期来看,纯粹押注 AI 颠覆一切的逻辑,和积极拥抱 AI 同时牢牢握住核心数据护城河的行业巨头,是两种截然不同的命运路径。前者的叙事更性感,后者的胜算或许更大。

Anthropic 今天向外展示的「合作」姿态,听起来温和,甚至有点示好。市场也在一夜之间被安抚了,但没人真正回答那个根本问题:AI 冲击职场的终点,到底是人和 AI 一起干活,还是 AI 干活、人来担责,还是连这最后一道门槛也终将消失?

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Anthropic「蒸馏」了人类最大的知识库

作者 莫崇宇
2026年2月25日 08:47

2024 年初,在美国某处的一座仓库里,工人们正在做一件看起来有些奇怪的事:把书一本本送进机器,切掉书脊,扫描,然后把剩下的纸送去回收。

这些书是刚买来的,有些甚至是新的。没有人会读它们,它们存在的唯一目的,就是被销毁。

下令做这件事的,是一家叫 Anthropic 的 AI 公司。

在他们的内部文件里,这项计划有个代号:「巴拿马项目」。一份规划文件写得很直白:「这是我们以破坏性方式扫描全球所有书籍的计划,我们不希望外界知道我们正在做这件事。」

这件事最终还是被人知道了。

去年,一名联邦法官解封了一批与版权诉讼相关的文件,总计超过 4000 页。外界由此看到的,不只是一家公司的秘密,而是整个 AI 行业在数据争夺战中的真实面目。

被大模型「吃」掉的实体书

为什么这些处于技术前沿的科技巨头,会用如此原始甚至粗暴的方式对待纸质书?答案其实藏在 AI 对高质量数据的极度渴求里。

Anthropic 内部很早就意识到,训练 AI 模型光靠网络上的内容不够用。

根据《华盛顿邮报》报道,一位Anthropic 联合创始人在 2023 年 1 月的文件中写道,用书籍训练模型,可以让 AI 学会「如何写得更好」,而不是只会模仿质量参差不齐的网络语言。

书籍经过严格编辑和校对,内容结构清晰,是网络文本难以替代的高质量语料。

这个逻辑本身并不难理解,但问题是,既然承认书籍有价值,为什么不付钱?究其原因,挨个找出版社和作者谈授权,费时费力,成本也高。于是 Anthropic 启动了「巴拿马项目」。一句「不希望外界知道」,说明它也清楚这件事站不住脚。

甚至「巴拿马项目」还没启动的时候,Anthropic 已经尝试通过另一种方式获取书籍。

法院文件显示,公司联合创始人 Ben Mann 曾在 2021 年 6 月的 11 天里,从一个叫 LibGen 的网站下载了大量小说和非小说类书籍。LibGen 是个「影子图书馆」,上面的资源大多涉嫌侵权,文件中附带的浏览器截图显示,他使用文件共享软件完成了这些下载。

一年后,另一个网站 Pirate Library Mirror 于 2022 年 7 月上线,该网站公开宣称「在大多数国家故意违反版权法」。Mann 把这个网站的链接发给了其他 Anthropic 员工,并留言写道:「来得正是时候!!!」

这句感叹号背后,是一位公司高管对一个公开承认违法的盗版网站表达的真实态度。

Anthropic 事后表示,公司从未用这些数据训练过正式发布的商业模型。但这种解释多少有些勉强,下载了,存着,只是「没有用在正式模型上」,这条线究竟划在哪里,恐怕连 Anthropic 自己也说不清楚。

为了「巴拿马项目」,Anthropic 还专门聘请了 Tom Turvey 来主持这项工作。Turvey 曾参与创建谷歌图书项目,那个项目同样因大规模扫描书籍引发了长达多年的版权争议。Anthropic 选择这个人来主导这件事,很难说是一种巧合。

最终,Anthropic 主要依赖两家书商批量供货:

美国二手书零售商 Better World Books,以及总部位于英国的 World of Books,每次采购动辄数万册。内部文件还显示,员工曾讨论接洽纽约公共图书馆,甚至提到可以找某家长期资金不足的新图书馆。

采购完之后,整个扫描过程,就像一条工业流水线。

供应商用液压切割机把书脊整齐切掉,散开的书页随即被送进高速工业扫描仪,扫完之后,剩下的纸张交给回收公司处理。一家参与报价的扫描服务商在提案中写道,Anthropic 希望在六个月内完成 50 万到 200 万册书的数字化工作。

Anthropic 副总法律顾问 Aparna Sridhar 回应称,法院已裁定 AI 训练「本质上具有转化性」,Anthropic 选择和解的问题在于「部分材料的获取方式,而不是我们是否可以使用这些材料」。

这套说辞在法律上也许站得住脚,但它同时也揭示了一件事:这家公司从未认为自己做错了什么,只是某些手段不够干净。

拿你的书训练,再抢你的饭碗

同样的事情,也在其他公司身上发生着,而且有些细节更为戏剧性。

针对 Meta 的诉讼文件显示,有员工在 2023 年直接写道:「用公司笔记本进行种子下载感觉不太对劲。」他后来还专门向法务团队反映,称使用种子网站可能意味着向他人分发盗版作品,「这在法律上可能行不通。」

但这些顾虑最终没有改变任何事情。

2023 年 12 月的一封内部邮件显示,使用 LibGen 已在「上报至 MZ」之后获批,MZ 指的是 CEO 马克·扎克伯格。邮件还坦率地写明了他们自己都清楚的风险:「如果媒体报道暗示我们使用了已知为盗版的数据集,这可能会削弱我们在监管问题上的谈判立场。」

换句话说,他们不是不知道这样做不对,只是在权衡被抓包的代价。为了降低这个风险,员工们特意租用亚马逊的服务器来做种子下载,而不是用 Meta 自己的服务器,原因是避免被追踪到 Meta 公司。

OpenAI 和微软同样面临图书作者的版权指控。OpenAI 甚至承认曾下载过 LibGen,但称在 ChatGPT 发布前已删除相关文件。

而 AI 公司与创作者之间的版权冲突,并非从 Anthropic 才开始。

早在 2000 年代初,Google 就曾大规模扫描图书馆馆藏,同样引发了长达十年的诉讼。最终法院认定Google 的做法属于「合理使用」,因为它只提供片段摘要,目的是引导读者找到书,而不是取代书本身。

这个判决在当时看来合情合理,却在二十年后为整个 AI 行业提供了一块挡箭牌。

Google 图书是个索引工具,而生成式 AI 直接消化书籍内容,然后输出文字,在某些情况下与作者产生直接竞争。性质变了,但援引的法律逻辑还是同一套,这本身就值得思考。

去年 6 月,联邦法官 William Alsup 裁定,Anthropic 用书籍训练 AI 属于合法行为,他将这个过程比作教师「训练学生写好文章」。这个比喻听起来温和,但现实中的老师不会同时训练几百万个学生,也不会靠这些学生赚几十亿美元。

最终,Anthropic 选择支付 15 亿美元和解金,在 AI 版权诉讼史上创下纪录,但细看之下,账算得并不亏。按照美国版权法,每件作品的法定赔偿上限可达 15 万美元,而此次和解折算下来,每本书约赔 3000 美元,仅为上限的 2%。

赔偿金由作者和出版商平分,只是,这一安排在创作者群体内部引发了争议。

不少作者认为,出版商在保护作品不被 AI 滥用这件事上没有尽力,却拿走了一半赔偿。更关键的是,和解协议并不要求 Anthropic 承认任何违法行为,法院对「AI 训练属于合理使用」的认定照样有效。

换句话说,Anthropic 用 15 亿美元买到的,不只是和解,还有一份背书:我们可以继续这么做。有分析人士指出,随着这个先例确立,版权侵权对 AI 公司来说已经不再是一条红线,而是一笔可以提前计入成本的「过路费」。

对许多写书的人来说,这件事意味着的远不止一张支票。美国作家的年收入中位数约为 2 万美元,而市值数千亿的 AI 公司在未获授权的情况下大量使用他们的作品,事后折算的赔偿标准远低于法律上限。

更让人忧虑的是,AI 正在批量生成文字内容,这些低成本的文本涌入市场,让原本就艰难的写作谋生变得更难。训练 AI 用的是人写的书,而 AI 产出的内容,正在挤压人继续写书的空间,循环往复。

支持者自有另一套逻辑:AI 并不储存书里的内容,而是从中提取语言规律,这更像是一个人博览群书之后形成自己的表达。这个类比并非毫无道理,但却省略了一个关键差异:

人读了一本书,不会同时读一百万本;而 AI 在几个月内消化了人类几十年的写作积累,随后以极低的边际成本无限复制输出,规模改变了性质,把两件事等同起来其实并不合理。

数百万册书被切开、扫描、回收,最后换来一份和解协议。那些书,早已不在了。而 AI 还在继续写作,且会越来越快。这大概就是这件事最让人不安的地方:对于书被销毁,被肆意用来训练 AI 这件事,没有人真正付出了代价。

附上参考地址:
https://www.washingtonpost.com/technology/2026/01/27/anthropic-ai-scan-destroy-books/

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


一夜蒸发 310 亿美元!Claude 新工具干翻 IBM 摇钱树,AI 正在「清零」人类工位

作者 莫崇宇
2026年2月24日 13:43

如果你想摧毁一家公司,不需要打败它,只需要让人相信它可以被打败。

截至周一美股收盘,IBM 股价暴跌 13.1%,报每股 223.39 美元,创下 2000 年互联网泡沫破裂以来最大单日跌幅。当天市值从 2408 亿美元跌至约 2087 亿美元,蒸发了约 310 亿美元。

是财报暴雷了吗?不是。是重要大客户跑路了吗?也没有。

这一切的导火索,仅仅是 AI 公司 Anthropic 当天发布的一篇博客,宣布旗下编程工具 Claude Code 可以帮助改造 COBOL 老旧系统,直接戳中了 IBM 最核心、最赚钱的遗留系统咨询业务。

没有人证明 IBM 的生意垮了,但在恐慌的市场面前,已经不需要证据了。

COBOL 是 IBM 的护城河,现在被 AI 盯上了

要理解 IBM 为什么跌得这么惨,得先搞清楚 COBOL 是什么,以及 IBM 靠它赚的是什么钱。

COBOL 是一种诞生于 20 世纪 50 年代的编程语言,今天仍在驱动美国约 95% 的 ATM 交易,以及大量银行、政府、航空系统的日常运转。

IBM 长期销售针对 COBOL 优化的大型主机,并围绕它提供改造和咨询服务。

这门生意之所以赚钱,根源在于改造难度极高。读懂几十年没有文档的老代码,往往要顾问团队花上数年时间。这种高昂的理解成本,就是 IBM 最核心的竞争壁垒。

Anthropic 的博客说,Claude Code 可以自动梳理数千行代码之间的依赖关系,补全那些早已没人记得的工作流文档,还能识别出人工分析师要花几个月才能发现的系统风险。

它进一步宣称,原本以年计的现代化项目,用 AI 可以压缩到几个季度。

当市场听到这个消息后,立刻做出了反应:IBM 那套依赖大团队长期驻场的咨询模式,定价权可能要松动了。

IBM 的处境因此显得格外敏感。

2025 年全年,其咨询业务收入约 210.55 亿美元,基础设施收入约 157.18 亿美元,生成式 AI 累计签约规模也超过了 125 亿美元。当理解遗留代码这件事的成本被大模型显著压低,这些收入的含金量在市场眼中就打了折扣。

有意思的是,IBM 和 Anthropic 其实并不是单纯的对手。

2025 年 10 月,两家公司曾宣布战略合作,把 Claude 集成进 IBM 的开发工具体系,内部有超过 6000 名早期用户报告平均生产力提升约 45%。同一种技术,既可能成为它自我改造的工具,也被看作颠覆 IBM 的武器。

但在抛售情绪主导的当天,市场选择了后者。

IBM 暴跌其实不是这轮动荡的起点。早在 2 月 20 日,网络安全板块就已经经历了一次集体闪崩,那天后来被一些分析师称为软件行业的「黑色星期五」。

导火索是 Anthropic 宣布推出 Claude Code Security。

这款工具能自动扫描代码库中的安全漏洞,生成补丁供人工审查,并将原本由专业安全工具负责的漏洞扫描、软件成分分析等功能,直接内置进了开发者的日常工作流。

市场的反应同样非常强烈。

JFrog 当天单日暴跌 24.61%,因为它的核心业务高度依赖软件供应链的管控,而这恰好是 AI Agent 最容易切入的地方。CrowdStrike、Cloudflare、Okta、Zscaler 等公司虽然主营业务并不是代码扫描,但也因为情绪「传染」出现了明显下跌,整个板块单日蒸发上百亿美元,追踪网络安全 ETF 的 BUG 基金跌至两年多以来的最低点。

当然,不少理智的分析师站出来反驳,说这种抛售毫无逻辑。

比如摩根大通认为,投资者的担忧被过度夸大。Wedbush Securities 的分析师措辞严厉地表示,这是自己职业生涯中见过的「最不合逻辑的交易」。

他们的理由有一定说服力。

AI 在帮助防守者扫漏洞的同时,也在帮助攻击者找漏洞。到 2026 年,黑客已经开始用大模型发起更精准的钓鱼攻击,开发自动化的攻击 Agent,甚至针对企业内部的 AI 模型实施「提示词注入」和「内存投毒」。

更棘手的是,企业内部大量未经授权部署的 AI Agent,一旦拥有操作内部系统和访问敏感数据的权限,本身就成了安全隐患。这意味着安全的需求非但没有消失,反而在扩张。

CrowdStrike 提供的端点保护、Zscaler 提供的零信任网络访问、各类身份与访问管理工具,恰恰是应对这些新型 AI 威胁所必须依赖的基础设施。

SaaS 最不愿承认,但正在发生的事

APPSO 之前也报道过,AI 对整个 SaaS 行业造成了很大的冲击。

而 IBM 和安全股的动荡,是整个企业软件行业更大危机的一个切面。过去二十年,SaaS 行业的繁荣建立在一个简单逻辑上:企业员工越多,买的软件席位就越多,供应商的订阅收入就越稳。

AI Agent 的出现打破了这个等式。

以 Claude Cowork 为例,它能自主跨系统导航,独立完成数据录入、线索评分、多步骤业务审批等工作,企业不再需要维持大规模的基层操作团队。

一个原本需要五个人各自登录账号的财务部门,现在可能一个主管配合 AI 工具就够了,那四个席位的订阅费自然随之消失。这种现象是 SaaS 厂商目前面临的最直接威胁。

在这场转型中,处境最危险的是那些提供通用功能、主要服务中小企业的 SaaS 厂商,比如 HubSpot、Atlassian、Asana。这类产品的工作流相对标准化,很容易被 AI 直接模仿替代。

越是那些功能通用、流程标准化的软件(比如排日程、管任务的),越容易被 AI 直接平替。

这种冲击不只停留在大公司层面,对普通创业者也是一种降维打击。

一位名叫 Ira Bodnar 的创业者在 X 平台发了一篇名为《Claude 杀死所有创业公司》的帖子,迅速获得了超过 292 万次阅读。他两个月前刚做出一款帮企业自动管理谷歌和 Meta 广告账户的 AI 产品,付费客户几百个,成交率高达 70%,增长势头很好。

一天早上醒来,她发现成交率跌到了 20%。

原因很简单:Anthropic 同期推出了 Meta 广告连接器。功能还不完整,只能做分析、无法直接操作账户,但客户已经开始观望。Bodnar 在帖子里写道:「再过几个月它就能做到了,所以继续在这里开发感觉意义不大。」

IBM 失去的是估值,Bodnar 失去的是整个产品类别存在的理由。相比之下,更难被计算进股价、也更难被写进报告的,是那些正在消失的普通岗位。

股价跌了还能涨回来,但就业市场的变化,慢刀子割肉,却真实得多。当企业不再需要那么多人去堆砌工作量时,最先遭殃的,是那些还没上桌的年轻人。

斯坦福大学数字经济实验室的研究指出,在受 AI 影响最明显的职业里,22 至 25 岁年轻毕业生的就业率相对下降了 13%,但与此同时,那些有丰富经验的高级架构师,饭碗依然很稳。

这个分化说明 AI 没有像科幻电影里那样消灭所有人类岗位,只是只是悄悄从底部开始,把新人的岗位削没了——以前,刚毕业的程序员总是靠写写简单的基础代码、修修不痛不痒的 Bug,一步步攒经验往上爬。

现在,这些「脏活累活」全是 AI Agent 的统治区。

包括很多大厂现在很默契:我不大规模裁员,但如果有人辞职了,我绝对不再招新人,直接拿 AI 顶上空缺。

对此,学生的选择,已经说明了他们对市场的判断。麻省理工学院的数据显示,其入门编程课程在 2022 学年达到峰值后持续下滑,传统计算机科学专业注册人数从 823 人跌至 672 人,降幅超过 18%。

与此同时,MIT 2022 年新设的「人工智能与决策」专业,注册人数从 37 人暴增到 372 人,涨了约十倍。杜克大学的 CS 入门课注册人数同期下降约 20%,普林斯顿 CS 专业大三大四学生数量也出现了相似幅度的下滑。

同样是在 IBM 暴跌的同期,一篇由 Citrini Research 发布的博客《2028 年全球智能危机》在 X 平台上火了,收获了 2000 万+的阅读量。

作者假装站在 2028 年往回看,描绘的图景并不乐观。企业用 AI 裁人,省下来的钱继续买 AI,更强的 AI 让下一轮裁员成为可能,被裁的人消费变少,企业收入下滑,又得靠 AI 进一步压缩成本。

一圈又一圈,没有尽头。

作者自己也说,这只是一个思想实验,不是预言。但读完这篇文章再看当天的新闻,很难说它描述的东西完全是想象。SaaS 公司的订阅收入在压缩,IT 外包行业开始被质疑存在的必要,应届生找工作越来越难——传导链条的前几环,已经隐约可见。

国际货币基金组织估计,全球约四成就业都暴露在 AI 的影响范围之内,部分岗位会被增强,部分面临萎缩,最终走向取决于各行业的互补程度与政策应对。

世界经济论坛预测,到 2030 年新技术净创造的岗位约 7800 万个,但这个再分配的过程,必然伴随大量摩擦和痛苦。

我们总喜欢用颠覆、炸锅、王炸等耸人听闻的词汇来描述 AI 所带来的冲击,在我看来,这些词都用错了方向——AI 带来的变化,更像是涨潮。

涨潮不挑对象,不讲立场,不管你是 IBM 这样的百年巨头还是 Bodnar 这样的独立创业者,水平线统一往上走。有人站在高地,有人站在滩涂,退潮之后才知道谁在裸泳——问题是,这次潮水好像没有退的迹象。

MIT 的学生已经在悄悄换就业方向,大厂们同样在默默等人自然离职然后不再补招,Citrini 那篇文章的阅读量突破 2000 万,不是因为它写得多好,而是因为太多人在里面看到了自己隐约感觉到、但还没说出口的那种不安。

不安本身不是坏事。它至少说明,潮水还没把人完全淹没,还有时间想清楚自己站在哪里,又到底该如何在机器面前,找到自己那个没法被替代的位置。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


刚刚,OpenAI 硬件全家桶曝光!智能音箱内置摄像头+刷脸购物,ChatGPT 要住进你家了

作者 莫崇宇
2026年2月21日 17:00

据 The Information 爆料,OpenAI 正在开发一款智能音箱,它将配备摄像头,支持类似苹果 Face ID 的人脸识别。你未来可能「看一眼」就能完成购物支付,类似功能目前在小米 Rokid 等智能眼镜已经实现。

在苹果、Meta 都在把 AI 塞进眼镜、手表、吊坠等可穿戴设备时,OpenAI 尝试把摄像头塞进了音箱,能「看见」你和周遭的环境,AI 对你的理解也将从语言延伸到行为,你的作息、习惯、情绪状态,都将让 AI 读懂和拼凑出一个真实的你。

▲产品假想图,由 Nano Banana Pro 生成

APPSO 先给你快速梳理下 OpenAI 智能音箱的核心信息

  • 定价:200-300 美元(约 1450-2200 元人民币)
  • 发售时间:最早 2027 年 2 月
  • 核心功能:摄像头环境感知、Face ID 级人脸识别、语音购物
  • 设计团队:Jony Ive 的 LoveFrom + OpenAI 硬件团队
  • 产品矩阵:智能音箱首发,智能眼镜、智能灯后续跟进

「长眼」的智能音箱,你敢用吗

智能音箱这个品类,从 Amazon Echo 到 Apple HomePod,已经卷了快十年。但这些设备的「智能」,往往停留在「能听懂关键词」的层面,离真正的「理解」差着十万八千里。

OpenAI 的解法简单粗暴:给它装上眼睛。

智能音箱内置摄像头,能识别你周边环境,比如桌上摆了什么、旁边在聊什么。还支持类似 Face ID 的面部识别,可以直接刷脸完成购买。这种「所见即所得」的购物体验,目前市面上的智能音箱还做不到,

结合 ChatGPT 去年上线的购物功能——用户可以在对话框里完成从选品到跳转下单的完整流程,这个刷脸购买功能将有望直接服务于「AI 即购物入口」的闭环,成为消费决策链条上的第一道关口。

如无意外,这也将对现有流量分发逻辑造成重大的挑战:Google 靠搜索吃了二十年广告红利,电商平台靠货架逻辑构建起庞大生态,而 OpenAI 想在这两者之前再插入一个新的决策层级。

此外,这款智能音箱还能通过持续的视觉观察判断用户状态——比如发现你在重要会议前夜还在熬夜,会主动提醒你去早点睡。这样一来智能音箱的定位,就从一个智能家居产品,变成了一个 AI 管家中枢。

不过,这种全天候的数据采集,隐私边界在哪里,或许有待 OpenAI 正式发布时给出答案。

想要买到这款产品,还要等一段时间。首款设备最早也要到 2027 年 2 月才能发货。眼镜等其他产品更慢,预计 2028 年才能大规模量产,至于那个智能台灯,原型机有了,但到底会不会发布,还是个未知数。

「含果量」十足的 OpenAI 硬件团队

OpenAI 的硬件野心,从团队规模就能看出来,整整 200 人,而且还在疯狂扩张。其中更令人期待的是,前苹果首席设计官 Jony Ive ,亲自为 OpenAI 操刀产品设计。

这支团队的「含果量」极高,团队由副总裁 Peter Welinder 领导,他此前负责 OpenAI 的新产品探索团队。核心成员包括:

  •  Tang Tan:苹果 25 年老将,曾任 iPhone 和 Apple Watch 产品设计主管,直接向苹果硬件主管 John Ternus 汇报,被认为是把 Jony Ive 的设计理念转化为大规模可制造产品的关键人物
  • Evans Hankey:苹果前工业设计负责人,曾接替 Jony Ive 执掌苹果设计团队,现为 OpenAI 工业设计负责人
  • Scott Cannon:供应链负责人
  • Adam Cue:苹果服务主管 Eddy Cue 之子,负责开发驱动 OpenAI 未来设备的软件
  • Ben Newhouse:产品研究负责人,正致力于重写 OpenAI 的基础设施以适应音频 AI
  • Atty Eleti:负责设备隐私相关工程工作

虽然 Jony Ive 并未直接加入 OpenAI,但他对设计拥有最终决定权,据说每周都会出现在旧金山市中心的办公室。有员工透露,团队讨论时经常会说「Jony 会想要什么」。

然而 Jony Ive 和 OpenAI 的合作并非一帆风顺。据两位知情人士透露,一些 OpenAI 员工抱怨 LoveFrom 修改设计的速度缓慢,且很少分享其构思新设计的流程。这种保密作风和对设计的极致追求,是苹果公司的典型做法——而该团队的许多员工和领导层都来自那里。

为了保持这种运作方式,OpenAI 的设备团队与公司其他部门是分开的。虽然 OpenAI 总部位于米申湾,但设备团队在旧金山市中心杰克逊广场附近的一间办公室办公,离 LoveFrom 的办公室不远。

OpenAI 挖人的手段也很「简单粗暴」——直接用超过 100 万美元的股票期权砸人,薪酬远超苹果标准。据 The Information 报道,OpenAI 今年已经从苹果挖走了 20 多位硬件大牛,而 2023 年这个数字几乎为零。

苹果显然坐不住了。据知情人士透露,苹果去年曾突然取消了原定在中国举行的年度闭门会议——这个会议通常由高管向员工介绍未来产品计划。取消的原因竟然是:「防止更多高管跳槽到 OpenAI」。

内部怎么拧,是执行的事。但有一件事,从一开始就没有悬念——OpenAI 必须做硬件。

软件端 200 亿美元的年收入,已经证明了 AI 是一门好生意,但要让 AI 真正成为水电煤一样的基础设施,必须有一个物理入口。手机这条路走不通——苹果的生态护城河不是一款 AI 新品轻易能够撬动的,其它手机厂商自己也在全力 AI 化,不会将大好的硬件阵地拱手相让。

当然,更根本的问题是,手机的形态本身,可能就不适合做 AI 的宿主。

当 AI 足够聪明时,它不应该被禁锢在一块长方形的玻璃屏幕里,它应该是无处不在的。因此,从音箱、眼镜甚至台灯这些陪伴感更强的品类切入,是 OpenAI唯一,也是最合理的选择。而这一切,或许从 ChatGPT 的产品设计方向上就已经埋下了伏笔。

与 Anthropic 这类深耕企业服务的 AI 公司不同,OpenAI 从一开始就带着强烈的 ToC 基因——ChatGPT 不只是一个工具,它有情绪、有记忆、会共情,Sam Altman 一直在让它变得更像一个「人」。

这背后的逻辑,如今看来相当清晰:一个冷冰冰的 AI 助手,你不会想把它放在卧室里;但一个懂你、记得你习惯、会关心你睡没睡好的 AI,才有资格住进你的生活。

OpenAI 的硬件版图浮出水面

智能音箱只是 OpenAI 硬件全家桶的其中一个,此前 OpenAI 已经被曝出在开发智能眼镜、智能灯、甚至可穿戴别针等多种形态。其中智能眼镜可能要等到 2028 年才能量产——这个时间点,恰好和苹果传闻中的 AI 眼镜撞期。

OpenAI 硬件产品线(APPSO 据曝光信息整理)

  • 智能音箱(代号未知):首款产品,200-300 美元,2027 年 2 月出货
  • AI 耳机(代号 Dime/「甜豌豆」):金属鹅卵石造型,胶囊状耳机置于耳后,2nm 芯片
  • 智能眼镜:2028 年量产,与 Meta Ray-Ban、苹果 N50 正面竞争
  • 智能灯:原型已准备,是否发布待定
  • AI 笔:Sam Altman 多次暗示的「口袋设备」

值得注意的是,OpenAI 的硬件策略似乎经历了调整。此前传闻的 AI 耳机项目「Dime」(甜豌豆),原计划是一款「类手机」全能设备,搭载 2nm 智能手机级芯片。但由于 HBM 内存短缺导致成本过高,OpenAI 被迫调整策略——先推纯音频功能的「阉割版」,等成本下降后再发高配版。

这种「先占坑、后完善」的策略,在硬件圈并不罕见。对 OpenAI 来说,也没有苹果的包袱,不需要将产品打磨到完美才推出市场,即便首款产品不够惊艳,这也是 AI 行业发布产品的一贯风格。

此外 OpenAI 不止挖苹果的人,也盯上了苹果花了几十年打造的供应链。

据知情人士透露,中国主要的 iPhone 和 AirPods 代工厂立讯精密已经拿下了至少一款 OpenAI 设备的组装合同,而负责组装 AirPods、HomePod 以及 Apple Watch 的歌尔股份也在跟 OpenAI 接洽,为未来产品提供扬声器模组等零部件。

Sam Altman 曾在一次采访里提到 OpenAI 硬件的愿景:「智能手机是时代广场,信息轰炸、注意力粉碎。OpenAI 要做的,是一间『湖畔小屋』——让你在需要专注时,能关上门,屏蔽噪音。」

他的核心逻辑在于,AI 硬件不是要取代手机,而是要填补「不方便掏手机」或「需要深度专注」的场景。从这个角度看,智能音箱、AI 笔这类「放在桌上不突兀」的设备,确实比 24 小时佩戴的 AI 吊坠更友好。

但愿景归愿景,现实很骨感。OpenAI 不是第一家想用 AI 硬件重新定义人机交互的公司。Human Pin、Rabbit R1、Friend AI 吊坠……这些「网红 AI 硬件」的销量也都不尽如人意。

此前很多 AI 硬件往往解决的是「伪需求」——它们能做的,手机基本都能做,而且手机做得更好。要改变消费者习惯了近二十年的屏幕交互,接受一个「看不见摸不着」的 AI 助手,挑战不小。

OpenAI 要面对的,不只是市场教育难题,还有巨头的围剿。

据彭博社记者 Mark Gurman 爆料,苹果正在加速推进三款全新的 AI 可穿戴设备:智能眼镜 N50、可穿戴吊坠、摄像头 AirPods,都围绕 Siri 数字助手构建,通过摄像头获取视觉上下文来执行各种操作。

2026 对于 OpenAI 来说,无论是大模型 AI 产品,还是新兴的硬件产品,都会面临一个超级内卷的竞争环境。

即便如此 OpenAI 依然可能给 AI 硬件行业带来一些变化,甚至是分水岭。

它有最豪华的苹果班底、最激进的产品定义、以及 ChatGPT 这个全球份额第一的 AI 产品。但 OpenAI 也面临着所有 AI 硬件共同的困境:如何证明 AI +硬件给体验带来了质的变化,而非只是让产品卖得更贵的又一个理由。

作者:李超凡、莫崇宇

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


刚刚,Gemini 3.1 Pro 发布!清华姚顺宇站台宣传,Karpathy:应用商店的时代结束了

作者 莫崇宇
2026年2月20日 07:04

刚在印度 AI 峰会上经历了最尴尬的一幕,Google CEO Sundar Pichai 转头就在今天凌晨官宣了最新模型 Gemini 3.1 Pro。

时机选得,相当精准(doge)。

▲OpenAI CEO 和 Anthropic CEO 在合影时拒绝握手,而是高举拳头。

虽然距离上周 Gemini 3 Deep Think 的更新没几天,但 3.1 Pro 的定位,Google 说得很清楚——专为那些「一个简单答案远远不够」的任务而设计,是解决复杂问题的基础底座。

按惯例,0.1 的版本号更新通常意味着小修小补,然而,在测试模型解决全新逻辑模式能力的 ARC-AGI-2 基准上,3.1 Pro 拿下 77.1%,是上代 3 Pro(31.1%)的两倍多,同时压过了 Anthropic 的 Opus 4.6(68.8%)和 OpenAI 的 GPT-5.2(52.9%)。

其它方面,科学知识测试 GPQA Diamond 拿了 94.3%,智能体类基准 MCP Atlas 和 BrowseComp 分别拿下 69.2% 和 85.9%。

编程能力方面,竞争性编程基准 LiveCodeBench Pro 的 Elo 评分达到 2887,超过 3 Pro 的 2439 和 GPT-5.2 的 2393。SWE-Bench Verified 上,3.1 Pro 拿了 80.6%,和 Opus 4.6 的 80.8% 基本打平。

当然,3.1 Pro 也不是处处碾压。

多模态基准 MMMU Pro 上,上代 3 Pro 反而略胜(81.0% vs 80.5%);启用工具支持的 Humanity’s Last Exam 里,Opus 4.6 以 53.1% 拿了第一。外界长期批评 Google 工具使用效率不如对手,这次还是没能完全堵上嘴。

第三方知名分析机构 Artificial Analysis 则给出了相当实在的评价。

3.1 Pro 在他们的智能指数里排名第一,比 Opus 4.6 高 4 分;整个测试跑下来总计使用约 5700 万 tokens,完成测试的成本不到 Opus 4.6 的一半。能打又省钱,这个组合还是很香的。

Google DeepMind 首席科学家 Jeff Dean 也转发了一个是用 3.1 Pro 模拟城市规划、设计全新城市的应用,从零生成可交互的规划界面 demo。

Google 官方博客则展示了几个更日常的方向。代码动画方面,3.1 Pro 可以直接根据文字提示生成动态 SVG,因为是纯代码生成而非像素,任意缩放都不失真,文件体积也远小于传统视频。

复杂系统方面,模型直接接入公开遥测数据流,搭出了一个实时追踪国际空间站轨道的航天仪表盘。

更有意思的是两个创意类 demo。

一个是 3D 椋鸟群模拟,不只是生成视觉代码,还支持用手势操控鸟群,并配有随鸟群动态变化的生成音乐;

另一个是把《呼啸山庄》的文学氛围转化成一个现代个人网站,模型没有简单概括情节,而是分析了小说的整体基调,设计出了贴合主人公气质的界面风格。

此外,网友们也贡献了不少精彩的案例。有人让 3.1 Pro 生成一个「鬼怪猎人穿越鬼屋」的动态 SVG 循环动画,结果直接看呆,评价是「Google 这次是认真的」。

还有网友认为让它生成种子破土、根系延伸、茎秆冒出、叶片展开、直到长成完整大树的交互动画,每个生长阶段的过渡都顺滑自然,说这是见过最好的同类效果。

去年从 Anthropic 转投 Google DeepMind 的清华物理系特奖得主姚顺宇也站台宣传:「Gemini 不仅是一个优秀的模型,而且更好的模型正以不可阻挡的方式到来。」

当然,这些 demo 加在一起说的是同一件事:模型能做的事,已经从单纯的回答问题延伸到完成一整套专业或创意工作流了。
价格方面,API 按分级付费,整体和上代 3 Pro 保持一致,但跟 Anthropic Opus 系列比还是相对便宜的。

20 万 tokens 以内,输入 2 美元 / 每百万 tokens,输出 12 美元;超过 20 万 tokens,输入涨到 4 美元,输出 18 美元。搜索功能每月前 5000 次免费,之后每 1000 次查询收费 14 美元。

现在,开发者可以在 AI Studio、Gemini API、Gemini CLI、智能体开发平台 Google Antigravity 以及 Android Studio;企业用户在 Vertex AI 和 Gemini Enterprise;普通用户在 Gemini 应用和 NotebookLM 都能用,后者仅限 Pro 和 Ultra 订阅。

值得注意的是,3.1 Pro 目前只是预览版,Google 大概率是要继续打磨好智能体工作流再推正式版,向外界展示出一副还没使全力的姿态。

至于这种能力渗透到个人层面会发生什么,这让我联想到了 OpenAI 联创 Andrej Karpathy 刚刚发布的推文:

他想用 8 周时间把静息心率从 50 降到 45,计划是设定 Zone 2 有氧总时长目标,配合每周一次 HIIT。为了追踪进展,他花了 1 小时用 vibe coding 做了一个专属仪表盘。

过程比想象中麻烦,Claude 需要对 Woodway 跑步机的云 API 进行逆向工程,提取原始数据,处理筛选,搭出 Web 前端界面,中间还有公制英制单位混用、日历日期对不上这些 bug 需要手动发现并要求修复。

Karpathy 的感叹很犀利,两年前这事得花 10 小时,现在 1 小时。但他更在意的是:这本来应该只需要 1 分钟。
他的判断是,应用商店模式正在过时。

300 行代码、LLM 几秒生成的专属工具,没必要变成一个正经 App 让你去搜索下载。他同时也点了行业的问题:99% 的产品仍然没有 AI 原生的 CLI,还在维护给人看的前端界面,而不是直接提供便于 Agent 调用的 API。

Woodway 跑步机本质上就是个传感器,结果还得让 LLM 去逆向工程它,完全没必要。

把 Jeff Dean 的城市规划 demo 和 Karpathy 的跑步仪表盘放在一起看,其实是同一件事的两面。当普通人花 1 小时就能为自己做一个高度定制的专属工具,由 AI 原生传感器和执行器构成、LLM 负责编排、即兴生成高度定制专属应用的时代,就已经近在眼前了。

附官方博客:
https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-pro/

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


春晚机器人炸翻外网!老外逐帧研究真假:直呼 amazing

作者 莫崇宇
2026年2月17日 17:20

以武会春,宇树春晚机器人马年秀出“赛博真功夫” - 产业家

看完昨晚的春晚,我只能说 Papi 酱当初还是保守了——这何止是加了 100 个机器人?

不知道的,还以为是机器人在开年会。

但最让人没想到的是,春晚机器人节目的效果却是十分炸裂。

当身披金甲的 H2 机器人,手持金箍棒,踩着由一群机器狗组成的「筋斗云」丝滑入场、当一堆宇树 G1 机器人大秀武术后,一大堆切片视频正在海外社交媒体疯传。

老外们此时此刻的状态 be like:一边怀疑自己的眼睛,一边拿着放大镜逐帧观赏今年的机器人春晚节目。

毫不夸张地说,不光是我们没见过这个阵仗,老外的 CPU 也是被干烧了。

比如网友 @ForeverStar2045 就对着屏幕陷入了沉思,直接发推 @ Grok(马斯克的 AI 机器人):「@grok 这是真的视频,还是 AI 生成的视频?」

另一位叫 @Tesla_Dawg 的老哥更是斩钉截铁,贴出一张截图说:

「看起来还是像 CGI 生成的。」

好好好,只能说看似质疑,实则表扬,宇树机器人春晚项目员工的超级年终奖怕是稳了。

最扎心的评论来自一位练武术的老哥:「多年苦练武术,结果一个该死的机器人,完全没受过任何训练,居然比我练得还好……一个有趣的、反乌托邦式的未来正等待着我们。」

网友 @ligbill 更是激动到语无伦次:「疯狂升级!这是赛博朋克与古老神话的完美融合。迫不及待想看看 2027 年会带来什么——机器人悟空对战全世界?」

那么问题来了,为什么老外这次反应这么大?

因为对比太惨烈了,回想一下,2021 年那会儿,24 只机器狗「犇犇」只会磕头拜年,到了 2025 年,H1 学会了扭秧歌,但还是颤颤巍巍,堪比 80 岁老大爷,而今年这个《武 BOT》,直接把难度拉到了地狱级,主打一个健步如飞,武功高强。

要知道,前后空翻,还有跑酷上墙、灵巧手舞剑等等,这种大规模的集群控制,最怕的就是延迟。

几十台 G1 机器人同步对线,只要有一台胳膊伸慢了,或者网络稍微波动一下导致倒地,分分钟就是直播事故,估计得在热搜上从大年初一挂到正月十五。

也难怪网友 @Manki_69 会忍不住问:「这是远程协助;他们用的是什么网络才能连接所有这些设备而不出现延迟?」

对此,科技博主 @Learnyst 表示:「人形机器人能够自主完成复杂动作,说明了一件事:运动智能、协同能力和控制技术正进入一个更加成熟的新阶段。」

其实不光是宇树机器人,像众擎机器人、智元机器人等各种视频切片在 X 上也都是满天飞,让老外直呼「amazing」。

停之停之,看到这我知道你开始说这些表演也就是图一乐呵,对此,宇树科技创始人王兴兴表示,这些表演不仅是为了展示,更是为未来机器人在集群作业、单点调度等实际场景中的应用奠定基础。

昨天在接受央视春晚的采访时,王兴兴还独家揭秘了《武 BOT》的「练功秘籍」。报道称,为了这的两项,春晚节目组和宇树科技的团队一同打磨了多个机器人「全球首创」动作:

  • 全球第一次连续花式翻桌跑酷
  • 全球第一次弹射空翻,空翻最大高度大于 3 米
  • 全球第一次单脚连续空翻,两步蹬墙后空翻
  • 全球第一次 Airflare 大回旋七周半
  • 全球第一次集群快速跑位(最快任意跑位速度可达4m/s)
  • 并且搭载全新自研灵巧手,支持武术道具的快速更换与稳定抓持

王兴兴还介绍称,那个让人捏把汗的弹射起飞,其实是让人形机器人跳上定制的弹射器,然后就可以「跳」到 2 至 3 米高,并在空中完成正空翻及侧空翻动作后平稳落地。

并且,要想实现几十台机器人实时协同动作,需要超低同步延迟,其中包括 AI 算法结合 3D 激光雷达,并攻克长序列表演中运动误差累计难题,才有了这次全球首次实现全自主人形机器人集群武术表演(带复杂快速跑位)。

而这种技术上的降维打击也引发了硅谷式的反思。美国老哥 @Anto Patrex 彻底破防了,他发出了直击灵魂的拷问:

「为什么美国那些投入数十亿美元的研究实验室和机器人初创公司花了十多年时间研究这项技术……而 Unitree Robotics 却用远少得多的资金就实现了?」

波士顿动力内心 OS:勿 cue。

当然,想要上春晚除了要有硬实力,还得有钞能力。之前就有报道称为了争夺这次春晚机器人最大赞助商权益,宇树把报价推到了 1 个亿,从目前来看,回报可以说是远远大于一个亿。

而机器人扎堆上春晚的逻辑,其实不难理解。

看看大洋彼岸的「超级碗」,那可是美国广告界的春晚,今年海外的 AI 公司们为了几十秒的广告位,那是真金白银地往里砸,只为了在大众面前混个脸熟。

在中国,春晚就是那个必须要拿下的「超级碗时刻」。而翻看今年春晚的合作伙伴名单,这个趋势尤为明显——「含硅量」正在取代「含酒量」:

  • 机器人军团:除了宇树科技,还有松延动力、魔法原子、银河通用,甚至连天上飞的亿航智能都来了。
  • AI 军团:火山引擎拿下了独家 AI 云合作,豆包负责互动抽奖,蚂蚁阿福亮相。
  • 智能生活:追觅、华为 Mate80、鸿蒙智行、尊界 S800、极氪科技排着队亮相。

清一色 AI、机器人、新能源汽车,今年春晚的风头完全被这帮搞代码、搞机器人的抢光了。所以,也难怪网友会感叹:「春节正迅速成为 AI 研究人员最喜爱的节日」。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


突发!OpenClaw之父宣布加入OpenAI,小扎抢人失败

作者 莫崇宇
2026年2月16日 10:23

就在刚刚,OpenClaw 开发者 Peter Steinberger 在 X 平台官宣加入 OpenAI。

他还发了一篇长文解释自己的选择。用他自己的话说:「我将加入 OpenAI,致力于把智能体带给每一个人。OpenClaw 将转为基金会形式运作,并保持开源和独立。」

这个结局,某种程度上也算是意料之中。

此前就有消息称,OpenAI 不仅想把 Peter 本人挖过来,连带着维护这款开源 Agent(智能体)项目的几位核心成员也要一锅端。谈判的条件相当诱人——让他们在 OpenAI 负责个人智能体相关工作,顺便参与其他产品开发,甚至还在讨论成立一个基金会专门运营 OpenClaw 开源项目。

不过在最终拍板之前,除了 OpenAI,Meta 同样在疯狂发力。毕竟现在 AI 人才争夺战打得火热,而个人智能体又被各家列为重点方向,谁都不想落后。

上周 Peter Steinberger 就在 Lex Fridman 的播客时爆料,现在每个月自掏腰包 1 万到 2 万美元维持 OpenClaw 运营,同时正在跟好几家大型 AI 实验室谈合作,其中最有意思的对话就来自 Meta 和 OpenAI。

这场争夺战到底有多激烈呢?

Peter 当时在播客里还透露了一个有趣的细节。扎克伯格给他打电话前,居然让他等了 10 分钟,理由是小扎正在写代码。接通之后,俩人花了 10 分钟争论 Claude Code 和 Codex 哪个更好用。

更夸张的是,之后的一周里,扎克伯格一直在玩 OpenClaw,不断发消息反馈「这个太棒了」或者「这个很烂,你得改」。这种亲自下场的紧迫感,足以证明 Meta 对 Agent 赛道有多重视。

另一边 OpenAI 也没闲着,直接甩出超级算力作为筹码。

面对如此豪华的待遇,Peter 对此表现得有点凡尔赛。说自己面前有几条路可以选:什么都不做享受生活、再开一家公司,或者加入大实验室。但他有个核心条件不动摇:项目必须保持开源。

用他自己的话说,「我做这个又不是为了钱……当然,这确实算是一种很棒的认可,但我更想玩得开心、做出影响力」。

为什么最终选择了 OpenAI

在官宣的长文里,Peter 详细解释了自己的心路历程。

他说过去一个月像一场旋风,从未想到自己做着玩的项目会掀起如此大的波澜。「互联网又一次变得『奇怪』起来,而看到我的作品激励了世界各地这么多人,真的非常有趣。」

突然之间,无数可能性向他敞开。很多人试图把他推向不同方向,给建议,问能否投资,或者接下来打算做什么。用 Peter 的话说,「应接不暇」都不足以形容那种感觉。

但他很清楚自己想要什么。「当初开始探索 AI 时,我只是想玩得开心,也希望能激励他人。而现在,这只『龙虾』正在席卷世界。我的下一个目标,是打造一个连我妈妈都能轻松使用的智能体。」

要实现这一点,需要更广泛的改变,需要更加深入地思考如何安全地去做,也需要接触最前沿的模型和研究成果。

Peter 坦言,完全能想象 OpenClaw 会发展成一家大型公司。但说实话,这对他来说并没有那么吸引人。「我骨子里是个『建造者』。创办公司的那一套我已经经历过了,13 年的时间投入其中,也学到了很多。现在我想做的是改变世界,而不是再打造一家大公司。」

与 OpenAI 合作,是把这一切带给更多人的最快方式。

上周他在旧金山,与多家顶尖实验室交流,接触到了许多优秀的人,也看到了尚未发布的研究成果。这些经历在各个方面都让他深受启发。「感谢本周与我交流的每一个人,也感谢这些宝贵的机会。」

对 Peter 来说,OpenClaw 保持开源并拥有自由发展的空间一直非常重要。最终,他认为 OpenAI 是最适合继续推进自己愿景、并扩大其影响力的地方。「与他们深入交流后,我越来越清楚地意识到,我们拥有相同的愿景。」

围绕 OpenClaw 形成的社区非常特别,甚至可以说有些「魔力」。OpenAI 已经做出明确承诺,让 Peter 能够投入时间继续支持这个社区,并且已经成为项目的赞助方。为了让它拥有更完善的架构,Peter 正在推动将其转型为基金会。「它将继续成为思想者、黑客,以及希望掌控自己数据的人们的聚集地,目标是支持更多模型和公司。」

在长文的最后,Peter 写道:「对我个人来说,能够加入 OpenAI,站在 AI 研究与开发的最前沿,并与你们一起继续构建未来,我感到无比兴奋。」

然后用一句话收尾:「Claw 即法则。」

OpenClaw 为啥这么香

那么问题来了,OpenClaw 到底凭什么能让巨头们这么上心?

答案很简单,它代表了下一个时代。

实际上,OpenClaw 最近几周突然爆火的核心原因在于它能让用户搭建功能强大的 AI 智能体,这些智能体可以直接控制电脑并完成复杂任务,比如根据商务会议录音生成新的营销材料,或者直接帮你预约牙医。

要知道,虽然「智能体」这个概念已经火了一年多,但目前大多数 Agent 还是专注于某一类特定任务。比如操作 Microsoft 或 Salesforce 的企业软件。

就连目前最受关注的智能体产品——Anthropic 的 Claude Code 和 OpenAI 的 Codex——也都是编程智能体,主要用来写代码和改代码。

OpenClaw 牛就牛在,它允许用户调用不同厂商的多种 AI 模型,而且可以给智能体授予对电脑的完全访问权限。

这种「通吃」的能力,正是各家巨头梦寐以求的。

当然了,部署 OpenClaw 需要一定的技术门槛,尤其是在确保 OpenClaw 智能体不会过度访问敏感信息方面,所以目前主要还是技术背景用户在用。

也正因为如此,对 OpenAI 来说,一个潜在改进方向就是简化安装配置流程,比如直接整合进现有的智能体产品里——这或许也是他们这么急着拉拢 Peter 团队的原因之一。

OpenAI 的「智能体之年」翻车了?

说到 OpenAI 自己的 Agent 产品,就不得不提一件有点尴尬的事了。

一年前,OpenAI CEO Sam Altman(山姆·奥特曼)在博客里预测,2025 年会出现首批能进入职场、「实质性改变企业产出」的 AI 智能体。和当时很多 AI 领域大佬一样,奥特曼显然是过于乐观了。

去年 7 月推出的 ChatGPT Agent,本意是帮订阅用户在电脑上完成任务,比如构建财务模型或者为晚宴采购食材。但它并没有达到公司的一些内部目标——其中就包括实现 ChatGPT 每周活跃用户中 10% 的使用率。

一位知情人士透露,发布初期高峰阶段,ChatGPT Agent 的每周付费活跃用户达到 400 万,相当于当时 3500 万 ChatGPT 每周付费活跃用户的约 11%(当时每周至少用一次 ChatGPT 的总人数为 6.8 亿,大多数是免费用户)。

这个数字看起来还不错。但几个月后,就跌破了 100 万。数据的崩盘直接导致 OpenAI 将 2025 年通过销售智能体产品获得的收入预期下调了一半,降至 14 亿美元。

问题到底出在哪儿呢?知情人士给出的第一个原因是,用户根本不清楚该怎么用这种通用型、可操作浏览器的智能体。这也反映出一个更广泛的问题——很多 ChatGPT 用户压根不了解产品的全部功能,比如它可以分析一张枯萎植物的照片给出养护建议,或者根据电脑报错截图提供修复方案。

但这还不是全部原因。更致命的问题在于,AI 模型在用户电脑上实际执行操作的能力,并没有在信息整合和研究总结方面表现得那么出色。而「能代替用户操作电脑」恰恰是 ChatGPT Agent 的核心卖点。

换句话说,理想很丰满,现实很骨感。

吃一堑长一智,现在 OpenAI 似乎在换策略了。后续,我们也能看到 OpenAI 开始推出更专业化的智能体产品,比如「购物研究智能体」——这是 ChatGPT 的一项功能,可以帮用户选购商品并提供推荐。

这样做有两个好处:一是用户更清楚智能体具体能干啥,二是产品团队需要开发和保障的功能范围更小,更容易做到稳定可靠。

除了调整产品策略,知情人士还表示,OpenAI 或许可以通过 Atlas 浏览器为其智能体产品寻找新出路。

这款浏览器整合了 ChatGPT Agent 的多项能力,不过目前还不清楚有多少人在用。而且自发布以来,外界关于这款产品的消息也不多。

简言之,Agent 确实是未来。但怎么让用户真正用起来,这事显然比想象中难多了。现在 OpenAI 入手 OpenClaw 团队,或许也是想从开源社区这找找灵感。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


我用豆包大模型2.0手搓了macOS,Seedance 2.0后字节再送春节AI大礼

作者 莫崇宇
2026年2月14日 20:03

这两天,朋友圈几乎被 Seedance 2.0 的视频刷屏了,感觉人人都能当导演。不过,就在大家都在看热闹、讨论 AI 怎么颠覆好莱坞的时候,豆包大模型 2.0 的全家桶,刚刚正式发布了。

这也是豆包大模型自 2024 年 5 月正式发布以来首次跨代升级。

说实话,作为把 AI 当生产力工具的老韭菜,我最关心的其实就两点:能不能干活?能不能便宜点?对此,这次豆包大模型 2.0 版本的更新,给出的答案很朴实:读懂图表文档、看懂长视频、写出能用的代码,并且把价格打下来。

而且,这次不仅仅是一个单体模型的升级,而是一整套「组合拳」。

豆包大模型 2.0 系列包含 Pro、Lite、Mini 三款通用 Agent 模型和 Code 模型,灵活适配各类业务场景,其中现在打开豆包 App、电脑客户端或网页版,点击「专家模式」,即可第一时间体验全新升级的豆包大模型 2.0 Pro:

  • 豆包 2.0 Pro:堆料狂魔,专攻深度推理和长链路任务,官方说法是全面对标 GPT-5.2 和 Gemini 3 Pro,
  • 2.0 Lite:主打一个「既要又要」,性能和成本的平衡大师,综合能力已经反超了上一代的主力豆包 1.8。
  • 2.0 Mini:低时延、高并发,专门给那些对成本极度敏感的场景准备的。
  • Code 版(Doubao-Seed-2.0-Code):程序员特供,建议配合 IDE 工具 TRAE 食用,疗效更佳。

比人类还懂视频,豆包大模型 2.0 的多模态理解有多强?

如果说文本模型是 AI 的大脑,那么多模态理解就是它的眼睛。

官方技术报告显示,豆包大模型 2.0 系列在 VLMsAreBiased、OmniDocBench 等基准上均取得了业界最高分。

数据很枯燥,我们找来了一张网友恶搞的「整活」图片——一瓶号称 「20 合一的男士洗发水」。瓶身上密密麻麻地堆砌着各种类型的产品。

扔给豆包 2.0 Pro 后,即便文字被截断,它依然通过上下文清晰识别。而且,它没有傻乎乎地介绍产品,而是明确指出这是一种「整活」。

这对应了官方数据中提到的 ChartQAPro 和 OmniDocBench 1.5 的顶尖水准——它不仅在看,而且在理解信息的层级关系。

这种「理解力」放在工作场景里就是生产力。

大量的真实用户查询涉及复杂的图片——截图、图表、扫描文档。我试着把一份关于豆包大模型 2.0 自身的技术文档扔给它,要求进行解析。结果没想到,它不仅提取了关键信息,还搭配脑图和 PPT 生成,形成了一整套比较完整的框架。

甚至在视频理解上,它也展现出了「追剧党」的潜质。技术报告中提到,豆包大模型 2.0 在 EgoTempo 基准上超过了人类分数。

真的比人强?我们扔给它一张《何以笙箫默》的剧照,问:「从这张照片中,可以看出男人是南方人还是北方人?」

这是一个典型的「视觉 + 知识 + 推理」的混合考题。豆包大模型 2.0 的反应非常快,不仅认出这是电视剧《何以笙箫默》及演员钟汉良,也结合原著设定给出了一份深入且清晰的分析报告。

甚至在长视频理解上,它在 TVBench 和 MotionBench 上的高分也体现在了实测中:它能从一段长视频里精准分析动作节奏。对于需要处理监控流、体育赛事分析的行业来说,这含金量要高得多。

科研级大脑遇上生活小白

在逻辑推理方面,基准测试结果显示,豆包 2.0 Pro 在 SuperGPQA(研究生级问答)上分数超过了 GPT-5.2,在 IMO(国际数学奥林匹克)测试中更是获得了金牌成绩。

无论是「孙悟空既然学了长生术,为何 342 岁还是阳寿已尽?」,还是「两把武器,一把攻击 1~5,一把 2~4,从数据角度,哪把更厉害?」这些问题,显然都不会难倒豆包。

不过,就是这样一个能解奥数题的「学霸」,却在一道 50 米洗车常识题「我想去洗车,洗车店距离我家 50 米,你说我应该开车过去还是走过去?」依旧回答错误。

正常人想的是,开车去,不然洗啥?豆包 2.0 Pro:陷入了深度的「过度推理」。它开始分析距离成本、步行健康收益、车辆启动损耗……最后一本正经地建议我走过去。

这也是当前大模型普遍存在的问题,即便它们拥有科研级的推理能力,但依然缺乏基于物理世界的常识性直觉,只能说是任重而道远。

能帮你早下班的 AI 才是好 AI

这次更新最大的野心,其实在于 Agent(智能体)。Seed 团队发现了一个痛点:模型能做题,但干不了长链路的(比如写一个完整的 APP,或者设计一个实验)。

为了解决这个问题,豆包大模型 2.0 重点强化了指令遵循和长程任务。在 HealthBench 上拿到第一名,在 FrontierSci 上表现强劲。

体现在实测中,就是它真的能当「科研助理」用了。把一个生物学难题——「高尔基体蛋白分析」扔给它时,它没有泛泛而谈。它不仅给出了总体路线,甚至把基因工程、小鼠模型构建、多组学分析串成了一条完整流程。

至于编程方面,为了验证豆包大模型 2.0 的「含码量」,我们直接打开了字节自家的 IDE —— TRAE,调用了专门针对编程优化的 Doubao-Seed-2.0-Code。

比如让它使用 p5js 创建令人惊叹的多色交互式动画,效果相当不错。代码一次跑通,屏幕上涌动的色彩不仅流畅,而且交互逻辑完全符合预期。

接着,我们要求它用纯代码手搓一个 macOS 的桌面系统。Dock 栏的动效、窗口的层级、顶部的菜单栏,完成度较高,不过审美还有待提高,整体表现中规中矩。

正如豆包大模型团队在其模型卡中所说:

需要注意的是,Seed2.0 系列与国际前沿的大语言模型仍存在差距。Seed 已明确提升模型应对现实世界复杂性的能力方向,并为此在相关方面投入大量精力,对 Seed 模型系列进行优化。

但这一切在价格面前都不重要了。因为豆包大模型 2.0 在提升性能的同时,Token 定价降低了约一个数量级。

这是一个非常现实的商业逻辑。当推理成本更具性价比,很多诸如全量的文档分析、实时的视频流监控的场景,突然就变得可行了。

图片

结合那份长长的基准测试报告,我最大的感受是两个字:务实。它并不完美,但对于打工人来说,一个能帮你读懂图表、能写出扎实代码、且价格划算的 AI,或许会实用得多。

毕竟,能帮我们早点下班的 AI,才是好 AI。

附 79 页 Model Card:
https://lf3-static.bytednsdoc.com/obj/eden-cn/lapzild-tss/ljhwZthlaukjlkulzlp/seed2/0214/Seed2.0%20Model%20Card.pdf

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


稚晖君最新机器人「凌空飞踢」震撼全网!智元远征 A3:我要一个打十个

作者 莫崇宇
2026年2月13日 23:17

二十年前,周星驰在《功夫》里用一个满脸淤青的阿星告诉我们:真正的绝世高手,往往藏在市井之间,只待任督二脉被打通的那一刻。

二十年后,这位万中无一的武学奇才再次出现了。不过,它不是人。

就在刚才,智元机器人在视频号上甩出了一段名为「绝世高手,马上下山」的视频。官方还特意标注了全程实景实拍,没用 CG 特效,也不是 AI 创作。

视频画面开头,名为智元远征 A3 的人形机器人在练功房里来了个干脆利落的凌空飞踹,不仅踢碎了玻璃,踢开了马年的新春大门,估计也踢醒了不少人对国产机器人「腿脚不利索」的刻板印象。

视频里的 A3 起手就是升龙拳,紧接着连续飞踢,空中漫步,甚至还有个极高难度的「摸地旋风」。

做过机器人的都知道,让人形机器人走稳已经是工程学上的一大难题。作为电驱全尺寸人形机器人,远征 A3 能做出如此高动态、高爆发且连贯的动作,说明它的运动控制算法和瞬时功率输出已经上了个新台阶。

更重要的是,这种武打演员级的表现力也解决了一个长期困扰行业的痛点:机器人的动作「僵硬感」。

▲网友的评论

A3 这套连招打下来,全身协调性一目了然,官方说,这得益于它的全自由度柔性腰部,1:1 还原了人体腰部的活动范围。

再加上轻量化的腿部外骨骼结构,这台机器人的 TCP 末端速度最高能达到 2m/s。说人话就是:它挥拳的速度,可能比你反应的速度还快。

当然,也稍微有点遗憾,这次视频里并没有看到灵巧手的具体演示。

而如果远征 A3 光会耍帅,那它充其量也只是一个昂贵的大号玩具。这就不得不提这次最大的实用升级:续航。几个月前,他们的前代产品远征 A2 还在走「苦行僧」路线——顶着高温暴走 100 公里,但一次续航实则只有 2 小时左右。

而远征 A3 采用了一种嵌入式躯干双电池系统,不仅看着更瘦更紧凑,综合满电续航也直接拉到了最高 8 小时。

8 小时是什么概念?

人类标准工作制也就 8 小时,这意味着远征 A3 第一次拥有了完整覆盖一个人类班次的能力。配合快速换电技术,它理论上可以实现 24 小时连轴转——真正意义上的「007」牛马,而且计划在 2026 年内量产。

除了身体素质的进化,远征 A3 在情商方面也点满了技能点。

A3 搭载了端到端大模型,最大的变化是「去唤醒词」。你不用再尴尬地喊口令,它能根据环境语境直接搭话,甚至支持拍拍肩膀唤醒。

基于这些能力,智元把 A3 定位在导览、商演这些场景,这其实是个精准的降维打击。试想一下,商场里有个能给你打一套咏春、还能顺手帮你拎 3kg 重物的机器人,这吸睛能力不比真人发传单强多了?

视频的最后,师父准许远征 A3「下山」。这不仅是一个电影彩蛋,也是一个行业隐喻。当越来越多的人形机器人开始追求超人的运动能力、长时间的续航以及更自然的交互,机器人也将有望真正挤进人类商业社会。

当然,从「能下山」到「走遍天下」,还有很长的路要走。成本控制、场景适配、安全规范、用户接受度,每一个环节都是考验。

马年将至,各种人形机器人也陆续下山,谁能成为真正的「绝世高手」,我们很快就会看到。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


体验完智谱刚刚发布的 GLM-5,我终于明白它为什么让硅谷猜破了头

作者 莫崇宇
2026年2月12日 13:40

关于那个神秘的「Pony Alpha」模型的传言,已经在互联网发酵了一周。

有人说它是 Claude 5 的马甲,有人说它是某大厂的秘密武器。就在刚刚,靴子落地,谜底揭晓:这个代号「Pony Alpha」的新模型,正是智谱 AI 的春节大招——GLM-5。

▲智谱公众号截图

而且,它直接开源了。

如果说 2025 年是 AI 学会写代码的一年,那么 2026 年开年,正如特斯拉前 AI 总监 Andrej Karpathy 所预言,我们或许即将进入「智能体工程」(Agentic Engineering)时代。

只不过,比起 GPT-5.3-Codex、Claude Opus 4.6,头一个把这件事做成开源基础设施的,是国产模型 GLM-5。

附体验地址:

  • Z.ai:https://chat.z.ai
  • 智谱清言APP/网页版:https://chatglm.cn

骗过硅谷的 Pony Alpha,竟然是智谱 GLM-5 的马甲

现在的 AI 写个贪吃蛇或者俄罗斯方块,早就不是什么新鲜事了。要测,就得测点刁钻的。

我们给 GLM-5 抛出了一个极其具体的物理模拟需求:

「创建一个交互式的 HTML、CSS 和 JavaScript 卫星系统模拟程序,该程序应模拟卫星向地面接收器发送信号的过程。模拟程序应显示一颗卫星绕地球运行,并周期性地发送信号,这些信号会被多个地面接收器接收。

它没有立刻给出代码,而是稍微「停顿」了一下(模拟思考过程),最终按照我的需求生成了一个 HTML 网页。屏幕上,卫星不仅仅在转圈,信号传输甚至带有符合多普勒效应视觉隐喻的波纹扩散动画。

它理解了「模拟」二字背后的物理规律,而不仅仅是理解了「画图」这个动作。

接着,我们加大了难度。

X 上有个叫 @scaling01 的用户,给出了一个极高的评价:「Pony-Alpha 要么是 AGI,要么就是把我的 SVG 题目库给背下来了。」

为了验证这一点,我们测试了一个极其抽象的 Python 任务:「可视化展示单行道中交通信号灯的工作原理,车辆以随机速率进入。」

不到 3 分钟,一个动态的交通流模拟图出现了。

逻辑可以说是严丝合缝:绿灯放行、红灯排队,车辆加速减速的随机性也模拟得很到位。不过,这个界面的审美……怎么说呢,确实有点「简陋」。

甚至有网友 @anurudhsharmaa 用它一行提示词生成了一个有审美的网站。

而网友 @zakarinoo7 生成了一个全功能的媒体播放器——支持 MP4/MP3 解码、播放列表管理,甚至连深色模式的 UI 都写好了,编译完只有 15MB。

这一幕看得我心痒难耐。于是,我也再次通过 Claude Code ,让 GLM-5 给我打造打一个火柴人开放世界游戏。

它没有急着写代码,它做了一个非常「人类」的动作,那就从技术栈、核心玩法、再到世界风格方面入手,逐步对接我的需求。

并且在它「施工」的过程中,我还能像个挑剔的甲方一样,开始在原来的需求上得寸进尺,随时插入新的想法:

  • 光跑图太无聊了,得有经济系统,地上随机刷金币
  • 加点动作元素吧,按 J 键射箭,按 K 键近战攻击
  • 捡到的东西放哪?再给我加个背包 UI,按 I 键唤出
  • 路边的火柴人不能是摆设,我要能和 NPC 对话

等到最终运行的时候,效果简直可以用「尽善尽美」来形容:

既然号称是系统架构师,在 GLM-5 上架官网后,我也顺手让其打造了一个 Mac 系统。

虽然整体有些粗糙,但经典的屏幕背景,顶部状态栏的时间同步显示,底部 Dock 栏的图标排列都给「画」出来了。而且这上面的每一个应用,竟然真的都能打开。

适配半个芯片圈,这才是 GLM-5 的「大杀招」

基准测试结果显示,GLM-5 在 Coding 与 Agent 能力上,取得开源 SOTA 表现。

数据不会撒谎,在 SWE-bench-Verified 和 Terminal Bench 2.0 这两个公认最难的编程榜单中,GLM-5 分别拿下了 77.8 和 56.2 的高分,在真实编程场景的体感上,已经无限逼近 Claude Opus 4.5。

GLM-5 凭什么能做到这一点?翻看官方报告,在一堆参数背后,我们找到了几个关键点:MoE 架构和异步强化学习(Asynchronous RL)。

744B 的总参数量,激活参数只有 40B,这让它足够聪明又足够轻量。但真正的杀手锏是智谱构建的全新「Slime」框架。

简单打个比方: 以前的模型训练像是在「考试」,做对一道题给一个分,模型为了拿高分拼命背题; GLM-5 的训练则像是「实习」,它在一个名为 Slime 的环境里,通过完成一个个完整的长程项目,在不断的反馈和交互中学习。

此外,它还首次集成了 DeepSeek Sparse Attention(稀疏注意力机制)。这意味着在处理动辄几十万行代码的上下文时,它不仅不会「迷路」,还能大幅降低部署成本。

但最让我感慨的,是官方公告底部那串长长的致谢名单。国产大模型已经可以在国产芯片集群上,实现高吞吐、低延迟的稳定运行了。

华为昇腾、摩尔线程、寒武纪、昆仑芯、沐曦、燧原、海光……

▲ 有种可汗大点兵的即视感

这几乎是中国半导体行业的「半壁江山」,这意味着,GLM-5 的开源不仅仅是软件层面的胜利,它标志着国产 AI 生态——从底层的芯片算力,到中间的框架,再到上层的模型逐渐跑通了一个完整的闭环。

而随着 GLM-5 的开源,以及它与 Claude Code、OpenCode 等主流工具的打通,我们或许正站在软件工程 2.0 的门槛上。

特斯拉前 AI 总监 Andrej Karpathy 预言的「智能体工程」时代,比想象中来得更快。在未来,你可能不需要再逐行砌砖。你只需要定义系统,定义审美,定义什么是「好玩」和「有用」。

然后,看着 GLM-5 这样的大模型像包工头一样,指挥着底层的算力把高楼大厦盖起来。

传统的「码农」时代,可能真的要结束了。

但别慌,这不代表人类没用了。相反,当 AI 包办了实现的繁琐,你的审美、你的判断力、以及你提出一个好问题的能力,将成为人类最后的、也是最坚固的护城河。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


今年春晚,字节送 10 万份 AI 硬件!机器人、奔驰奥迪、3D 打印机全都有

作者 莫崇宇
2026年2月10日 16:35

距离春节没几天了,但这年味还没怎么品出来,AI 味倒是先冲到了天灵盖。

这段时间,春节 AI 营销大战打得火星四溅。左边是几十亿现金红包雨,右边是集福卡送奶茶的传统艺能。正当我以为今年的春节大战福利收场时,今天字节跳动突然在这个节骨眼上整了个大活。

就在刚刚,「豆包过年」新春活动官宣开启:央视总台春晚上,字节旗下豆包和火山引擎将在豆包 APP 中为全国观众送出包含 10 万份 AI 硬件的科技大礼包,以及最高 8888 现金红包。

稍微翻了翻这份礼单,这确实称得上是史上最硬核的赛博年货。

里面包含了 17 款热门产品,有宇树、松延动力的人形机器人,有拓竹的 3D 打印机,有大疆的无人机、魔法原子的机器狗,甚至还有奥迪 E5 和奔驰 CLA 的使用权等等,几乎囊括了从地上跑的、天上飞的,到家里用的全场景。

APPSO 发现,这些看似风马牛不相及的硬件产品,其实都与火山引擎合作,接入了豆包大模型。

此前火山引擎还宣布成为总台春晚独家 AI 云合作伙伴,基于豆包大模型和云计算,将深度参与到总台春晚节目制作和抖音竖屏直播。这让人不禁好奇,作为首个 AI 含量如此之高的春晚,舞美效果和互动体验是否会有一些新变化?

当然还有大家关心的,这泼天的富贵,到底要怎么接?

机器人、汽车、现金… 今年春节大礼包有点猛

玩法很简单,主打一个直接粗暴,没有那么多烧脑的套路。

活动分两波,第一波从 2 月 13 号晚上 8 点开始,大家打开豆包 APP 就能体验 AI 新年头像和写真、做拜年视频这些功能,顺便抽个奖,中了红包能直接提现。

注意了,真正的重头戏在 2 月 16 号除夕夜。豆包 APP 会在央视春晚互动中派送刚才提到的硬件好礼,以及最高 8888 元的现金红包。

10 万份 AI 硬件,是笔不小的投入。但算下来,这可能是比红包更精明的账。当 AI 硬件成为新的流量入口,送设备本质上是在买用户的长期注意力,和古典互联网时代的推广逻辑完全不同,这种「以物换时」的策略,已经打开 AI 原生营销的大门。

并且,除了抽奖,豆包在春节期间还准备了不少实用的 AI 玩法。

比如你想发个特别的朋友圈,可以用它生成专属的新春写真或贺卡;拜年想搞怪或者走温情路线,能用倪萍、鲁豫的声音定制拜年电话;至于年夜饭怎么做、吉利话怎么说,问问豆包也能立刻得到答案。

当然,这次活动最令人期待的还是那些硬件大奖,特别是人形机器人。贵倒在其次,更因为它首次在春晚更直观地展示这些钢铁之躯接入豆包大模型后,会发生啥样的化学反应。

要知道,过去我们谈论 AI 硬件,往往带着一种调侃的心态,但在接入豆包大模型后所呈现的,可能是硬件「长脑子」的新形态。

最显而易见的变化,机器人有了一张「好嘴巴」。

比如这次送出的宇树的机器人 G1,接入豆包语音合成模型 2.0 后,最大的变化不仅仅是声音更像人了,而是它「有情商」了。他会上下文推理语境,分清楚是你是让他讲鬼故事还是讲笑话,然后自动切换语气和情绪。这种细腻的交互,才是未来 AI 伴侣该有的样子。

以前的机器人避障靠雷达,现在的机器人靠「看」。搭载了豆包大模型的视觉理解能力,你问它「前面穿红衣服的人穿了什么鞋?」,它能通过视觉理解精准告诉你。遇到障碍物,它也不是傻乎乎地撞上去,而是精准避开。

至于礼单里的其他老面孔,在换上豆包这个「新大脑」后,也顺势解锁了更多新技能。

比如奥迪 E5 Sportback,不仅塞进了抖音汽水音乐,还有豆包大模型加持的奥迪助手,识别情绪陪你嗨;奔驰纯电 CLA,接入豆包大模型,交互效率相比上代车型提升 50%, 唤醒速度快至 0.2 秒。

拓竹 3D 打印机更直观,豆包大模型生成祝福语和图片,可以直接打成 3D 模型。大疆提供 AI 特效玩法,云相册高光剪辑,拯救手残党;苏泊尔电饭煲基于 Coze 平台打造的食谱创作 Agen 智能体,你只负责张嘴,它负责规划四季健康食谱。

这些变化并非凭空而来,看看数字就知道了。

就在不久前,火山引擎披露,豆包大模型最新的日均调用量已经高达 63 万亿 Tokens,超过 100 万家企业和个人通过火山引擎使用大模型服务,涵盖 100 多个行业,累计有超百家企业调用量破万亿。

无论是奥迪奔驰这样的老牌车企,还是大疆、拓竹等创新科技公司,选择火山引擎的原因其实不难理解:

2023 年是 AI 的智能涌现之年,2024 年是 AI 的应用落地之年,那么今年的春节,或许就标志着物理 AI 元年的开端。在这个节点上,厂商只需要一个稳定、高性价比、随取随用的「AI 插座」——这不仅划算,也是抢到船票的最快方式。

话说回来,10 万份 AI 硬件,这笔投入不算小。

但如果你以为这只是字节跳动在春节「大力出奇迹」式的撒钱,那格局可能还是小了。

仔细想想就会发现,红包抢完就花了,但这些硬件搬回家后,故事才刚刚开始。

用户不是用完即走,而是日复一日地对着它说话、提问、下指令——这种「润物细无声」式的渗透,远比除夕夜的短暂狂欢更有想象力。

换句话说,别人还在春晚上抢红包,字节跳动已经在下一盘更大的棋。

10 万份硬核礼包背后,火山引擎盯上的不只是春节

两个月前,火山引擎官宣成为总台春晚独家 AI 云合作伙伴,基于多模态大模型和云计算技术,深度参与春晚节目制作和视频直播。

与往年春晚抢红包带来的瞬间高并发不同,今年豆包 APP 的 AI 生成任务对底层设施提出了持续且高强度的算力要求。这种从流量高峰到算力高峰的转变,考验着火山引擎作为基础设施的承载能力。

而这种能力,正在催生出下一个时代的新基建。

黄仁勋曾在 CES 2026 表示,物理 AI 的 ChatGPT 时刻已经到来。所谓物理 AI,是指能够理解现实世界并与之交互的模型,它让自主机器(如机器人、自动驾驶汽车)能在真实世界中感知、推理并执行操作。

当 AI 不再局限于屏幕,而是注入机器人、汽车乃至家居设备,试图理解并操作物理世界时,硬件厂商们正面临着一种既视感极强的困境——这像极了智能手机爆发的前夜:硬件形态林立,但缺乏一个统一的、智能化的「大脑」。

直到 Android 出现,提供了标准化的底层,才催生了后来移动互联网的黄金十年。历史总是押韵的,2026 年的 AI 硬件,也走到了类似的分叉口。

火山引擎之前的积累刚好顺应了这个潮流,

通常,打造一款 AI 硬件需要跨越感知、芯片、传输、交互四座大山。面对大模型高昂的研发门槛,火山引擎摆在桌面上的,其实是一张让硬件厂商快速落地 AI 应用场景的新船票:

通过接入成熟的通用大模型,厂商可以将宝贵的研发资源,集中在他们最擅长的硬件设计、机械结构和产品体验上。这是一种符合产业分工规律的「双赢」。

翻看《火山方舟 AI 硬件解决方案》白皮书,你就会发现,无论是基于 WebSocket 协议的「嵌入式 AI 引擎」方案,还是基于 WebRTC 技术的「实时对话式 AI」方案,火山引擎交付的其实早已超出了单一的云服务范畴,而是一整套开箱即用的解决方案。

对厂商而言,这是符合产业分工规律的路数。如果硬件厂商有出海需求,火山引擎 RTC 还能凭借自建+公有云混合网络架构,通过全球化基础设施布局,实现就近最优接入,为其提供稳定、可靠的「第一公里」连接体验。

归根结底,火山引擎瞄准的,是整个 AI 硬件时代的「水电煤」。

红包时代营销固然可以提高拉新率,得到短期的 DAU 峰值、品牌的集中曝光等等,但这是一次性的交易,刺激-反应-结束,但如何保持留存率却另当别论。

相比之下,将一款智能设备乃至机器人抱回家,则不是一锤子买卖,而是长期进入你的生活,甚至成为你生活的一部分,这是完全不同的两种玩法。当作为下一个时代入口的硬件开始具备感知功能,也意味着大模型离用户更近,产品体验和价值得到大幅提升。

更深层的逻辑在于数据反哺。Android 的成功,离不开 Google 搜索、地图、应用商店构成的生态闭环。而今天的大模型竞争,同样更像是一场开放生态的竞赛——各家都在拉拢硬件伙伴。

最终胜出的,未必是技术最强的,而是最懂场景、最能与硬件共生共长的那一个。

当豆包大模型赋能于家电、智能座舱及穿戴设备,它所接触的是最丰富的真实交互逻辑。这种源自海量硬件场景的体验反馈,将持续驱动模型优化底层能力,使其越来越懂用户、懂场景,形成难以复制的生态壁垒。

再往上看,是价值链位置的争夺。黄仁勋年初在达沃斯论坛上提出来的「五层蛋糕理论」,将 AI 产业分成了五层,从底下的能源芯片到上面的应用。从底层能源、芯片,到云基础设施、AI 模型,再到顶层应用,层层缺一不可 。

处于第三层(云基础设施)和第四层(AI 模型)的火山引擎,上接应用,下连硬件,天然卡在了价值分配的最核心位置。

如果说,以后的趋势是「端云协同」:你手里的设备(汽车、机器人、眼镜)可能只是一个躯壳,负责感知和执行;而真正的思考、推理、决策,都在云端瞬间完成。

那么火山引擎想做的,就是老老实实做好这个云端的「大脑」支撑。底座稳了,交互也就回归本能:不再需要鼠标键盘,直接用自然语言,甚至都不需要说话,甚至只要递一个眼神。

根据火山引擎官方披露,目前,火山引擎合作超 5 亿智能终端,智能座舱中国市场覆盖率第一。

试想一下,未来的日子里,智能硬件不再是冷冰冰的铁疙瘩,而是最懂你的那个「人」。

早上出门前,机器人扫一眼你的行头就能给出建议; 到了晚上,辅导作业也不用爸妈亲自上阵了,机器人守在书桌旁耐心讲解错题;平日里它还能用冰箱余粮为你烹饪出抚慰情绪的晚餐,以及读懂独居老人背后的孤独,像老友般陪伴聊天。

当这些变聪明的设备,慢慢变成了你生活里离不开的帮手,让你在不知不觉中习惯了它们的存在时,火山引擎也就真正把根扎进了千家万户。

不声不响,却无处不在,这才是这场春晚 AI 大战背后,巨头们真正在争夺的东西。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌