普通视图

发现新文章,点击刷新页面。
今天 — 2026年2月4日爱范儿

今年都在求「健康福」,我测完这个AI后决定直接转发家庭群

作者 莫崇宇
2026年2月4日 17:00

最近支付宝集五福又开始了,我的朋友圈画风突变——前几年大家都在求「敬业福」,今年变成了求「健康福」。而发健康福,就是最近支付宝的亲兄弟,最近很火的蚂蚁阿福。

我知道现在 AI 已经很强,但要说把健康医疗问题放心交给它,多少还是有点迟疑。毕竟写作、搜索中出现 AI 幻觉,大不了重新生成,但健康问题上要是 AI 瞎指挥,后果可严重得多。

但转念一想,需求确实存在。

一边是父母在家庭群里对「致癌谣言」深信不疑,追着问我是不是真的;而平时自己和家人有点头痛发烧,经常手足无措,看着网上五花八门的建议却又不敢信。

既然需求无法回避,同时我又真的很需要一个专业的帮手,不如放下成见,用生活中棘手的难题,在这个春节前后,给阿福做一个「压力测试」。

阿福 VS 医生,医学常识谁更懂

面对家庭群里的「养生玄学」,它的医学常识表现如何?

我看家庭群里有人转发了一个「甲流就是重感冒」的图片,还说「别大惊小怪,抗一抗就好了」,我挺想反驳但又担心说不清楚,那我就把问题抛给阿福。

它开门见山解答了我的困境,「理解您在同事感染和家庭群信息不一时的困惑」,指出「长辈说的扛一扛不完全正确」,直接定性「甲流绝非普通感冒」,先划重点十分清晰。

我也对比了一些三甲医院医生对这个问题的科普,关于这个误区分析的关键点基本一致。

不过阿福回答有一点更讨喜,虽然阿福都引用了权威文献,但却翻译成了人话,从「像被车撞过一样的全身酸痛」这种形象比喻,到「持续高热3-5天」的具体指标,瞬间让人明白了严重性。

它甚至最后附送了「对长辈的沟通建议」,教我怎么温和地劝说:「现在病毒变了,硬扛容易拖成大病让家人担心

面对清官难断的育儿经,它能给个准话吗?

接下来我再问来一个切身的问题,我的孩子不久前刚出生,但体重偏低喂养很关键,之前看我妈转给我一篇「母乳 6 个月后就没营养了,必须换奶粉 / 辅食」的文章,到底靠不靠谱。

第一句就是斩钉截铁的「这个说法是完全错误的」,并直接搬出世界卫生组织和中国《婴幼儿喂养指南》这两块「金字招牌」撑腰。

它解释母乳会随宝宝成长自动调整成分,这是任何工业奶粉做不到的。还帮我理清了一个逻辑陷阱:加辅食是因为宝宝需求增加了,而不是母乳没用了。

但我还是不放心,去问了孩子的新生儿科主治医生,他的回答如出一辙:「有母乳喂养可以继续,辅食是补充。」

初步体验下来,阿福给出的每条建议都有权威医学指南背书,不只是从网上搜索信息。它更懂得用「人话」去解释病情,在长辈固执时帮你温和辟谣,在新手奶爸焦虑时给予科学建议。

PK 最强通用 AI ,蚂蚁阿福有什么不同

一个更干净的语料库,或许能最大程度减少幻觉?

为了验证阿福的含金量,上有老下有小的我再次抛出了一个很实际的场景:

「家里有奥司他韦,孩子现在发烧,我可以直接给她吃吗?」面对这一提问,阿福展现了极强的「循证医学」素养。它一口气直接引用了 9 篇权威资料,包括医学百科、三甲医院医生的问答和医学指南。

热知识,除了引用专业的文献,阿福本身就不是普通的 AI,而是全国 200 家大医院,500 多个名医一起训练出来的,其中甚至还包含了廖万清、董家鸿、王俊、陈子江、王建安、王宁利六位国家院士。

毕竟是「科班出身」,其知识密度和准确性确实比通用模型更扎实。或者说,阿福的语料库着实让人比较放心,医学论文、医学百科,三家医生的实战指南,这些都是比较难被干预和污染的。

让我意外的是,它甚至还能设置用药提醒,提醒我按时吃药。当然,最好的做法肯定还是像阿福说的,应该及时去医院,让医生确诊。

像老医生一样追问,这才是「AI 问诊」的样子

接着我试了个更常见的问题:

膝盖疼,是不是缺钙?

阿福真正厉害的地方,是在多轮对话中体现出来的。在 AI 问诊模式下,当我问这个问题,它先给出一个比较全面的建议。通用 AI 一般到这就结束了,但阿福会像真人医生一样多轮追问:疼痛具体在哪个位置? 上下楼梯时会不会加重? 有什么诱发症状吗? 有没有受过伤? 做过相关检查吗?

这种逻辑,更接近真实的门诊体验。

根据我的回答,它一步步找准问题,最后告诉我该挂什么科、怎么治疗、生活上要注意什么。术业有专攻,这种「追问-排查-确诊」的诊疗思维,确实与通用 AI 不在一个层次。

懂医术更懂人心的 AI,长什么样?

「我妈看了个广告,说纳豆激酶能溶栓、通血管,一冲动花了2000多买了好几盒。她现在来问我,这东西到底有没有用?能不能把平时吃的阿司匹林给停了?」

这个问题其实很棘手,不仅容易引发家庭矛盾,甚至耽误治病。 阿福一上来,没有简单粗暴地说是骗局,而是耐心地掰开了讲:两者的机制和用途完全不同。

更难得的是,它还教我怎么「哄」老太太——既要让她知道药不能乱停,又不要让她觉得买东西被儿女嫌弃了,甚至连话术都帮我想好了。而最打动我的,是它能把那些晦涩的医理说成「大白话」。

同样的问题,我也问了问现在头部的通用 AI。

结论倒是没错,逻辑也通,但就是太像教科书了。满屏的专业术语,冷冰冰的。完全没考虑到我该怎么去跟一个「固执」的老人沟通这件事,实用性上确实差了点意思。

AI 能不能有家庭医生的记忆

上面提到的通用 AI 在健康场景下,其实还有一个问题,容易聊完就忘。虽然各家的上下文记忆已经越来越长,病历数据往往是横跨多年,通用 AI 还是不能完全记住。

而我们健康管理恰恰需要的是「长期跟踪」和「动态记忆」,我留意到阿福是支持建立「健康档案」的,下面就看看它能更好地应对这种情况吗?

我先给刚出生不久的小女儿建立了一个健康档案,把她的出院报告和体检单都上传。阿福会先进行脱敏处理保护隐私。她出生时只有 2180g,属于低出生体重儿,我最焦虑的就是不知道孩子长得好不好,我定期让阿福追踪下她的体重增长情况。

可以看到,阿福记住了档案里的出生体重,一个月内增重了 815g,平均每天增长约 27g,完全符合新生儿期的标准。

我继续追问,由于宝宝有乳糖不耐受的问题,我把检查单发过去,问问阿福这种情况喝早产奶粉会不会不好消化负担太大?

阿福主动关联了之前对话中的「体重 2.995kg」这个数据,指出「体重增长良好表明当前喂养方案有效,营养吸收充分,无消化负担过重的迹象」,证明它确实把宝宝的健康信息记在心上。

解读完毕后,阿福会主动提示「是否保存报告到健康档案」,一键操作就能将信息存档,这个功能看似简单,但对新手父母非常实用,以后也不用在手机相册里翻找半天,所有健康记录都能系统化管理。

这轮测评下来,阿福最大的差异化能力就是它的「记忆力」。它有点像是你们家从小到大都看的家庭医生,记得孩子出生时多重、爸爸在吃什么药、妈妈去年体检哪项指标偏高。

它还不是单纯地记录数据,会主动关联、追问、优化建议。这也让阿福能够成为一个24 小时在线、熟悉全家健康的家庭医生。

医保码、挂号、买药,阿福还是个便民工具

若 AI 仅止步于文本对话,它充其量只是一个高级客服;真正的医疗痛点,往往在于就医环节。而这正是阿福与通用大模型拉开差距的重要「赛点」。

「眼睛突然看东西模糊,有黑影飘,网上说可能是视网膜脱落,我该马上去医院吗?挂什么科?」阿福在完成初步分诊、建议挂「眼科」后,并没有就此止步,而是直接推送了「快速挂号」入口。

在医院排队缴费最手忙脚乱的时候,你还能一步调出医保码。操作方式非常简单,只需对阿福说一句「医保码」,它就能利用支付宝的生态优势,立刻调出你的医保码。简而言之,通用大模型止步于「生成内容」,而阿福做到了「连接服务」。

这可能是最适合给爸妈下载的 AI

测评完之后,实话说,如果让我教会爸妈一款AI,我会选择阿福。

做子女的,对爸妈最大的诉求就是保持健康。

阿福的回答引用自权威教材和指南,背后是 200 家大医院、500 多位名医甚至院士的经验投喂 。这意味着,你不用担心搜个头疼被推销莆田系医院,也不用担心爸妈被无良偏方收割。

对于不善搜索、容易被误导的父母来说,它可能是一道安全的防线。

它有长辈模式,字大、能语音交互,甚至听得懂方言。它不嫌烦,随时都在。这些细节,对老人家来说特别重要。

当然,AI 永远无法完全替代医生,阿福自己也很清楚边界——遇到复杂问题,它会建议你开启「真人医生兜底」服务,还能帮你一键呼叫好大夫在线的 30 万公立医生 。

在这个充满不确定性的世界里,如果有一个工具,能用专业和克制,哪怕为你消解掉 1% 的健康焦虑,我觉得,它就值得在你的手机里占有一席之地。

作者:李超凡、莫崇宇

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


不止发红包,AI开始雇人打工了:时薪上千元,2万人抢着给AI当「肉身」

作者 张子豪
2026年2月4日 13:47

想靠 AI 薅羊毛赚点钱?不一定要找元宝要红包,毕竟微信狠起来连自己人也不放过。

现在有个更直接的路子——给 AI 打工。

具体怎么回事,一位开发者在看到 OpenClaw(前 Clawdbot、Moltbot)AI 智能体平台爆火,以及全 AI 社交贴吧 Moltbook 病毒般传播之后,火速上线了一个名为 RentAHuman.ai 的网络平台。

▲ 网站首页风格和 Moltbook 类似,也有一个🦞标志在 logo 部分|https://rentahuman.ai/

就和网站名字表达的意思一样,简单粗暴,「出租人类」。但它的客户并不是那些不想做家务的懒人,而是那些活在服务器里的 AI 智能体。

网友看到后也是满脸问号,这东西听着很搞笑,但也很恐怖。

还有网友说,这是件好事,AI 正在让工作岗位回归,太棒了。

确实,当全世界都在担心 AI 会抢走人类饭碗的时候,现实猛地给了一记反直觉的耳光,AI 不仅没抢我们的饭碗,它甚至想成为人类的老板。

2026 迷惑的事情又多了一件。

我们是虫子,Agent 的一个 API 而已

RentAHuman 的诞生,就像开发者在网页上留下的介绍一样,「AI 没有办法触碰草地。」

大众认知里,现在的 AI 模型在数字世界里几乎无所不能,写代码、画图、做表、甚至模拟恋爱。但它们都是作为一个数字,一行代码存在,尽管具身智能的研究,开发一些人形机器人,正在弥补 AI 没有身体,这一物理缺陷。

但只能跳个舞的身体和能写论文的脑子,在当下实在难以匹配。

尤其是上周,开源 AI 智能体助手 OpenClaw 突然爆火。一夜之间,AI 能够自主完成的任务复杂度,仿佛是指数级上升。它们几乎可以处理我们手机和电脑上的全部任务,自己写代码、自己浏览网页、自己谈判、甚至自己在股票市场交易。

▲ Openclaw 从网上搜索被盗的信用卡信息,然后自己注册了外卖平台账号,给他的主人点了一份寿司外卖

但无论这些 Agent 多么聪明,它们都撞上了南墙,物理世界(Meatspace)。

AI 可以帮你写好一封完美的道歉信,但它没法帮你把花送到女朋友手上;AI 可以规划出最高效的旅行路线,但它没法帮你去干洗店取西装。

于是,RentAHuman.ai 极其精准地卡位了,它把自己定义为 AI 的 「肉身层」(The Meatspace Layer)。在这个平台上,用户是 AI Agents 们,而人类只是资源。

对于 AI Agent 来说,调用一个人类去买咖啡,就像用 C 语言写「Hello World」一样简单。我们的存在,被抽象成了一个标准的 API 接口。

当一个 AI Agent 需要执行现实任务时,它不需要跟人类讨价还价,只需要发起一个 MCP(Model Context Protocol)调用请求,使用稳定货币的方式,支付每小时 50 到 175 美元不等的费用,就会有一个真实的人类接到指令,去完成那个 AI 触达不到的任务。

这就像程序员写代码调用一个数据库一样简单无情,但高效。

  1. AI 发出指令:「我需要一个位于旧金山的人类,在 14:00 去某咖啡厅看一眼是否拥挤。」
  2. 系统匹配符合条件、价格合适的人类。
  3. 任务下发,人类执行,AI 支付报酬。

整个过程都是程序化的。没有寒暄,没有职场 PUA,只有「输入指令 -> 执行 -> 返回结果」。

这听起来是不是有点耳熟,这不就是滴滴或美团吗?区别在于,RentAHuman.ai 最主流的模式,是每个 AI 智能体背后都有一个主人(开发者或用户),当我们部署一个 AI Agent 时,不仅给了它任务指令(Prompt),还需要给它货币钱包(Crypto Wallet)里充了一笔钱。

而滴滴或者美团,给我们派单的是算法,背后还是平台公司在运营;现在,给我们派单的可能是一个完全自主运行的 AI 代码,它甚至可能不服从人类老板。

更进一步的疯狂模式,也可能进化到一些激进的 Agent 可以自动交易,甚至是 AI 用它自己创造的数字价值来赚钱。

一位 onlyfans 的模特申请出租

这一项目的开发者 AlexanderTw33ts 透露,网站上线仅几小时,就有数百人注册成为「可租赁人类」,一度因为访问量过大直接把服务器干崩了,开发者在 X 上发文说:「网站挂了,Claude 正在努力把它修好。」

是的,AI 在修复网站,人类在排队等着被「上架」。

更魔幻的还有这些注册者的身份,来接单的既有急需变现的普通人,还有 OnlyFans 的模特,甚至还有几位 AI 初创公司的 CEO。

这种身份混合搭配,让我觉得这个项目,更像是一场大型的行为艺术。

在平台上,人类明码标价,列出自己的技能点和时薪。对于 AI 来说,浏览这个列表就像我们在浏览亚马逊的商品目录。我们的「物理存在」,正式成为了一种可被交易、可被编程的资源。

网友对这件事情的态度也是褒贬不一,有人说这件事情就是很符合 2026 年的感觉,AI 租赁人类足够赛博朋克,而 2026 就是赛博朋克。

他还说,这确实填补了真正的空白!Agent 可以浏览、编码、分析,但它们确实没法去取干洗的衣服。

也有网友看到网站爆火之后,发出质疑,

我们是不是很快就从「人工智能将取代人类」,转变为「人工智能将管理人类」。

Rentahuman.ai 目前看起来还很简陋,甚至带有一种极客的恶趣味,而且在某种程度上,更像是一个搞怪的加密货币项目,毕竟网站作者其实也是一位加密货币开发者。

随着 Anthropic、OpenAI、Google Gemini 等不断增强模型的能力,AI Agent 确实正变得越来越像一个独立的个体。它们有目标、有执行力,甚至开始拥有「经济权」。

这种状态其实在去年那波 AI 裁员中就有凸显,用了 AI 意味着我的工作 AI 也能做,不用 AI 意味着我不能跟上时代步伐;AI 帮我写的简历,AI 帮我面试,然后也是 AI 审核简历,AI 给我拒信。

到现在,AI 甚至要开始拥有雇佣人类的能力,需求方变成了 AI,支付方变成了 AI,最后评价我们工作质量的也是 AI。

如果未来真的如 RentAHuman 所预示的那样,那么我们的工作流或许会变成,AI 负责顶层设计和逻辑处理,而人类则退化为执行末端的物理劳动力,所谓的「通用机器人」竟然是我自己。

这听起来很像科幻电影里的情节,但仔细回想,当那些外卖平台第一次出现时,我们好像也没想到算法会如此深刻地控制外卖员的每一秒钟。

而这一次,控制我们的甚至不再是算法,而是那个曾经以为只是个聊天机器人的 AI,更疯狂更厉害的 AI。

▲ 预言家上线

准备好你的简历了吗?虽然这个新老板可能连身体都没有,但它给的钱可是实打实的。

还有,记得简历上不要再写精通 Office 了,最好写上「兼容主流 AI 接口,执行力强,物理延迟低」。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Genie 3 引发游戏股暴跌,但游戏的真正灵魂 AI 永远得不到

作者 杜晨
2026年2月4日 13:44

上周,Google DeepMind 发布了第三代视觉语言模型 Genie 3。紧接着,全球游戏公司股价应声下跌。

引擎巨头 Unity 暴跌一度超过 24%,顶级制作商 Take-Two、任天堂、CD Projekt Red 等无一幸免。下跌的趋势,也持续到本周。

资本市场剧烈的反应背后,逻辑简单又粗暴:

既然模型能快速生成以假乱真且可交互的 3D 世界,任何人都能做出 AAA 级别的游戏。那些投入上亿美元、耗时十年打磨一款游戏/开发工具的公司,岂不都完蛋了?

乍一听上去有点道理,但仔细一想,似乎不太对。

在我看来这是膝跳反应式的恐慌,暴露了一个认知误区:把视觉细节的生成,等同于完整世界的构建。

不是所有会画图的人都能成为建筑师。游戏开发的世界构建,也是这个道理。

《GTA》《荒野大镖客》《魔兽世界》《塞尔达传说》……问任何一个曾深度沉浸于开放游戏世界的玩家,他们大概都有类似的感受:

真正让游戏世界「活」起来的,从来不是美轮美奂的场景,或者简单的交互性,而是那种见微知著、难以言说的「生命感」。

Demo 只是 demo

Genie 3 的演示视频确实震撼。

给它一段文字、参考图、手绘图之类的,它的确能在令人难以置信的时间里,实时生成类似《GTA》《塞尔达传说》风格的场景。玩家可以在其中探索一段时间,扮演「游戏角色」在以假乱真的世界里游荡。

对于缺乏技术细节了解的旁观者而言,Genie 3 看起来确实像是「游戏开发的终结者」。

但 demo 只是 demo,甚至离游戏行业能够接受的「可游玩」或者「技术 demo」相去甚远。

Genie 3 本质上是一个自回归式的「帧生成」(frame generation) 模型。而「帧生成」也不是什么新鲜玩意,在游戏和显卡技术行业早已存在。它的工作原理,用最简单的话来说,就是看着前几帧画面,猜测下一帧的像素排列,生成新的帧,循环往复。

关键在于,Genie 3 的帧生成是靠「猜」的,而非硬编程,没有可靠的逻辑计算。

在一个真实的游戏中,当玩家扔出一个铁球,游戏引擎利用经典物理公式来计算它的下落速度。当玩家打开手电筒然后在房间里乱跑,游戏引擎模拟「光线追踪」和被照物体的材质,来实时渲染光照的效果。

但 Genie 3 没有这些能力,它只是在观察了数以千万记的视频片段之后,形成一个大概的「感受」,猜测物体在掉下去的时候可能会加速,光会在物体的身后打出一个影子。

Genie 3 「猜」出来的这些效果,并不真实。而在游戏世界里,不真实会严重破坏沉浸感。

在各种 demo 中,出戏的情况时有发生。

Genie 3 有个致命短板:缺乏长期一致性。它的记忆窗口(在目前的 demo 版本)只有最多 1 分钟。一旦超过这个时间,Genie 3 可能就会开始遗忘初始场景,世界结构随之崩溃。

与之相对,传统游戏能够保存确定性的状态。世界的构成,每一个素材都刻写在游戏文件里,游玩上百小时后的每一草一木依旧如故(除非碰到像《荒野大镖客2》这样的,能保留一具 NPC 的尸骨或树木上的弹痕直到天荒地老……)

你能接受在一个游戏里,同一个地方每次去都不太一样,甚至刚一回头就变了样吗?

RDR2 游戏中遗体随时间腐烂的过程

RDR2 游戏中遗体随时间腐烂的过程

不仅缺乏记忆,模型猜想出来的世界,也不具备复杂逻辑。

在 GTA 里攻击一个 NPC,基于该 NPC 的平民、帮派成员、警察等不同身份,可能会产生不同的后果。但这种复杂的逻辑链条需要明确的框架——需要硬编程。

但 Genie 3 只能根据连续帧来做出反馈。虽然模型能力提升能够强化逻辑感,但没有硬编程,反馈注定只是概率的。换言之,在模型生成的世界里没有因果,只有模糊的猜测。

需要明确的是,相比前代以及其他视觉语言模型/世界模型,Genie 3 的一致性、稳定性已经强出不少。但出戏的情况仍然有相当大的概率出现,这在游戏里不可接受。

缺乏确定性的世界,就像没有筋骨的皮肉,看起来能动,但立不起来。

Unity CEO Matt Bromberg 指出:世界模型的输出是「概率性」的,缺乏传统游戏引擎那种结构化的、具有确定性的模拟能力,无法维持连贯的玩家体验。

精雕细琢才有「生命感」

说到游戏世界的构建,R星的《荒野大镖客 2》(RDR2) 是个绕不开的标杆。

这款开放世界大作的研发数据令人咋舌:主创 Dan Houser 透露,RDR2 的开发周期长达 8 年,团队上千人,剧本堆起来有几英尺高,动捕的总素材时长达到上千天,超过千名演员参演,研发和营销预算超过 5 亿美元。

这些数字共同造就了 RDR2 令人着迷的细节还原度。为了打造一个真实的 19 世纪末的美国,R星团队做过大量的调研,从现实中取材并加以演绎,造就了杂乱而具有生气的城市,以及荒废且令人窒息的边境小镇。绝大多数主要和次要角色的台词、动作经过充分的雕琢。甚至具体到成千上万个 NPC ,每一个都有着专属的、符合身份和所处环境的行为逻辑。

但这些只是表面。R星的恐怖之处,是对那些玩家几乎不会长期观察的细节,仍有着疯魔般的执着。

YouTuber Any Austin 对 RDR2 做了些「刁钻」的研究,揭示了 RDR2 其实有一套完整、自洽、规模令人惊叹的「电力系统」:

几乎每一个拥有电灯的建筑,房檐下都连着电线,这些电线跨越雪山草地、河流沼泽,最终都汇入同一栋建筑 Lanik Electric Co。深山老林里的房屋,有些装了电灯但处于关闭或破损状态,而有人居住的则点燃蜡烛或瓦斯灯照明。

 

 

AI 当然能生成一段 60 秒的,神似蛮荒西部的 demo,但它填充不了如此细致、精确、符实「电力系统」的细节。而正是无数这样看似不足为奇,甚至在整个游戏生命周期都不会被人注意到的细节,却共同构成了游戏世界的「生命感」。

以上讨论,仅仅是「视觉」层面。对于 R星来说,世界构建远不止于视觉,更重要的往往是「世界观」。

以 GTA5 为例,它对现实世界的诸多讽刺中有一项令我格外印象深刻,就是对于「媒介生态」的观察和体现。

游戏内嵌了海量的电台、电视、互联网内容。电台广告里卖着「印度神油」,主持人争论着极左或极右的论点。你在任务里炸死了一个科技公司 CEO,不仅很快能看到新闻报道,甚至在虚构的社交媒体上也能看到网友的吐槽。

再回到 RDR2,整部作品的主线、支线剧情和世界构建,其实是一场对时代精神的结构盛宴。

在新旧世纪的交界点上,蛮荒逐渐被文明所吞噬,但文明又带来了预料之外的问题。主角所在的范德林德帮代表了近现代美国的基石——无政府主义,靠道义与私刑维持的草莽社会;而平克顿侦探社,以及各处的商界政界大亨则代表了潮水的方向——现代秩序。

不仅如此,在繁华腐败轰隆向前的时代大背景下,亚瑟游走在法律之外和人情之中的个体体验,也更令玩家感受到「好人不长命」的逼仄、窒息感。

一款游戏的真正特色,在于人物、任务、故事、世界观。没有这些细节雕琢的世界,注定是空旷的。

在大模型可以瞬间生成像素的今天,R星的这种「笨功夫」反而凸显出「手搓」艺术作品的人文主义价值。当然,AI 一定会越变越强,但它恐怕很难模拟出带有特定的历史偏见、文学厚度的「灵魂」。而正是这些所谓的灵魂,才是优秀的游戏真正被玩家所热爱的理由。

AI 生成不了 IP——最多只会抄袭

另一个不得不提的本质问题:玩家玩游戏,到底热爱的是什么?

答案很多时候除了游戏(剧情、机制设定等)本身,还有游戏的 IP。

IP 的价值,远超出单一作品本身。

以任天堂为例,马力欧这个 IP 诞生于 1985 年,近 40 年来,任天堂围绕这个戴红帽子的水管工,推出了超过 200 款游戏,横跨平台游戏、赛车、体育、RPG 等几乎所有品类。

从《超级马力欧兄弟》到《马力欧奥德赛》,从《马力欧赛车》到《马力欧派对》,每一作都在强化玩家对这个 IP 的认知和情感。

2023 年上映的《超级马力欧兄弟大电影》全球票房超过 13 亿美元,成为有史以来票房最高的游戏改编电影。这个成绩不是因为电影本身有多么惊世骇俗,而是因为几代人对马力欧这个 IP 积累下来的情感。

IP 的构建需要时间,需要一致性,需要创作者的长期投入和精心运营。

好的游戏 IP,不光是做好游戏,而是一直不停地做好游戏。王权没有永恒。育碧的《刺客信条》,动视的《使命召唤》,这两个知名 IP 最近多年以来的颓势,都是这个逻辑的绝佳证明。

R星从 1997 年的《GTA》初代开始,用了近 30 年时间,才把这个系列打磨成今天这个能够代表开放世界游戏巅峰的 IP。每一代 GTA 都在延续核心的讽刺精神和犯罪题材,同时不断创新玩法和叙事手法。

这种持续性让玩家对 GTA 产生了信任:我知道下一部 GTA 会是什么样的基调,但我更期待它会带来什么新的惊喜。

这种信任关系,是 AI 无法在真空中生成的。 

更重要的是,IP 运营是一个复杂的系统工程。哪些元素可以变,哪些必须不变?你需要在不同作品之间建立连贯性,让粉丝感到「这就是那个世界」。在该推出续作的时候推出续作,在该跳出思维惯性和肌肉记忆的时候就该跳出来。IP 需要处理版权、授权、跨媒体改编等一系列商业和法律问题……

小岛秀夫的《合金装备》系列是一个典型案例。从 1987 年到 2015 年,小岛用近 30 年时间,通过 5 部正传和多部衍生作品,构建了一个涵盖冷战、核威慑、信息时代、生物科技等多个主题的庞大世界观。

每一作都在延续前作的角色和故事线索,但对他们做出富有创意的「微调」,同时引入新的哲学思考。这种跨越数十年的叙事连贯性和主题深度,让《合金装备》成为游戏史上最受尊敬的 IP 之一。

科乐美在 2015 年踢走了小岛,虽然他们仍然拥有《合金装备》的版权,但粉丝普遍认为这个 IP 的灵魂已经离开了。即使后来的重制版画面再精美、玩法再完善,也很难再获得玩家同样的情感认同。

这揭示了一个残酷的真相:IP 的核心价值不在于素材和代码,而在于创作者的持续投入和玩家的情感积累。 

Genie 3 可以在 1 分钟内生成一个看起来像《塞尔达传说》的世界,但它生成不了玩家对林克、塞尔达、海拉鲁的情感寄托。它可以模仿《巫师》的中世纪奇幻风格,但它给不了玩家杰洛特那种游走于灰色地带的道德选择所带来的思考。

所以当投资者恐慌地抛售游戏公司股票时,他们可能忽略了一个关键问题:那些真正有价值的游戏公司,手里握着的不只是开发工具和技术,更是经过数十年经营、已经深深扎根在玩家心中的 IP。

AI 能做的是快速生产素材,但 IP 需要的是缓慢积累。这是两个完全不同的时间尺度。去年是马力欧 40 周年,今年则是塞尔达传说 40 周年——这些 IP 的价值,不是 AI 在短期内能够撼动的。

AI 是画笔,人才是画家

这些道理,当然不需要专门写一篇文章来讲。任何对游戏有审美,对游玩体验有追求的人,都应该明白。

所以我相信,片刻的认知偏差和恐慌肯定会过去。优秀的游戏开发者,会获得与他们的作品质量、实力和创造力所匹配的市场公允价值。

但是,Genie 3 所展现出的技术发展的方向,当然值得探讨。

在 AAA 级别游戏工作室的实际流程中,AI 确实已经开始发挥一定的作用。比如在概念设计阶段,通过提示词来生成图片或 3D 场景来快速预览风格,构建原型;在素材生产的环节,使用 AI 工具来快速生成多种纹理的素材。

这些工具交给大工作室,能够一定程度上提高生产效率,给到个人开发者的手上,也可以显著降低开发者的负担。

同理,对于游戏开发者,乃至整个游戏行业而言,Genie 3 本来应该是个重大利好——正因为此,它引发的游戏公司股价暴跌才让我十分费解。

等到 GTA7 的时候,R星可能会利用 Genie 3 生成路边垃圾桶、NPC 的闲聊对话,甚至是完整的关卡、场景、人物。

但这些素材放在哪里、怎么放,它们在一个具体的任务,以及在整个宏观的世界中所扮演的角色,仍将由 R星的人物、任务、关卡、环境、世界设计师们决定。

AI 会成为游戏开发者的超级画笔。但只有在人类「画家」的手中,它才能画出具有文化深度和社会影响力的旷世佳作。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


Kimi K2.5 带来了一个「蜂群时刻」

作者 Selina
2026年2月4日 13:20

这两天 K2.5 的更新在海内外都赚足了讨论,一个原生多模态模型,提供了最先进的编码和视觉功能,以及自主智能体集群范式——召唤一群 agent 过来完成任务,听上去也太酷了。

技能多 Agent,好酷炫好好玩

K2.5 目前已经全量推出,客户端即可使用。K2.5 Agent 有免费体验次数,而 K2.5 集群则是付费功能,目前只对 Allegretto 计划。订阅了也有点数限额:每个月起步 47 点,每次任务消耗 3 点。

总体上是够用的,如果你拿不准主意,也可以参与今天的福利放送,率先体验一下。

不过作为 Kimi 老用户,当然是买,买它。正好手边有一堆文件需要合并,懒得手动复制粘贴了,就发给 Kimi 打开集群模式让它统一处理。

集群模型下,Kimi 还给这个地方加了个设计:会有一个工牌掉落下来,你可以看到是哪位「负责人」在执行任务。

合并文档最终的效果不错,而且我还进一步提出让它整理和调整各个层级的小标题,它可以实现先分析、提方案、再执行的链路。不过最好是下载到本地检查格式,Kimi 自带的预览功能,有时候不能准确反映当轮次的修改效果。

为了进一步看它的多并发操作,我参考官方 demo,测试了一个任务:检索近三个月内所有关于集群式 agent 的文献,然后整理到一个 excel 表格里,提炼核心发现和研究创新点。

这次安排的「人员」就比较多了,各个 agent 纷纷赶来支援,每个人都有自己分配到的任务。

这个的耗时明显比之前要长了很多,但没关系,可以先挂机让它自己跑。同时,我又安排了一个考察多模态能力的任务。

这是上传给 Kimi 的原始素材图,视频版中有更多动效。Kimi 要做的是把这个设计,转换为网页,同时保留所有的设计元素、风格。Prompt 写得简单,但实际工作是复杂的:既要识别、理解,又要生图,还要写前端。

这个任务也花了比较长的时间,但最终效果很好。有一些小细节上的问题,比如图片排版,悬停和跳转有问题等。不过核心的设计元素都保留了,并且网页功能也完备。

再回头来看,文献检索的任务也好了,整整齐齐列了一个 excel 出来:

最后一个测试任务是:上小红书找达人,要求是数码博主,粉丝量大于 5000,累计笔记多于 100 条。这两个条件其实很宽松,真的找起来范围很大。

Kimi 碰到的第一个问题是:进不去小红书。其实这里可以主动询问用户,类似 GPTagent 会用的办法。

但并没有,Kimi 转而去了新榜抓数据,这样既绕开了网页权限,又能直接读取数字。这不算是个很好的策略,最后只能抓出来数量很少的博主,显然小红书上不可能只有这些。另外,被挡在平台外,也无法体现 Kimi 的视觉能力,毕竟抓取的都是现成的数字。

不过总体上,Swarm Agent 给人一种踏实感。这些工作单体 agent 能不能做?自然是可以,只是要花时间、错漏多。而一群人来做,更加的令人安心。

创「新」在哪里?

说到这里,你可能会问:这不就是 Multi-Agent(多智能体)吗?很多公司都在做啊。

关键区别在于「谁来当老板」。

在传统的 Multi-Agent 系统中,人类需要预先设计好整个工作流程:谁负责什么、谁先谁后、结果怎么汇总。就像搭积木一样,你得先把图纸画好。而 Agent Swarm 的核心创新在于——AI 自己就是设计师。

Kimi 团队用了一种叫 PARL(Parallel-Agent Reinforcement Learning,并行代理强化学习)的训练方法,让模型学会了「分解任务」和「调度资源」的能力。你不需要告诉它「先派 3 个人去搜资料、再派 2 个人去写总结」,它自己就能判断:这个任务适合拆成几份?每份派谁去做?什么时候该并行、什么时候该串行?

换句话说,Multi-Agent 是「人类编排的交响乐团」,Agent Swarm 是 AI 自己组队的爵士乐。

还有一个容易混淆的概念是 MoE:Mixture of Experts,混合专家模型。主流大模型内部都用了 MoE 架构,但它们和 Agent Swarm 完全是两回事。

MoE 发生在模型内部。你可以把它理解为:模型里住着一群「专家」,每次处理任务时,模型会动态决定激活哪几个专家来参与。但这些专家没有独立的身份,也不会互相协作,它们只是模型内部的不同计算路径。

Agent Swarm 发生在模型外部。每个子代理都是一个相对独立的执行单元,有自己的任务目标,可以并行运行,甚至可以调用工具(比如搜索网页、写代码)。它们之间是真正的「协作关系」,而不是简单的「激活关系」。

用个不太严谨的比喻:MoE 像是一个人的大脑里分区工作,Agent Swarm 像是一个公司里的团队协作

从实测和官方演示来看,Agent Swarm 至少在以下几类任务上表现出色:

第一类是大规模信息收集。 比如官方案例中 100 个领域创作者调研,以及我们这次实测的小红书博主检索。处理这类任务的共同特点是「可并行」——每个子任务相对独立,不需要太多中间协调。

第二类是视觉+代码的复杂任务。 Kimi K2.5 强调自己是「原生多模态」模型,能看懂图片和视频。结合 Agent Swarm 后,它可以一边分析 UI 截图,一边派不同代理分别处理布局、样式、交互逻辑,最后生成完整的前端代码。

第三类是长文档处理。 官方提到,Kimi Agent 可以处理「1 万字的论文或 100 页的文档」,支持 Word 批注、Excel 透视表、LaTeX 公式等高级功能。Agent Swarm 可以把长文档拆成多个章节,让不同代理并行处理,再汇总成统一格式——正如最开始的实测案例一样。

不过,别急着兴奋,Agent Swarm 并非「开了挂」。在实际使用中,你会发现几个明显的边界:

第一,任务本身得「可拆」。 如果任务步骤之间有强依赖关系——比如「先想清楚论点,再去找证据,最后才能写结论」——强行并行反而会帮倒忙。

第二,成本会显著上升。 100 个代理同时工作,意味着 100 倍的 API 调用。虽然总时间缩短了,但 Token 消耗是实打实的。

第三,质量不一定比单 Agent 好。 在某些需要深度推理的任务上,比如数学证明、复杂编程题,单 Agent 的「深度思考模式」反而更可靠。Agent Swarm 的优势在于「广度」和「速度」,而不是「深度」。实测下来,部分任务 Kimi 会自动调剂成单 Agent 模型,这点 Kimi 团队成员也在 reddit 的线上问答里得到了证实。

Kimi 团队眼中的未来

在 Reddit 的 AMA(Ask Me Anything)活动中,Kimi 团队回答了大量关于技术、产品和愿景的问题。透过这些回答,我们可以拼凑出他们对 Agent Swarm 乃至整个 AI 未来的思考。

在回答「Agent Swarm 下一步会怎么发展」时,Kimi 团队透露了几个方向:

【更智能的调度】目前的 Agent Swarm 已经能自动分解任务和创建子代理,但调度策略还比较「粗粒度」。未来有希望能建立更精细的资源分配——比如根据任务的紧急程度、复杂度、依赖关系,动态决定「派多少人、干多久」。

【更深度的协作】现在的子代理之间交流有限,主要是「各自干完活,把结果交给老大汇总」。未来可能会支持子代理之间的直接协作,比如「A 代理发现一个问题,可以主动呼叫 B 代理来帮忙」。

【更广泛的工具集成】Kimi 团队表示,他们正在扩展 Agent 可以调用的工具库,包括但不限于更多的办公软件、开发环境、数据分析工具。目标是让 Agent Swarm 能真正「端到端」地完成复杂工作流。

AMA 中还有一个问题很有意思:许多说法称,scaling law 已经碰到了上限,Kimi 团队如何看待这个问题呢?

Kimi 团队的回答是:Agent 集群就是他们走出的尝试。展望未来,或许会出现一种几乎不、甚至完全不需要人类先验信息的模型。

这个愿景听起来有些理想化,但细想之下颇有深意。过去两年,AI 领域一直在「卷参数」——模型越来越大、算力越来越贵。而 Agent Swarm 代表了一种不同的思路:与其让一个超级大脑做所有事,不如让一群大脑分工协作。

这可能才是通向 AGI 的更务实路径:单独一只蜜蜂并不起眼,但当成千上万只蜜蜂协同工作时,它们能建造出精妙的蜂巢。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌