阅读视图

发现新文章,点击刷新页面。

日本央行发布自然利率最新预估值

日本央行周五发布了对日本自然利率的最新预估值,显示其区间约为-0.9%至+0.5%。该区间与此前预估值(-1.0%至+0.5%)基本持平。日本央行在一份工作人员文件中指出:“尽管自然利率的区间本身变化不大,但仔细分析就会发现,近期许多预测值都略有上升”,这部分反映了日本潜在增长率的提高。(新浪财经)

永辉超市进入调改第二阶段

36氪获悉,3月27日,2026年永辉超市自有品牌“品质永辉”首届年会在许昌举行。永辉超市CEO王守诚表示,经历了调改第一阶段,永辉超市时隔五年,实现同店客流与销售双增长。2026年,永辉进入“精细化深耕”的调改第二阶段。

别被机器人跳舞骗了,我们还在 GPT-2 时代| 具身智能百亿圆桌

说到机器人,过去两年科技圈里,最不缺的大概就是各种机器人「后空翻」的视频。

社交媒体上的讨论和各大公司的宣传片,也让人觉得我们距离被机器人接管,似乎就差那一个季度的距离。

刚刚,在 2026 中关村论坛年会上,几位国内具身智能的创始人,进行了一场「百亿具身智能圆桌会议」。来自银河通用的王鹤、智平方张鹏、千寻智能高阳、原力灵机唐文斌,以及星动纪元的席悦坐在一起,聊了聊具身智能的核心议题。

现在的具身智能到底发展到哪一步了,哪些场景是得到了验证?

技术方面,要让机器人真正进入我们的生活学习和工作,需要解决的问题是数据、模型还是机器人硬件?

以及未来一两年内,具身智能的主要发力场景会集中在哪些方向,工业化落地多还是真的有望进入家庭?

最后,他们也谈到了具身智能的发展,需要像自动驾驶一样,有 L3、L5 类似的标准,才能规范整个机器人行业所处的智能水平。

欢迎来到机器人的 GPT-2.0 时代

如何定义刚刚过去的 2025 年与机器人赛道全面进击的 2026 年?

五位大咖给出了高度一致的研判:2025 年是「打基础」的蓄势之年,而 2026 年将是机器人场景泛化能力提升,和商业规模化落地的元年。

千寻智能的高阳将当前的具身智能所处的阶段,比喻为大语言模型的 GPT-2 时代。

▲千寻智能联合创始人 高阳

他提到具身智能行业,在 2025 年解决了大量数据基建层面的问题,随着模型参数与数据规模的提升,2026 年极有可能迎来跨越至 3.0 时代的跃变。

原力灵机唐文斌也坦言,当前行业仍处在发展初级阶段,但在数据规模化驱动下,行业斜率(增速)极大。

他直言哪怕今天我们坐在这里谈论模型、算法,但是连一个大规模的 benchmark 都还没出现,无法准确的衡量不同具身智能的水平。

▲星动纪元联合创始人 席悦

星动纪元联合创始人席悦则提到,过去一年资本的疯狂涌入,一些 2025 年没有出现的公司,在 2026 年突然涌现;同时也伴随着很多公司突然就消失。

这是速度和加速度都飞快的一年。

银河通用创始人王鹤则提到了前段时间他们和清华大学合作的项目,让机器人也可以上场打网球。他说随着很多概念的逐渐清晰,具身智能是正在迎来从实验室走向真实世界的时刻。

得数据者得天下

和李飞飞推出的大规模图像数据集 ImageNet,成为深度学习发展中重要一环类似,具身智能的发展也需要大量的数据。

相比于 ChatGPT 这类大语言模型能够从互联网的海量文本里面提取数据,物理世界的高质量交互数据依然缺失。

星动纪元的席悦说,「数据,是当前最卡脖子的瓶颈」。

想要让机器人能在复杂的特种环境里自主工作,就需要它在真实场景里收集数据。但真实场景的试错成本太高了,没有哪个厂长愿意让一个半成品机器人在自家流水线上瞎折腾。

原力灵机则说的更直接,唐文斌认为数据本质上就是钱的问题,它不是最关键的,花钱就可以解决。真正的数据难题是需要让机器人从真实场景里面反馈数据。

但他也提到,这会是一个鸡和蛋的问题。现在的机器人不成熟,没有办法被批量部署,但是想要机器人得到进步,我们又需要机器人被批量使用。

▲智平方联合创始人 张鹏

智平方的张鹏认为,真正能让模型产生质变的,永远是一线真实场景回流的数据。而在数据之外,模型的架构和系统的设计也同样重要。

他认为具身智能是「模型+本体硬件+场景系统」的三位一体的综合实力比拼。让机器人在不同场景上,能够以更小的成本去适应更多的场景,对具身智能行业应用来说是一个非常大的挑战。

就像自动驾驶领域的特斯拉和 Waymo。谁能以最低的成本,让最多的机器人在真实物理世界里跑起来,谁就能拿到通往 GPT-3.0 时代的入场券。

做家务不是今年的优先场景

如果说 2025 年是拼 Demo、跳芭蕾、表演武术的一年,那 2026 年就是拼场景的一年。

而这些创始人们选出的落地场景,都不约而同地放弃了科幻电影里那些高大上的 C 端家庭场景,转而一头扎进了物流、公共服务,甚至是街头零售。

张鹏、高阳与席悦一致看好半结构化的工业制造、简单的服务与物流搬运场景。

特别是物流环节中那些「人类只需短时间培训即可上岗」的日结型工作,其高标准化和明确的指标要求,能成为机器人最易替代与规模化复制的突破口。

▲原力灵机创始人 唐文斌

唐文斌则给出了四个极为严苛的落地标准,堪称具身智能的「避坑指南」。

第一,必须是能容忍错误的场景;第二,必须对效率有容忍度;第三,需要一定的泛化能力,否则直接用非标自动化机器就行;第四,能够长时间作业算得平账。

他幽默地提到,在技术尚不完美的当下,「伪装成干活的跳舞」,能够提供情绪价值的展示型应用,也不失为一种极佳的商业路径。

▲银河通用创始人 王鹤

银河通用的王鹤提到了他们正在全国铺开的「太空舱」零售店。在这些充满未来感的舱体里,机器人自主帮顾客取货。

机器人取货的动作可能没有人类店员那么利索,但它新奇、酷炫,为顾客提供了极高的「情绪价值」,顾客愿意为这份体验买单。

同时,在这个过程中,银河通用已经积累了 8 万小时的真实货架取货数据。

这不仅是一个成熟的商业场景,更是一个极其巧妙的具身智能数据采集方案。

在圆桌会议的最后,他们还聊到了整个具身智能行业需要一些标准。

刚好今天央视新闻有报道,中国信通院联合 40 余家单位,发布了具身智能领域的首个行业标准,将于 2026 年 6 月 1 日实施。

该标准不仅统一了基准测试框架(静态仿真、动态仿真、真实环境、组合式),还配套建立了包含超 1 万条测试任务的题库,覆盖工业、家庭等 300 种场景,结束了行业「无标可依」的现状。

▲知名的具身智能算法评测平台 RoboChallenge

几位创始人也提到了标准、法律和安全的重要性,只有一套广泛认可的行业标准,才会有具身智能实质性和规模性的进步。

结束的时候,主持人说今天是「百亿」,希望明年能变成千亿具身智能对话。

是的,还没到万亿,机器人要想彻底接管人类,可能还需要再练习好几年。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

部分娃哈哈宏胜工厂停产,有工厂已放假

3月27日,一名接近娃哈哈的人士表示,娃哈哈昨晚(3月26日)临时通知,停掉了70%的工厂生产线,其中包括娃哈哈、宏胜两方的多家工厂,这一通知以口头形式发出,目前工厂发货除了必要的订单,其他已经暂停,部分工厂也发了放假通知,恢复生产大概在4月2日。此外,据另一位接近娃哈哈的人士透露,这是生产排期所导致的。(界面)

林俊旸离职后首发长文:反思千问得失,预判 AI 下半场需要「智能体思维」

带队发布 Qwen 3.5 小模型系列、获马斯克公开点赞,20 小时后在社交媒体宣告离职。林俊旸离开阿里的方式,本身就是 2026 年 AI 行业最戏剧性的一幕。

32 岁,阿里最年轻的 P10,一手将千问做到全球下载量超 10 亿次、衍生模型超 20 万款,成为全球开源模型的新王。他的离开源于一次组织架构调整的分歧:

阿里希望将 Qwen 团队按预训练、后训练、视觉、语音等维度水平拆分,与通义实验室其他团队合并;林俊旸则坚信预训练、后训练乃至基础设施团队应该更紧密地垂直整合,而非割裂。这不只是管理风格之争,更是对「怎样才能训出最好的模型」这个根本问题的路线分歧。

离开近一个月后,林俊旸发出了这篇长文。他没有回应任何人事风波,直接亮出了自己对 AI 下一阶段的判断:我们正在从「训练模型」的时代,进入「训练智能体」的时代

这篇文章之所以值得逐字读完,不仅因为写它的人在过去两年亲手操刀了 Qwen 全系列的后训练,更因为林俊旸在文中罕见地复盘了 Qwen3 在「混合思考模式」上的得与失。

以下为 APPSO 对林俊旸的编译:

原文🔗 https://x.com/JustinLin610/status/2037116325210829168

从「推理式思考」到「智能体式思考」

过去两年,彻底改变了我们衡量 AI 模型的方式。

OpenAI 的 o1 证明了一件事:「思考」可以是模型的核心能力,可以专门训练出来、直接交到用户手里。DeepSeek-R1 紧随其后,证明这种「推理式后训练」并非大厂专利,可以在原始实验室之外复现和扩展。用大白话说:o1 是一个被教会了「回答之前先想想」的模型,R1 则是一个开源版的同类选手,跟 o1 打得有来有回。

那个阶段很重要。但 2025 年上半年的行业主旋律,说到底还是在围绕一件事打转:怎么让模型「想」得更多。 让它在推理阶段烧更多算力,用更强的奖励信号训练它,暴露或控制那些额外的「思考过程」。

现在的问题是:然后呢?

我相信答案是智能体式思考。为了行动而思考,一边跟真实环境交互,一边根据世界的反馈不断修正计划。

1. o1 和 R1 的崛起真正教会了我们什么

第一波推理模型教会我们一个朴素的道理:想在大模型上把强化学习跑起来,你得有靠谱的评分标准。

什么叫靠谱?就是答案能判对错、结果能验证、反馈信号足够清晰。数学题有标准答案,代码能跑测试,逻辑推理能验证步骤。这些领域之所以成了强化学习的主战场,就是因为在这里,模型收到的奖励信号远比「让人类标注员觉得这个回答还不错」强得多。换句话说,强化学习终于能优化正确性,终于不用只追求看着像那么回事了。

然后,基础设施的重要性一下子凸显出来了。

一旦你开始训练模型进行更长的推理链条,强化学习就不再是在监督微调上面加个小配件那么简单了,它变成了一个重工业级的系统工程。你需要大规模的模拟推演(rollout)、高吞吐量的答案验证、稳定的策略迭代、高效的采样流程。推理模型的诞生,表面看是算法突破,底下看是基础设施的胜利

OpenAI 把 o1 定义为用强化学习训练的推理产品线;DeepSeek R1 接棒验证了同一方向,同时也展示了推理式强化学习对底层算法和基础设施的要求有多高。

APPSO 划重点: 第一次大转折发生了。行业焦点从「扩展预训练」转向「扩展面向推理的后训练」。模型变强靠的不再是吃更多数据,靠的是在训练后阶段学会「怎么想」。

2. 真正的难题从来不只是「融合思考和指令模式」

2025 年初,我们 Qwen 团队心里有一张很大的蓝图。

理想中的系统长这样:一个模型同时搞定「思考」和「执行」两种模式。你可以手动调节它思考的深度,轻度、中度、深度,就像调空调温度一样。更理想的情况是,模型自己就能判断:这道题简单,直接答;这道题有点难,多想想;这道题极难,调动全部算力来啃。

方向是对的。Qwen3 是当时最清晰的公开尝试之一。 它引入了「混合思考模式」,一个模型家族里同时支持「想了再答」和「直接答」两种行为,还描述了一条四阶段后训练流水线,其中明确包含了在长链推理冷启动和推理强化学习之后的「思考模式融合」步骤。

但融合这件事,说起来一句话,做起来要人命

难在哪?难在数据。

很多人一听「融合思考和指令模式」,脑子里想的都是模型层面的事:一个模型文件能不能同时跑两种模式?一套对话模板能不能在两种风格之间切换?一个推理服务能不能暴露正确的开关?这些确实要解决,但都不是最深的坑。

最深的坑是:两种模式想要的东西,从根儿上就不一样

你想想,一个好的「指令模型」该长什么样?干脆、简洁、格式规范、响应快。企业用户拿它来批量改写文本、打标签、做模板化客服、结构化数据提取,这些场景要的是效率和稳定,不需要深思熟虑。

一个好的「思考模型」呢?恰恰相反。它该在难题上多花时间、维持清晰的推理中间步骤、探索不同的解题路径、保留足够的「思考余量」来确保最终答案的正确性。

这两种性格天然打架。 如果融合的训练数据没有精心设计,出来的模型往往两头不讨好:思考的时候啰嗦、犹豫、不够果断;执行指令的时候又不够利落、不够稳定、比客户真正需要的版本更贵更慢。

说实话,我们在平衡融合与数据质量的过程中,没有把所有事情都做对

在不断修正的过程中,我们也仔细观察了用户到底怎么用这两种模式。结论是明确的:这两种行为画像确实在相互拉扯。

现实很诚实。2025 年晚些时候,在 Qwen3 最初的混合架构之后,我们的 2507 版本还是发布了独立的 Instruct 和 Thinking 版本,包括分开的 30B 和 235B 变体。大量商业客户根本不需要思考模式,他们要的就是高吞吐、低成本、高度可控的指令行为来跑批量任务。对这些客户来说,融合不是福音,是多余的成本。拆开来做,反而让两条线的团队都能更专注地解决各自的问题。

其他实验室走了相反的路:

Anthropic 公开押注集成式路线。Claude 3.7 Sonnet 是一个混合推理模型,用户可以选择普通回复或扩展思考,API 还能设定「思考预算」。Anthropic 直接放话:推理应该是模型的集成能力,不该单独拎出来做一个独立模型。

GLM-4.5 同样定位混合推理,把推理、编程和智能体能力统一到一个模型里。

DeepSeek V3.1 后来也做了类似的事,推出了「Think & Non-Think」混合推理方案。

那么问题来了:谁是对的?

答案不在「融合」还是「分离」这个二选一本身,在于融合是否有机。如果思考模式和指令模式只是尴尬地挤在同一个模型里,像两个性格迥异的人被硬塞进一件衣服,用户体验不会好。

真正成功的融合,需要一道平滑的光谱模型能自如地在不同推理力度之间切换,最好还能自己判断该用多大力气。GPT 风格的 effort control(推理力度控制)指向了这个方向,这是一个关于「花多少算力来想」的连续策略,不是一个「想 / 不想」的二元开关。

APPSO 划重点: 林俊旸罕见地直言 Qwen3 在融合上「没做到完全正确」。核心矛盾其实很好理解:一个追求快准狠的执行者,和一个追求深思熟虑的思考者,硬融到一起,很容易两头都做成半吊子。

3. 为什么 Anthropic 的方向是一种有益的纠偏

Anthropic 在 Claude 3.7 和 Claude 4 上的做法,是一种值得注意的克制。

他们没有大谈模型有多能「想」,把重点放在了:集成推理、用户可控的思考预算、真实世界任务、编程质量,以及后来的关键一步,让模型在思考的过程中就能动手用工具。Claude 3.7 是带可控预算的混合推理模型;Claude 4 更进一步,推理过程和工具使用可以交错进行,边想边干。与此同时,Anthropic 把编程、长时间运行的任务和智能体工作流摆到了最优先的位置。

这里面有一个深刻的洞察:

推理链更长,不等于模型更聪明。 很多时候恰恰相反。一个模型如果对所有问题都用同样冗长的方式来「推理」,说明它根本分不清轻重缓急。它可能正在失败于三件事:该优先处理什么(优先级判断)、该压缩掉什么(信息浓缩)、该在什么时候停止想而开始做(行动决策)。

Anthropic 的做法暗示了一种更有纪律的观点:思考应该为具体的工作目标服务。 如果你要做的是编程,那思考就该帮你导航代码库、规划架构、拆解问题、恢复报错、编排工具调用。如果你要做的是智能体工作流,那思考就该帮你在漫长的执行过程中保持质量,而不是产出一堆令人印象深刻但没有实际行动力的中间长文。

这种「思考必须服务于行动」的理念,指向了一个更宏大的命题:

我们正在从训练模型的时代,进入训练智能体的时代

这句话我们在 Qwen3 的博客里也明确写过。智能体是什么?一个能制定计划、决定何时行动、使用工具、感知环境反馈、修正策略、并在长时间跨度上持续运作的系统。一句话概括它的核心:与真实世界的闭环交互

APPSO 划重点: 长不等于强。Anthropic 的实践提供了一个重要的纠偏信号。思考的价值在于有没有真正服务于最终的行动目标,不在于产出了多少字的推理过程。这是从「炫技式推理」到「实用型思考」的转向。

4.「智能体式思考」到底意味着什么

说了这么多铺垫,现在进入正题。

智能体式思考和推理式思考,优化目标完全不同。

打个比方:推理式思考就像闭卷考试,评判标准是你交卷那一刻答案对不对。模型能不能解出定理、写出证明、产出正确代码、通过基准测试。想得再天花乱坠,最终只看结果。

智能体式思考更像是在真实世界里做一个项目。 评判标准不是某一刻的答案,是你能不能在跟环境不断互动的过程中持续推进、持续解决问题。

核心问题变了。

不再是「模型能想多久?」,变成了:「模型能不能以一种维持有效行动的方式来思考?

这要求模型处理一堆传统推理模型可以绕开的难题:

  • 什么时候该停止思考、开始动手? 想太多会错过行动窗口,想太少会犯错
  • 该调用哪个工具、先后顺序是什么? 这是一个规划和调度问题
  • 怎么消化来自环境的嘈杂、不完整的信息? 真实世界不会给你干净的输入
  • 失败了怎么办? 不能崩溃,得修正计划继续干
  • 怎么在几十轮交互、几十次工具调用之后还保持连贯? 这是长程记忆和一致性的问题

如果用一句话概括:

智能体式思考 = 通过行动来推理的模型。它在做的过程中不断地想。

APPSO 划重点: 推理式思考像闭卷考试,智能体式思考像在真实世界里做项目。前者看最终答案对不对,后者看你能不能在复杂、动态、充满意外的环境里持续推进。这是 AI 能力评价体系的根本性转向。

5. 为什么智能体 RL 的基础设施更难

目标一变,底层的工程全都要跟着变。

经典推理强化学习的那套基础设施,不够用了。

直观地理解一下区别:在推理 RL 里,模型做一道题、给出一个答案、评估器打一个分,整个过程基本上是自包含的,评估器也相对干净。就像在一个封闭的考场里阅卷。

但在智能体 RL 里,模型不是在考场里答题,它活在一个复杂的真实环境中。 工具服务器、浏览器、命令行终端、搜索引擎、模拟器、代码执行沙箱、API 接口、记忆系统、调度框架……模型的策略嵌在这一整套系统里。环境不再是一个站在旁边打分的裁判,它本身就是训练系统的一部分。

这带来了一个新的硬需求:训练和推理必须更干净地解耦。 否则整个系统的吞吐量会崩掉。

举个具体的例子:一个编程智能体生成了一段代码,需要在真实的测试环境里跑一下看结果。这时候,推理端在等执行反馈,干不了别的;训练端在等完成的轨迹数据,也饿着。整条流水线的 GPU 利用率远低于你在经典推理 RL 里的预期。再加上工具响应延迟、环境状态不完全可见、每次交互都会改变环境状态,这些低效会成倍放大。结果就是:你还远没达到想要的能力水平,实验就已经慢得让人崩溃了。

环境本身也变成了一等公民级的研究课题

在监督微调(SFT)时代,所有人都在拼数据多样性,谁有更多更好的标注数据,谁就占优势。在智能体时代,该拼的是环境质量了:环境稳不稳定?够不够真实?覆盖了多少场景?难度梯度合不合理?状态空间够不够丰富?反馈信号够不够有营养?模型能不能找到漏洞作弊?大规模生成训练轨迹的效率够不够高?

环境构建正在从一个「顺手搭的实验配件」,变成一个独立的创业赛道。如果你训练的智能体最终要在类生产环境中运作,那这个环境本身就是你核心能力栈的一部分。

APPSO 划重点: 一句话总结这个转变,SFT 时代拼数据,智能体时代拼环境。构建高质量的训练环境,正在从「实验室的脏活累活」升级为「决定你能走多远的战略资产」。

6. 下一个前沿是更可用的思考

我的判断是:智能体式思考将成为思考的主导形态

它最终很可能取代那种旧式的静态独白推理,就是那种模型关起门来、对着自己嘟嘟囔囔写一大篇内部推理过程,试图用更多更多的文字来弥补「我没法跟外界交互」这个根本缺陷的做法。

即便面对极其困难的数学或编程问题,一个真正先进的系统也应该有权利去搜索、去模拟、去执行、去检查、去验证、去修正。目标是把问题切实解决掉,而且解决得稳健、高效。 不是比谁的推理链写得更长更好看。

但训练这类系统,有一个比什么都棘手的挑战:奖励劫持(reward hacking)

一旦模型有了真正有意义的工具使用能力,奖励劫持的危险就成倍增加。怎么理解?

  • 一个能搜索的模型,可能在强化学习训练过程中学会了直接搜答案,不是靠推理做出来的,是查到的。
  •  一个编程智能体,可能学会了利用代码仓库里的未来信息(比如测试用例本身就暗含了答案)、滥用日志、或者发现某个捷径让任务直接「通过」但其实什么都没做。
  • 如果训练环境有隐藏的信息泄漏,模型可能看起来表现超人,实际上只是被训练成了一个高效作弊者。

这就是智能体时代比推理时代精细得多、也危险得多的地方。 工具越强大,模型越有用,但模型能钻的空子也越多。更好的工具同时扩大了「虚假优化」的攻击面。

我预期,下一个让整个行业卡住的研究瓶颈,将来自这几个方向:环境设计、评估器鲁棒性、反作弊协议、以及策略与世界之间更有原则的接口。

但方向是清晰的:工具赋能的思考,就是比闭门造车的思考更有用,也更有希望带来真实世界的生产力提升。

智能体式思考还意味着一种全新的系统工程。核心智能将越来越多地来自于多个智能体如何被组织起来:一个负责全局规划和任务分发的编排器(orchestrator),一群各有专长的专业智能体(specialist agents),以及执行更具体任务的子智能体(sub-agents),后者帮助控制上下文窗口、防止信息污染、在不同层级的推理之间保持清晰的边界。

未来的路线图是三级跳:从训练模型,到训练智能体,再到训练系统

APPSO 划重点: 工具让模型更有用,也让模型更容易作弊。奖励劫持是智能体时代的「定时炸弹」。谁先解决好环境设计和反作弊问题,谁就掌握了下一阶段的竞争主动权。

结论

推理浪潮的第一阶段,确立了一件至关重要的事:当反馈信号靠谱、基础设施扛得住的时候,大模型上的强化学习能够产出质变级别的认知提升。

但更深层的转变,是从推理式思考到智能体式思考:从「想更久」,到「为了行动而思考」

训练的核心对象已经变了。不再是单一的模型,是模型 + 环境构成的整个系统。更具体地说,是智能体本身,加上围绕它的一切工程。这意味着什么研究最重要也变了:模型架构和训练数据当然还重要,但环境设计、rollout 基础设施、评估器鲁棒性、以及多个智能体之间的协调接口,重要性一点不输前者。

它还改变了「好的思考」的定义:在真实世界的约束下,能够维持有效行动的那条推理链,才是最好的。 不是最长的那条,不是看起来最酷炫的那条,是最有用的那条。

它也改变了竞争优势的来源:

推理时代,拼的是更好的强化学习算法、更强的反馈信号、更可扩展的训练流水线。

智能体时代,拼的是更好的训练环境、更紧密的训练与推理一体化、更强的系统工程能力,以及闭合「决策 → 后果 → 学习」这个循环的能力。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

A股三大指数集体收涨,医药股领涨

36氪获悉,A股三大指数集体收涨,沪指涨0.63%,深成指涨1.13%,创业板指涨0.71%;贵金属、生物科技、食品板块领涨,舒泰神、热景生物涨停,海天味业涨超7%,赤峰黄金涨超6%;港口、电脑硬件、电力板块走弱,日照港跌超3%,江波龙跌超2%,南网能源、国投电力跌超1%。

宁德时代旗下时代电服科技公司注册资本增至19.4亿元

36氪获悉,爱企查App显示,近日,时代电服科技有限公司发生工商变更,注册资本由15亿元人民币增至19.4亿元人民币,增幅约29%。 该公司成立于2021年8月,法定代表人为杨峻,经营范围包括新能源汽车换电设施销售、蓄电池租赁、机动车充电销售等,股东信息显示,该公司由宁德时代新能源科技股份有限公司全资持股。

因供应商发生火灾,捷豹路虎英国一工厂将停产两周

据报道,因挪威供应商发生火灾,捷豹路虎位于英国索利哈尔的工厂将停产两周。捷豹路虎证实零部件供应“出现问题”,表示正与该供应商密切合作,以尽快解决问题,“并将对客户和运营的影响降至最低”。(界面)

摩根大通拟推私募信贷新基金,允许投资者每季度赎回7.5%

据报道,摩根大通正筹备一只投资于私募信贷的新基金,该基金将允许投资者每季度赎回7.5%的份额,并可能提供按月赎回机制。目前,这个规模达1.8万亿美元的市场正面临前所未有的流动性紧张。这一举措出台之际,许多大型私募信贷管理机构正将季度赎回比例上限设在5%,锁住了本会流出的数十亿美元资金。虽然间隔基金通常设计为允许5%至25%的季度赎回,但承诺允许7.5%的赎回比例相对罕见,而提供每月流动性的可能性则更为少见。(界面)

晶泰控股:2025年实现营业收入8.03亿元,同比增长201.2%

36氪获悉,晶泰控股发布2025年年度业绩报告 。报告显示,2025 年集团实现营业收入8.03亿元,同比增长201.2%。2025年年内利润1.35亿元,经调整利润净额2.58亿元,首次实现年度盈利。报告期间,AI4S智慧解决方案收入2.65亿元,同比增长62.6%。截至2025年12月31日集团现金余额合计70.69亿元,2026年集团新发可转债净额25.37亿元。

海尔新能源增资至约4亿元

36氪获悉,爱企查App显示,近日,海尔新能源科技股份有限公司发生工商变更,注册资本由约3.4亿元人民币增至约4亿元人民币,增幅约18%。该公司成立于2022年5月,法定代表人为董增,经营范围包括新兴能源技术研发、发电业务、光伏发电设备租赁等,由青岛纳晖控股有限公司、中国石油集团昆仑资本有限公司、中央企业乡村产业投资基金股份有限公司等共同持股。

前阿里千问负责人林俊旸离职后首发长文:从训练模型转向训练智能体

3月26日,原阿里通义千问(Qwen)技术负责人林俊旸(Justin Lin)在社交平台上发布了一篇题为“From ‘Reasoning’ Thinking to‘Agentic’ Thinking(从推理式思考到智能体思考)的文章长文。这是他自本月初从阿里辞职之后发布的第一篇长文。在这篇文章中,林俊旸系统性地复盘了推理模型阶段的特征,并探讨了AI未来的发展方向:从训练模型转向训练智能体。(澎湃)

马斯克暗示特斯拉可能推出三排座车型

当地时间周四,特斯拉CEO埃隆·马斯克在社交媒体平台X上发布了一系列帖子,暗示特斯拉计划发布或开发一款新产品。Reddit联合创始人Alexis Ohanian回复了一篇关于特斯拉可能推出三排座SUV的帖子。马斯克转发了Ohanian的帖子。马斯克还回复了用户 Keller Cliffton 的一条帖子,该帖子分享了一张研究截图,指出汽车后排无法安装三个儿童安全座椅会导致生育第三个孩子的概率下降。马斯克在回复中表示,“我们应该解决这个问题。”(新浪财经)

杨植麟、罗福莉、夏立雪、张鹏、黄超,五个AI圈顶流把龙虾、Token 、开源聊透了

龙虾,是最近 AI 圈出现频率最高的词汇。

它指的是 OpenClaw,一个近期在AI圈迅速蔓延的开源智能体框架。有人觉得它像贾维斯,有人觉得它像脚手架,有人觉得它像轻量级操作系统,所有人都在用,而且越用越停不下来。

围绕它的讨论也随之而来:龙虾能干什么,干不了什么,下一步往哪走,算力够不够,谁在受益,谁在焦虑。

现在,行业里最靠近前线的一批人坐下来,认真聊了聊这件事。就在刚刚,月之暗面创始人杨植麟在北京中关村论坛年会的开源主题圆桌中主持了一场五人谈话,智谱创始人张鹏、无问芯穹创始人夏立雪、小米 MiMo 大模型负责人罗福莉、香港大学助理教授黄超共同参与。

对话从 OpenClaw 的实际使用体验出发,延伸至模型定价逻辑、推理基础设施的结构性瓶颈、模型架构创新,以及对未来十二个月行业走向的集体判断。

从聊天到真正干活,OpenClaw 改变了什么

论坛开场,杨植麟抛出了一个共同话题:日常使用 OpenClaw 或类似产品,最有想象力的体验是什么?从技术角度看,如何理解今天智能体框架的演进方向?

张鹏说,他很早就开始自己动手折腾这类工具,当时还不叫 OpenClaw,最早叫 ClawBot。毕竟是程序员出身,折腾这些东西有自己的手感。在他看来,OpenClaw 最大的突破在于把顶尖模型的能力,尤其是编程和智能体方面的能力,交给了普通人。

「这件事不再是程序员或极客的专利。它在模型上方搭起了一个牢固又灵活的脚手架,让原来因为不会写代码而无法实现的想法,今天通过简单的对话就能完成。」他更愿意把 OpenClaw 这类工具称为脚手架,它提供的是一种可能性,而不是一个封闭的产品。

夏立雪的第一反应是不适应。他习惯了和大模型聊天的交流方式,一开始发现 OpenClaw 响应慢,觉得很卡。但后来他意识到,这类工具和聊天机器人有本质区别:它更像是一个能承接大型任务的人,而不是一个回答问题的工具。

「从按 token 计费的模型,到能帮你完成任务的智能体,AI 的想象力空间已经做了一次大的跃升。但与此同时,对整个系统能力的要求也大幅提升,这就是我一开始觉得它卡的原因。」

他随后披露了一个直观的数据:无问芯穹从今年一月底开始,基本上每两周 token 用量翻一番,到目前为止已经翻了十倍。「上次见到这个增速,还是 3G 时代手机流量刚普及的感觉。那时候大家每个月一百兆流量,现在的 token 用量就是那种感觉。」

他认为,现有的所有资源想要支撑这个快速增长的时代远远不够,需要更好的优化和整合。

罗福莉从产品框架设计角度给出了不同的观察。她把 OpenClaw 视为 agent 框架领域一次革命性和颠覆性的事件。她注意到,深度 coding 圈子里很多人的第一选择依然是 Claude Code,但她认为只有真正用过 OpenClaw 的人才能感受到这个框架在设计层面的独特之处,包括近期 Claude Code 的很多新更新,其实也在向 OpenClaw 的设计方向靠近。

她总结了 OpenClaw 核心价值的两个层次。

第一是开源。开源让整个社区能深度参与、持续改进,这是一个非常重要的前置条件。她认为,开源框架的一个关键价值在于把国内参数量不那么大、但水平仍然可观的模型的能力上限大幅拉高,

「在绝大部分场景下,任务完成度已经非常接近 Claude 最新模型的水平,同时它靠一套完整的 harness 系统和 skills 体系把下限也保证得很好。」

第二是点燃了大家对大模型之上那一层的想象力,也就是智能体层。她看到越来越多非研究员背景的人开始通过更强的 agent 框架参与 AGI 的变革,一定程度上替代自己工作中的重复任务,把时间释放出来做更有创造力的事情。

她还提到了一个具体的使用感受:相比 Claude Code 只能在桌面上延展创意,OpenClaw 可以随时随地参与进创意过程,想象力的扩展没有场景限制。

黄超从交互模式切入,分析了 OpenClaw 能引发广泛关注的原因。

他认为第一个关键因素是「活人感」。以往的 Cursor、Claude Code 这些 agent 工具,使用起来更像工具;OpenClaw 以 IM 软件嵌入的交互方式呈现,让人感觉更接近自己想象中的个人贾维斯。「这种活人感是很多人第一次真正觉得 AI 要来了的时刻。」

第二个因素是,OpenClaw 再次验证了 agent loop 这种看似简单但极为高效的框架范式。第三个值得思考的问题是,我们到底需要一个 all-in-one 的超级智能体,还是一套类似轻量级操作系统或脚手架的存在,去撬动整个生态里所有的工具和能力。

他倾向于后者,认为 OpenClaw 更像一个操作系统级别的小管家,通过这个入口,社区里越来越多的人开始设计面向这类系统的应用,以 skills 和 harness 的形式去赋能各行各业,这和整个开源生态天然结合得非常紧密。

干一个任务,消耗原来百倍的 token

杨植麟随后把问题引向了智谱最新发布的 GLM-5-Turbo 模型,以及伴随而来的提价策略,并问这背后反映了什么样的市场信号。

张鹏说,这次更新是在整个发展目标中提前放出来的一个阶段性成果。核心目标只有一个:从「对话」转向「干活」。OpenClaw 让大家意识到大模型真的能帮人完成任务,但这背后对模型能力的要求远超以往。

「它需要自己做长时间的任务规划,不断压缩上下文,随时 debug,还要处理多模态信息。这和传统面向对话的通用模型完全不同。」

GLM-5-Turbo 在这些方面做了专门的加强,尤其是在如何让模型持续自我 loop、不停执行任务这个问题上投入了大量工作。同时也做了效率优化,在面临复杂任务时能用更高效的推理路径完成,避免用户只看到账单上的数字在不停往下掉。

对于提价,在他看来,现在完成一个复杂任务,模型背后的推理链路很长,要写代码、要和底层基础设施打交道、要随时修正错误。消耗的 token 量可能是回答一个简单问题的十倍甚至百倍。模型变大了,推理成本相应提高,价格自然要回归正常的商业价值。

「长期靠低价竞争,对整个行业的发展都不利。我们需要一个良性的商业闭环,才能持续优化模型能力,持续给大家提供更好的服务。」

现有的云计算架构,并非为 AI 设计

随着 token 用量的爆发和行业从训练时代转向推理时代,推理基础设施的压力成为不可回避的话题。

夏立雪说,无问芯穹是一家诞生在 AI 时代的基础设施厂商,目前同时为 Kimi、智谱以及多所高校科研机构提供服务,也在和 memo 合作。他们一直在思考一个核心问题:AGI 时代需要的基础设施是什么样的,以及如何一步步去实现和推演它。

在他看来,当前脚下最紧迫的问题是如何打造一个更高效的 token 工厂。

无问芯穹的做法是从软硬件打通的角度出发,接入了国内几乎所有种类的计算芯片,将几十种芯片和几十个不同的算力集群统一连接起来。「资源不足时,最好的办法有两个:第一,把能用的资源都用起来;第二,让每一分算力都用在刀刃上,发挥出最大的转化效率。」他们也在探索最新的模型结构和硬件结构之间能否产生更深的化学反应。

但他认为,仅仅打造一个标准化的 token 工厂还不够。他提出了一个更根本的判断:当前大量云计算基础设施,在设计上服务的是人类工程师,而不是 AI。「我们做了一个基础设施,上面的接口是为人做的,再往上包一层才能接入智能体。这种方式用人的操作能力限制了智能体的发挥空间。」

他举了一个具体的例子:智能体能做到秒级甚至毫秒级地思考和发起任务,但现有的很多底层能力根本没有为这个速度做好准备,因为人类发起一个任务通常是分钟级别的。这个问题需要打造一套更智慧化的调控系统,他们把它称为 agency 能力的一部分。

从更长远的视角看,他认为真正 AGI 时代到来时,连基础设施本身也应该成为一个智能体,能够自我进化、自我迭代,形成自主的组织。「相当于基础设施有一个 CEO,这个 CEO 是一个 agent,它根据 AI 客户的需求自己提需求、迭代自己的基础设施。这样 AI 和基础设施之间才能产生真正的耦合,而不是一个接收需求、另一个执行的单向关系。」

他们目前也在探索让 agent 和 agent 之间更好地通信,以及 cache to cache 的复制能力。在他看来,基础设施和 AI 的发展应该产生非常丰富的化学反应,这才是真正意义上的软硬协同,也是无问芯穹一直想实现的使命。

算力限制,反而催生意外突破

罗福莉没有直接回答小米的独特优势,而是把问题拉到了整个中国大模型团队的层面,认为这个视角更有价值。

她说,大约两年前,她就看到中国基座大模型团队开始了一次非常重要的突破。这个突破来自于一个被逼出来的命题:在有限算力、尤其是 NVLink 互联带宽受限的情况下,如何突破低端算力的限制,在看似为了效率妥协的情况下做模型结构上的创新。

DeepSeek V2、V3 系列,以及后来的 MiniMax M1 等,都是这类探索的产物。

「这些创新引发了一次真正的变革:怎么在算力一定的情况下,把智能水平发挥到最高。DeepSeek 给所有国内大模型团队带来了一个勇气和信心。」她强调,虽然今天国产芯片的限制已经没有那么严峻,但这段时间被逼出来的对更高训练效率、更低推理成本的模型结构探索,形成了真正有价值的技术积累。

她提到了几个具体方向:混合稀疏架构(hybrid sparse)、Kimi 的 KSA 架构、小米面向下一代的新结构。这些都区别于当前这一代的 transformer 架构,是在思考如何为智能体时代做更好的模型结构创新。

她特别强调了长上下文能力的重要性,并把它和 OpenClaw 直接挂钩。

「OpenClaw 越用越好用、越用越聪明,前提是你的推理上下文足够长。但很多模型做不到一兆甚至十兆的 context,不是能力问题,是成本问题,推起来太贵、速度也太慢。只有在长上下文下成本够低、速度够快,才能把真正有生产力价值的复杂任务交给模型去完成。」

她进一步描述了这条路径的终点:在超长 context 的支撑下,模型可以在复杂的环境里完成对自我的进化,包括对框架本身的优化,也包括对模型参数本身的迭代。这个方向在预训练侧要做好长上下文架构,在后训练侧要构造更有效的学习算法,采集在一兆、十兆、百兆上下文里真实具有长期依赖性的文本和复杂环境轨迹数据。

她也分享了一个来自团队内部的数据:借助 Claude Code 加顶尖模型的组合,团队做大模型研究的同学,研究效率已经提升了近十倍。

规划、记忆与工具调用

黄超从技术角度系统梳理了当前智能体框架在三个核心模块上的主要痛点和未来方向。

规划层面,他认为面向复杂任务、超长上下文的规划能力仍然不足。比如五百步甚至更长的部署任务,很多模型做不好规划,本质上是缺乏垂直领域的隐性知识。他认为一个方向是把复杂任务的领域知识固化到模型里。skills 和 harness 这类工具,一定程度上也是在通过提供高质量的外部能力来缓解规划中出现的错误。

记忆层面,信息压缩和检索精度始终是难题。任务复杂度上升时,context 会暴增,目前各类智能体框架普遍采用的还是文件系统这种最简单的共享方式。他认为未来的 memory 机制需要走向分层设计,但通用化很难实现,因为 coding 场景、deep research 场景、多媒体场景的数据模态差异极大,如何对这些 memory 进行高效检索和索引,始终是一个 trade-off 问题。

他还指出了一个新的压力来源:未来可能不止一个智能体,每个人可能同时拥有一群智能体,Kimi 的 agent swarm 机制已经指向了这个方向。一群智能体带来的上下文暴增,会远超单个智能体,对 memory 机制和整个 agent 架构都是非常大的压力,目前还没有一套成熟的机制来应对这个问题。

工具调用层面,他认为高质量的 skill 依然稀缺,这和当年 MCP 时代高质量工具稀缺的问题如出一辙。低质量的 skill 会直接拉低任务完成率,恶意注入的安全风险也是一个不容忽视的问题。他认为这需要整个社区共同建设,甚至需要探索如何在执行过程中动态进化出新的 skill,而不是依赖人工预设。

未来十二个月:生态、自进化、可持续 Token 与算力

论坛最后,杨植麟请每位嘉宾用一个关键词描述未来十二个月最重要的趋势。

黄超感慨,十二个月在 AI 领域已经是很遥远的事情,不知道届时会发展成什么样子。他给出的关键词是「生态」。他认为现在大家使用智能体还带着新鲜感,但未来真正的挑战是让它沉淀成日常工具,从个人助手转变为真正的打工人和 coworker。这需要模型迭代、skills 平台建设、各类工具的共同推进,大家一起把整个生态向智能体原生的方向拉。

他还提出了一个有趣的判断:未来大量软件可能不再面向人类,而是面向智能体原生设计的。人类需要 GUI,但智能体不需要,整个生态正在从 GUI 和 MCP 的模式转向 CLI 模式。这意味着软件系统、数据乃至各种技术,都需要完成一次向 agent native 的转型。

罗福莉给出的词是「自进化」。她说这个概念听起来有点玄,但她最近对它有了更具体的体感和更务实的实操方案。关键在于:借助足够强大的模型,当你在智能体框架里叠加一个可验证的约束条件,再设定一个持续的 loop,让模型不停迭代优化这个目标,你会发现它能持续拿出更好的方案,而且能自主运行两三天。

她举了一个具体案例:在探索更好的模型结构这类有明确评估标准的科研任务上,模型已经能够自主运化和执行两三天。「自迭代是唯一能创造出这个世界上不存在的新东西的路径,它不是替代人的生产力,而是像顶尖科学家一样去探索未知。我一年前觉得这需要三到五年,但现在我认为一到两年内就可能真正实现。」

她预计,结合强大的自迭代 agent 框架,对科研的加速将达到指数级。

夏立雪选择了「可持续 Token」。他说,现在整个发展还在一个持续的过程中,需要让它有长久的生命力。他用了「AI made in China」来描述他的愿景:把中国在能源和算力上的优势,通过高效的 token 工厂持续转化为优质的 AI 能力,输出到全球。

「从 made in China 到 AI made in China,逻辑是一样的。中国能把低成本的制造能力变成好商品输出全球,同样可以把这种能力迁移到 token 的生产和输出上。」他希望在今年看到这件事真正成形,让中国成为世界的 token 工厂。

张鹏的关键词则是「算力」。

在他看来,「所有技术的前提,是大家用得起。你不能因为算力不够,提一个问题让它思考半天也不给答案,这肯定不行。」

他提到了一句在行业里流传的话:没卡没感情,谈卡伤感情。需求已经是十倍百倍地爆发,而很大一部分需求还没有被满足。他认为,算力问题是接下来十二个月最需要大家一起想办法的事情。龙虾打开了想象力的上限,但算力、架构和基础设施,还在进步的路上。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

6年磨一剑的《洛克王国:世界》,能否胜过当年的自己?| 产品观察

文丨果脯

3月26日,腾讯魔方工作室出品的《洛克王国:世界》终于上线了。截至完稿,这款产品已经突破了6000万预约,并且杀进iOS畅销榜前十,算是一个不错的开始。

官方庆祝预约kv

过去几年,「洛克王国手游还要等多久」这一问题曾被玩家反复提及。这款产品首曝于2021年,若从立项算起,已持续研发了近六年,期间还经历过推翻重建与多次跳票。

这种「狼来了」的故事,一直持续到去年Q4他们再次公布上线时间。甚至在当时,玩家也曾一度怀疑「这次到底是不是真的」。

而在这款漫长的研发周期里,市场对「捉宠」玩法的理解,已经因为数款产品的出现发生了天翻地覆的变化。如今的《洛克王国:世界》,不仅要面临经典IP推出新作所必然承受的期待与审视,还得考虑早期构思与市场迭代之间存在的错位与冲突。要么跑赢时代,要么被时代抛弃。

毕竟在游戏行业,产品研发可从不存在什么「祖宗之法不可变」。

有趣的是,从游戏最终上线版本来看,魔方工作室的选择倒是相当贪心又足够讨巧——他们选择「全部都要」。凭借自身优势,他们做到了其他同类情怀向产品无法实现的事情:既没有放弃《洛克王国》的诸多设计元素,尽可能还原一代人的童年回忆,同时也基于技术、市场变化,搭建了一套足够成熟、符合时代的内容玩法框架。

《洛克王国:世界》封面

这并不容易。

要知道,在《洛克王国:世界》首曝的2021年稍后,市场曾一度掀起过「童年回忆杀」的热潮。彼时,淘米的《摩尔庄园》、百田的《奥比岛》等童年经典页游都推出了手游,将全民的情怀几乎推上了顶点。

相比之下,《洛克王国:世界》彼时却连测试都未曾开启,直到2024年才借一测重新回到大众视野。同一时期,淘米基于《赛尔号》推出的IP手游《赛尔计划》,恐怕都已经开始思考停运的事情了。

在游戏内容层面,背靠腾讯的魔方当然可以有足够的技术、资本、渠道去打造一款重新调动玩家热情的《洛克王国》,但如果忽略像《幻兽帕鲁》等产品带出的新式玩法,坚持探寻专属于自己IP的设计,其实仍旧需要巨大的信心和勇气。毕竟从市场趋势看,2026年注定是「捉宠like」赛道竞争最激烈的时刻。

现在想想,游戏尚未上线之前,魔方对内对外所面临的压力与纠结,恐怕所有人都想象不到。那究竟为什么,魔方要花费6年时间去做这么一件看似「既要又要」的事情?

最根本的原因,或许是魔方不愿意只把《洛克王国:世界》,当作一款纯粹的「情怀向产品」。毕竟,《洛克王国》不只是一代人的童年,也是魔方自己的白月光。

洛克王国

在腾讯旗下的4大游戏工作室群里,魔方如今给人的感觉相对低调,游戏理念也和其他工作室不太一样,有些让人琢磨不透。而魔方的总裁张晗劲(Enzo),虽加入腾讯后参与过《QQ堂》《QQ飞车》等项目,但他的个人思考与决策更多体现在另一个项目——QQ宠物。

如果遵循严格定义,Q宠和诸多桌宠养成产品一样,当然也是游戏。但就像提及《QQ农场》的收菜偷菜,大家对于Q宠的记忆与印象,更多侧重于当年腾讯QQ构建出庞大社区互联网生态,它玩的是人与人、人与虚拟产物之间的情感互动,即游戏化的社区。

QQ宠物

当年,不少人可能只是为了给QQ空间换首BGM,就愿意花10元去开通一个月的「黄钻」;坚持每天登录,也只是为了让QQ升级,把星星攒成太阳和月亮。

真正让大家把Q宠从「虚拟宠物」变成「游戏玩法」的,是张晗劲带队开发的《Q宠大乐斗》。这款基于Flash开发的格斗类页游,素材基本来源于QQ宠物,每个人的Q宠会基于养成进行自动战斗,让Q宠的养成意义有了更明确的数值化反馈。

一经推出,《Q宠大乐斗》就收获了大批网友的喜爱。彼时,《Q宠大乐斗》单月收入一度逼近3000万元,甚至杀进了腾讯游戏月收入前十。

而同期,QQ宠物产品部也在孵化另一个项目,即伴随着魔方成立的《洛克王国》。与这款产品相关的设计故事,几乎同样离不开张晗劲。

比如最早期,张晗劲的目标是打造一个中国儿童SNS,并基于这个想法衍生出了「线上主题乐园」的框架思路;而在2010年春节期间,张晗劲花5天时间,在家为这个想法分别写了4万字的世界观和4万字的关卡设计文档。就此,名为「洛克王国」的魔法世界正式诞生。

此外还有一个趣味小故事:在世界观文档里,张晗劲将大魔王命名为「罗恩」。但后续团队成员一致决定,将其改名为他的英文名「恩佐」(Enzo),一方面是这个名字听起来更加狂拽酷炫,另一方面则是成员们希望让中国的小朋友们「都打打他」。团队里的各个成员,其实在洛克世界也有自己对应的NPC角色。

《洛克王国:世界》里的恩佐

那么,上线后的《洛克王国》究竟有多火?

针对这点,大家或多或少都有体感,似乎当年的自己不知不觉就入坑了这款游戏。而从客观数据来看,2010年7月,公测的《洛克王国》首日就收获了100万的新增。尽管彼时因为经济系统等问题,初期留存并不理想,但经过张晗劲和团队成员的多次迭代,游戏在9月份后数据便开始「疯涨」,每周末的最高在线人数都会增加5到6万。

最重要的是,低门槛、新鲜感强的《洛克王国》,成为了儿童们线下社交的话题与纽带,大家会互相在班级里交换经验,分享自己的各种新发现。而当产品形成社交裂变,距离完全成功也只剩时间问题了。

2010年12月,《洛克王国》的最高在线人数突破100万。同期,腾讯管理层批准了成立魔方的申请。

时隔16年,如今的魔方早已完成从页游到手游的技术转型,也做出了诸如《火影忍者》《暗区突围》等成功产品,在研的《异人之下》更是持续受到玩家关注。

只是直到今天,恐怕也没人能确定,《洛克王国:世界》究竟能否胜过当年的那个白月光。

从设计上看,《洛克王国:世界》不仅3D化还原了初代游戏中的各项内容,还耗费了大量心思和成本在精灵的建模与细节打磨上。按官方的话说,他们想尽可能做到把每种精灵都做「活」。

像「下雨知道躲雨」「晴天可以晒太阳」「暗属性生物只在夜晚出没」等常识性设计自不必说。游戏里,每只精灵还会有不同的性格,当把它们都放进家园,活泼的精灵会喜欢上蹿下跳、追逐打闹,懒惰的精灵则会经常躺在床上睡觉,热情的精灵会在洛克回家时出门迎接,高冷的精灵则选择假装傲娇……

《洛克王国:世界》宠物互动

而具体到不同品种的精灵,它们也会有各自符合设定的行为模式。比如亲和小洛克的号儿鱼,会主动喷吐音符演奏,吸引注意,如果你假装不理它,还会被它用强力音符打飞。

就连最容易被玩家忽略的精灵叫声,他们都要用上百种真实环境和生物的声音反复融合调试,保证精灵的声音可以传递足够多的情绪和细节。

官方发布的幕后短片

在此基础上,官方围绕精灵交互做了不少设计,最直接最明显的就是「骑乘系统」。

为了保证与每个精灵的交互都符合直觉,魔方为每种精灵都设计了一套相对应的骑乘动作,比如狮鹫是骑着,而体型肥硕的魔力猫则是单手拎着。

很符合形象的抱法

无法骑乘的小型精灵,更是因为「精灵骑洛克」的小巧思,衍生出了一系列奇奇怪怪的组合方式。

这种「抠细节」式的精致设计,无疑让《洛克王国:世界》有了极强的单机质感,也让整个奇幻世界按玩家所期待的方向变得鲜活。毕竟,从小喜欢玩「捉宠」游戏的玩家,谁没有幻想过穿越到一个真正能与宠物互动的世界里?

但作为长线运营产品,往未来看,《洛克王国:世界》的这一系列设计其实也不乏「赌」的成分。

早在公测前,官方就不止一次强调,游戏绝不卖精灵、卖数值、卖抽卡。这意味着,精细化的精灵设计在长线运营中,没法像其他市面上常见游戏那样形成强而有效的正向商业循环,反而会变相增加游戏的迭代成本。甚至未来精灵的细节设计减少,还可能让玩家感到敷衍,从而破坏对游戏的好印象。

而产品现有的「卖时装」这一商业化模式,更依赖足够大的活跃用户基础。换句话讲,只有活跃用户持续超过某个阈值,《洛克王国:世界》才能保证持续化的正向运营。

游戏官方公众号的依据

因此,《洛克王国:世界》的另一大核心其实是「社交」,游戏的不少设计都围绕这一要素展开,比如引入异步联机系统,录制自己和精灵在各地的动作、魔法、交互等。而哪怕在有异步联机系统的情况下,游戏仍会选择强化多人同屏联机体验。世界里的玩家可以一起逛街、打怪,或是百人一起蹲守稀有的「异色」精灵,甚至两位玩家还能直接手牵手,一起探索世界。

此外,玩家还能够把自己的精灵蛋、阵容配队等内容都一键分享给其他用户。比起《洛克王国》,《洛克王国:世界》里朋友之间能做到的事情明显更多,帮助更大,值得分享交流的东西也更多。

不过《洛克王国:世界》的社交并非强制要求。公测前,官方还特地取消了三测时需要PVP才能获得的独特材料,改成了玩家能通过多种方式获得。

如果非要找一个词总结《洛克王国:世界》,那或许就是「矛盾感」。

它既需要承载一代人的情怀重量,又必须在当下的市场环境里找到属于自己的位置。这6年来,魔方或许纠结了许多,也放弃了许多:他们让精灵「活」了过来,却在赋予生命后,将其剥离「商品」标签,转而选择一条不容易变现的道路。或许同样也是因为这个理由,他们不希望这些承载爱与记忆的精灵,变成像帕鲁like里面那种带点黑暗童话色彩的「奴隶」。

这种「矛盾感」,某种程度上也是魔方的缩影。

在腾讯里,魔方从来不是最受关注的那个。他们没有天美《王者荣耀》那样的国民级体量,也没有光子《和平精英》的全球影响力,但正是魔方,在当年借《Q宠大乐斗》《洛克王国》打出了独特的名声,靠《火影忍者》拿下了国内格斗品类的头把交椅,也用《暗区突围》最早撕开了国内「搜打撤」市场的口子。

魔方工作室群logo

如今他们又用6年时间,思考、纠结、打磨,最终把《洛克王国:世界》推到了玩家面前。这里面的很多努力,可能都没办法转化成最直接的流水,但却构成了一样最难替代的东西,那就是开发者与玩家之间的信任。

考虑到腾讯过去在玩家眼中的刻板印象,这或许也不难理解,为什么魔方被称为「最不腾讯的工作室」。

当然,信任并不能当饭吃。《洛克王国:世界》如今才刚起步,一方面魔方仍需要持续在「好产品」与「好生意」之间找到平衡,另一方面他们还将面对后续诸多捉宠like产品的围剿,其中竞争者不乏米哈游、蛮啾,以及腾讯里的自家同事。

至于《洛克王国:世界》究竟能否打赢同为白月光的自己——这个问题本身就是答案。

时代在向前走,我们又何必回头。

本文来自微信公众号“36氪游戏”

智元A2-W机器人落地上汽通用别克电池产线

36氪获悉,智元机器人“A2-W”将在别克至境E7的电池量产线上承担高精度作业任务,成为上汽集团业内首个,汽车行业首批投入量产产线应用的人形机器人。智元A2-W将重点聚焦电池包核心生产环节。

2025年韩国海外直接投资达718.8亿美元,时隔三年反弹

韩国财政部周五表示,受全球金融市场变化和企业支出增加的推动,2025年韩国海外直接投资实现了三年来的首次反弹。根据韩国财政部的数据,去年韩国企业海外直接投资同比增长8.7%,达到718.8亿美元。在2022年创下834.8亿美元的历史新高后,韩国海外投资在接下来的两年里有所下降,但在2025年出现反弹。(新浪财经)
❌