普通视图

发现新文章,点击刷新页面。
今天 — 2025年11月11日首页

用 460 万美元追上 GPT-5?Kimi 团队首次回应一切,杨植麟也来了

作者 张子豪
2025年11月11日 14:14

上周 Kimi K2 Thinking 发布,开源模型打败 OpenAI 和 Anthropic,让它社交媒体卷起不小的声浪,网友们都在说它厉害,我们也实测了一波,在智能体、代码和写作能力上确实进步明显。

刚刚 Kimi 团队,甚至创始人杨植麟也来了,他们在 Reddit 上举办了一场信息量爆炸的 AMA(有问必答)活动。

▲ Kimi 团队三位联创,杨植麟、周昕宇、吴育昕参与回答

面对社区的犀利提问,Kimi 不仅透露了下一代模型 K3 的线索、核心技术 KDA 的细节,还毫不避讳地谈论了 460 万的成本,以及与 OpenAI 在训练成本、产品哲学上的巨大差异。

  • 460 万美元这个数字不是官方的数字,具体的训练成本很难量化到多少钱
  • K3 什么时候来,是看奥特曼的万亿美元数据中心什么时候建成
  • K3 的技术将会继续沿用,当前效果显著的 KDA 注意力机制
  • 视觉模型还需要我们去采集更多的数据,但目前已经在做了……

我们为你整理了这场 AMA 中最值得关注的几个核心焦点,来看看这家现在算是国产开源老大的 AI 实验室,是如何看待他们的模型,和未来 AI 的发展。

叫板 OpenAI,「我们有自己的节奏」

在这场 AMA 中,火药味最足的部分,大概就是 Kimi 团队对 OpenAI 的隔空回应。

最大的噱头之一:K3 什么时候来?Kimi 团队的回答非常巧妙:「在奥特曼的万亿美元数据中心建成之前。

很明显这一方面是幽默,因为没有人知道 OpenAI 到底什么时候才能建成那个数据中心,另一方面似乎也在回应外界对于 Kimi 能用更少资源追赶 GPT-5 的赞叹。

当有网友贴脸开大,直接问 Kimi 怎么看 OpenAI 要花这么多钱在训练上时,Kimi 坦言:「我们也不知道,只有奥特曼自己才知道」,并强硬地补充道,「我们有自己的方式和节奏。

这种自己的节奏,首先体现在产品哲学上。当被问到是否会像 OpenAI 一样发布 AI 浏览器时,团队直言 No:

我们不需要创建另一个 chromium 包装器(浏览器套壳),来构建更好的模型。

他们强调,目前的工作还是专注于模型训练,能力的体现会通过大模型助手来完成。

在训练成本和硬件上,Kimi 也展现了精打细算的一面。社区好奇 K2 的训练成本是否真的是传闻中的 460 万美元,Kimi 澄清了这个数字并不正确,但表示大部分的钱都是花在研究和实验上,很难具体量化。

至于硬件,Kimi 承认他们使用的是 H800 GPU 和 Infiniband,虽然「不如美国的顶级 GPU 好,而且数量上也不占优势」,但他们充分利用了每一张卡。

模型的个性与 AI 的垃圾味

一个好的模型,不仅要有智商,还要有个性。

很多用户喜欢 Kimi K2 Instruct 的风格,认为它「比较少的谄媚,同时又像散文一样,有洞察力且独特」。

Kimi 解释说,这是「预训练(提供知识)+ 后训练(增添风味)」共同作用的结果。不同的强化学习配方(即奖励模型的不同选择)会得到不同的风格,而他们也会有意的把模型设计为更不谄媚

▲大语言模型情商评估排名,图片来源:https://eqbench.com/creative_writing.html

但与此同时,也有用户直言 Kimi K2 Thinking 的写作风格太「AI Slop 垃圾」,无论写什么话题,风格都太过于积极和正面,导致读起来 AI 味就是很重。他还举例子说,要 Kimi 写一些很暴力很对抗的内容,它还是把整体的风格往积极正面那边去靠近。

Kimi 团队的回答非常坦诚,他们承认这是大语言模型的常见问题,也提到现阶段的强化学习,就是会刻意地放大这种风格。

这种用户体感与测试数据的矛盾,也体现在对 Benchmark(跑分)的质疑上。有网友尖锐地提问,Kimi K2 Thinking 是不是专门针对 HLE 等跑分进行了训练,才会取得如此高分?毕竟这么高的分数,好像和他实际使用中的智能不太匹配。

对此,Kimi 团队解释说,他们在改进自主推理方面取得了一些微小的进展,这刚好让 K2 Thinking 在 HLE 上得分很高。但他们也坦诚了努力的方向,要进一步提升通用能力,以便在更多实际应用场景中和跑分一样聪明。

网友还说,你看马斯克的 Grok 因为做了很多 NSFW (非工作安全) 的工作,生成图片和视频;Kimi 完全可以利用自己的写作优势,让它完成一些 NSFW 的写作,一定能为 Kimi 带来很多用户的。

Kimi 只能笑而不语,说这是一个很好的建议。未来是否会支持 NSFW 内容,可能还需要找到一些年龄验证的方法,也需要进一步做好模型的对齐工作。

很明显,现阶段 Kimi 是不可能支持 NSFW。

核心技术揭秘:KDA、长推理与多模态

作为一家被称为「开源先锋实验室」的公司,而 Reddit 本身就是也是一个非常庞大和活跃的技术社区,Kimi 也在这次的 AMA 中,分享了大量的技术细节。

10 月底,Kimi 在《Kimi Linear: An Expressive, Efficient Attention Architecture》的论文,详细介绍了一种新型混合线性注意力架构 Kimi Linear,其核心正是 Kimi Delta Attention (KDA)。

▲KDA 算法实现,论文链接:https://arxiv.org/pdf/2510.26692

通俗来说,注意力(Attention)就是 AI 在思考时,决定应该重点关注上下文哪些词语的机制。和常见的完全注意力和线性注意力不同,KDA (Kimi Delta Attention),是一种更智能、更高效的注意力机制

在这次 AMA 活动中,Kimi 也多次提到,KDA 在长序列强化学习场景中展现了性能提升,并且 KDA 相关的想法很可能在 K3 中应用。

但 Kimi 也坦言,技术是有取舍的。目前混合注意力的主要目的是节省计算成本,并不是为了更好的推理,在长输入和长输出任务上,完全注意力的表现依然是更好的。

那么,Kimi K2 Thinking 是如何做到超长推理链的呢,最多 300 个工具的思考和调用,还有网友认为甚至比 GPT-5 Pro 还要好?

▲ Kimi Linear 模型结构

Kimi 认为这取决于训练方式,他们倾向于使用相对更多的思考 token 以获得最佳结果。此外,K2 Thinking 也原生支持 INT4,这也进一步加速了推理过程。

我们在之前的 Kimi K2 Thinking 文章中也分享了 INT4 的量化训练技术,这是一种高效的量化技术(INT4 QAT),Kimi 没有训练完再压缩,而是在训练过程中,就保持了低精度运算模型。

这能带来两个巨大的优势,一个是推理速度的提升,一个是长链条的推理,不会因为训练完再进行的压缩量化,而造成逻辑崩溃。

最后,关于外界期待的视觉语言能力,Kimi 明确表示:目前正在完成这项工作。

之所以先发布纯文本模型,是因为视觉语言模型的数据获取,还有训练,都需要非常多的时间,团队的资源有限,只能优先选择一个方向。

生态、成本与开放的未来

对于开发者和普通用户关心的问题,Kimi 团队也一一作答。

为什么之前能处理 1M 上下文的模型消失了?Kimi 的回答言简意赅:「成本太高了。」而对于 256K 上下文在处理大型代码库时依然不够用的问题,团队表示未来会计划增加上下文长度。

在 API 定价上,有开发者质疑为何按「调用次数」而非 token 收费。对使用 Claude Code 等其他智能体工具进行编程的用户来说,基于 API 请求次数的计费方式,是最不可控且最不透明的。

在发送提示之前,用户根本无法明确工具将发起多少次 API 调用,或者任务将持续多长时间。

▲Kimi 会员计划

Kimi 解释说,我们用 API 调用,是为了让用户更清楚的知道费用是怎么消耗的,同时符合他们团队的成本规划,但他们也松口表示会看看是否有更好的计算方法。

当有网友提到自己公司不允许使用其他聊天助手时,Kimi 借机表达了他们的核心理念:

我们拥抱开源,因为我们相信通用人工智能应该是一个带来团结而不是分裂的追求。

而对于那个终极问题——AGI 什么时候到来?Kimi 认为 AGI 很难定义,但人们已经开始感受到这种 AGI 的氛围,更强大的模型也即将到来。

和去年疯狂打广告营销的 Kimi 不同,在这场 AMA 力,杨植麟和团队成员的回答;确实能让人感受到在国产开源,逐渐占据全球大语言模型开源市场的背景下,Kimi 也更加有底气,更明确了自己的节奏。

而这个节奏很明显,就是在这场烧钱、甚至卷太空的 AI 竞赛中,继续走开源的路,才能推动技术往前走。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


昨天以前首页

你刷抖音小红书不会变笨,但你的 AI 会

作者 Selina
2025年11月2日 18:23

好消息:AI 越来越好用了。

坏消息:越用它越笨。

无论是哪家 AI 厂商,现在都会在「长期记忆」「超长上下文储存」等方面下功夫,这样才能让用户用起来顺手、顺心。不过,最近一项研究发现,AI 未必就能越用越懂你、越用越聪明,还可能往反方向跑偏。

AI 也会认知退化?还不可逆?

研究者们用开源模型(如 LLaMA 等),做了一个小但精巧的实验。他们不是简单地在训练数据里混入一些错别字,而是想要模拟人类那种「无休止地刷着低质量、碎片化内容」的互联网生活,并用「持续预训练」(Continual Pre-training)的方式来模拟模型的长期暴露。

为了实现这个目标,他们从真实的社交媒体平台上筛选了两种「垃圾数据」,一种是「参与度驱动型垃圾」,也就是那些短平快、高人气、点赞和转发爆炸的帖子,类似于我们刷手机时那些只为博眼球的「流量密码」。

另一种是语义质量驱动型垃圾,那些充斥着「震惊」、「细思极恐」、「xxx 不存在了」这种夸张、耸动字眼的内容。他们将这些垃圾语料以不同的比例混合,持续喂食给模型,模拟剂量对「脑腐烂」的影响。

随后,他们让好几个大语言模型持续地、长时间地被投喂这些垃圾,作为训练语料。再用一系列基准测试来衡量 LLM 的「认知功能」,包括推理能力、长文本理解能力、安全性和道德判断,等等。

结果是:全面完蛋。模型的推理能力和长文本理解力出现了断崖式下跌,在处理复杂的逻辑推理任务和长篇幅内容时,表现出明显的退化。

当垃圾数据的比例从 0%提升到 100%时,模型的推理准确率急剧下降。这反映出模型越来越「懒得思考」,也越来越「记不住事」。

到底是什么原因呢?研究者深入分析后,发现了一个主要病灶:Thought-Skipping。

原本,一个优秀的 LLM 在解决复杂问题时,会生成一步步的中间推理过程;但在被「垃圾」腐蚀后,模型开始跳过这些中间步骤,直接给出一个粗糙的、可能是错误的答案。

就像一个原本逻辑缜密的律师,突然变得浮躁、敷衍,不再提供论证过程,而是随口丢出一个结论。

甚至,评估发现,模型在安全和伦理方面的表现也下降了,更容易屈服于负面 prompt,逐渐「黑化」。

这说明,当模型持续接触碎片化、煽动性的低质量文本时,它不仅能力下降,连「三观」也开始向互联网的平均值,甚至是「阴暗面」靠拢。

如果说这项研究里什么最让人倒吸凉气,恐怕就是整个过程的不可逆性。

研究员试图在中途进行补救,重新投喂了大量高品质的数据,还做了指令微调。但即便如此,模型的认知能力也无法完全恢复到最初的基线水平。

也就是说,垃圾数据已经从根本上改变了模型处理信息、构建知识的底层结构,这就像一块海绵被污水泡透了,即便再用清水清洗,也无法回到最初的纯净状态。

横扫「脑腐」,用好 AI

可是话说回来,这毕竟是实验,一个普通用户的「破坏力」应该不至于吧。

的确,没有人会故意给自己的 chatbot 喂垃圾数据,还如此大量高频。不过,这个实验的数据来源,正是社交媒体平台。

识别、抓取和总结社交媒体内容,是大模型产品的常见工作之一。有些人用它来帮忙,省下自己刷社交媒体的时间;有些则是为了更密切地发现信息,以免热点都凉了才看到。

这个实验恰恰反映了,模型在勤勤恳恳抓取内容的时候,自身暴露在了退化的风险当中。而这一切,用户都不会看到。

于是在不知不觉中,AI 被投喂了垃圾,生成了垃圾,你使用了垃圾,垃圾再进入互联网,用于下一轮训练,周而复始,陷入恶性循环。

这项研究最深刻的价值,在于它颠覆了我们对 AI 互动的传统认知:以前我们总觉得 AI 像一个等待填满的容器,输入什么都能消化。但现在看来,它更像一个敏感的孩子,对输入食物的质量非常挑剔。作为日常用户,我们与 AI 的每一次对话,都是在进行一次「微调」。

既然知道「思考跳过」是主要的病灶,那么我们日常使用 AI 时,就必须主动要求它进行「反向操作」。

首先要做的,就是警惕那些「完美的答案」。不管是要求 AI 总结一个长文章,或者写一份复杂的项目方案时,如果它只给出的结果,却没有显示任何逻辑依据和推理过程(尤其是在支持思维链的情况下),就要多留个心眼。

相比于让它反复调整结果,不如问一问它推理过程,「请列出你得出这个结论的全部步骤和分析依据」。强迫 AI 恢复推理链条,不仅能帮你验证结果的可靠性,也是在防止它在这次任务中养成「偷懒」的坏习惯。

另外,对于那些基于社交媒体的工作任务,要格外小心。基本上要把 AI 当个实习生,它能力或许很强,但是不够踏实靠谱,必须得有二次审核——实际上,我们的核查和纠正是极其宝贵的「高质量输入」。不管是指出「这里的数据来源是错的」,还是「你跳过了这个步骤」,都是在对模型进行一次有价值的微调,用高质量的反馈去抵抗互联网中的垃圾信息。

这项研究比较让人摸不着头脑的地方在于:难道要让 AI 少处理混乱的文件吗?这岂不是本末倒置?

确实,如果为了避免 AI 可能出现的脑腐症状,而只让它处理结构化程度更高的数据,那 AI 的价值就少了一半。我们使用 AI,恰恰在于处理那些混乱的、充满重复句和情绪化表达的非结构化数据。

不过还是可以平衡一下,继续让 AI 执行信息整理工作,只不过在 AI 面对低质量输入前,就给 AI 更清晰的指令。

比如,「总结这份聊天记录」,容易让 AI 闷头只出结构。而更细化的「将这份聊天记录进行分类处理,识别对话人物,去除口癖和连接词,再提炼出客观信息」,就在强行促使 AI 先思考一轮,整理出内部行动指南,再展开工作。

用户不是不能用 AI 处理垃圾数据,毕竟这是它最能发挥的地方。只不过,为了降低 AI「脑腐」的风险,要用结构化的指令和高质量的反馈,将 AI 变成一个高效的「垃圾处理和净化器」,而不是让它被垃圾信息同化。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


大厂裁员 14000 人背后真相:AI 干不了你的活,却先砸了你的饭碗

作者 张子豪
2025年10月30日 18:37

180 亿美元的利润,换来 14000 封解雇信

这是亚马逊正在上演的修罗场。这家科技巨头的股价逼近历史高点,裁员的大刀却悄无声息地落下了。

而且,这仅仅是个开始——最终被裁人数可能高达 30000 人,占员工总数的近 10%

▲ 亚马逊游戏工作室圣地亚哥分部,99% 的员工被裁

有人还在毛里求斯的海滩上晒太阳,手机突然弹出一条通知:你被解雇了。

被裁的当事人意外,看客更意外。

最近一个季度,亚马逊公司运营表现良好,为什么突然要进行如此残酷的裁员?

▲ 最近在裁员的企业,包括微软、宝洁、雀巢、英特尔等

官方给出的理由,和过去这段时间以来裁员的公司一样,因为 AI

亚马逊的人力资源主管 Beth Galetti,在给全体员工的备忘录中写着,「AI 是自互联网以来,我们所见过的最具变革性的技术」。她解释说,正因为 AI 能让公司更快地创新,所以亚马逊需要「更精简的组织、更少的层级」。

听着又是熟悉的话术,用 AI 能降本增效,更少的层级。可亚马逊这次裁员,背后的目的,可不仅仅是因为 AI 能替代这些员工

像世界上最大的初创公司一样运营

过去十几年来,一个大公司的标志,大概就是人很多,产出也很多,每个部门都有一个,甚至多个自己的产品。

但 AI 时代的逻辑,直接变成了,更多算力、更少人。像 OpenAI 一样,估值快要来到万亿美元,公司总人数才从 2023 年的几百人,到现在大约四千人。

在亚马逊,这种转变更是从上到下、明码标价。CEO 安迪.贾西(Andy Jassy)就在系统性地构建一个「AI 改变一切」的叙事。

Jassy 的核心理念是,他希望「亚马逊像世界上最大的初创公司一样运营」。他要不惜一切代价地精简、减少官僚主义和消除层级;在官方的裁员公告里,也完美的呼应了这一点。

这套「AI 精简叙事」并非空穴来风,它甚至精准地打击了特定的人群:中层管理者

根据商业内幕获取的内部数据,在第一批美国裁员中,超过 78% 的被裁员工是 L5 到 L7 级别的经理。涉及的部门包括 HR(People Experience & Technology)约 15% 的职位;设备与服务部门(Echo、Fire、Kindle团队);Audible 音频部门;以及部分 AWS 企业支持团队。

▲ 根据 Levels.fyi 的数据,2025 年一个 L5 的总薪酬约为 12 万美元,L6 约为 21 万美元,而 L7 约为 28 万美元

这些中层管理者,他们的日常工作,概括性地说,大部分是协调跨部门沟通、汇总信息、撰写状态报告、起草备忘录。

听起来,这不就是当前生成式 AI 最擅长的任务。亚马逊似乎在用行动证明,AI 正在掏空企业的中间层

裁员重灾区之一的设备部门(负责 Kindle、Echo 等产品),其副总裁 Tapas Roy 在裁员后的内部信中,直白地要求留下的员工要拥抱 AI(lean in on AI)来提高效率

表面上看,这是一个「AI 提升生产力,导致人类白领失业」的标准故事。但这个剧本,亚马逊自己人可能都不全信。

AI 是真凶,还是背锅侠

这场裁员最大的疑点在于:AI 真的已经强大到,可以立刻取代 3 万名白领了吗?

答案很可能是否定的。

最具讽刺意味的是,根据 CNN 的报道,一位亚马逊发言人私下承认,AI 并不是周二宣布的 14000 名裁员中「绝大多数」的原因

这个说法也得到了多位管理学专家的支持。他们提到,整个科技行业目前都存在一种「AI 漂洗」(AI-washing)的趋势,大概意思就是把任何东西,都要包装成 AI。

▲ 2024 年 7 月至 2025 年 6 月,人工智能相关职位招聘信息中最常用的 15 个关键词,AI 占主要地位,而不是某项具体 AI 技能,如计算机视觉、自然语言处理等

很少有公司现在真的在用 AI 取代人」高管咨询公司 Culture Partners 的首席战略官 Jessica Kriegel 告诉 CNN。她认为,我们现在看到的更像是一种「预防性裁员」(preemptive layoffs)。

换言之,亚马逊裁员,不是因为 AI 已经准备好接管人类的工作,而是因为高管们希望腾出「财务跑道」去探索 AI 的可能性。

毕竟,就目前而言,AI 带来的除了效率,还有大量的「workslop」,workslop 指的是那些由聊天机器人产生的、看似像回事但实则毫无价值、甚至充满错误的「工作垃圾」

▲AI 生成的工作废料,像是幻灯片、摘要、代码等,需要人类花更多的时间和精力去处理。有调查发现,AI 参与后有 40% 都是工作垃圾,每一份垃圾要浪费员工两个小时,186 美元。

前段时间,MIT 也发布了一项研究,提到 95% 的企业 AI 投资目前回报为零

▲ 从试点到实际应用,对于具体任务的 AI(浅蓝色)引入下降明显,成功实施仅有 5%

虽然 AI 有能力处理简单的记录任务,但对于工作中一些细节性、准确性要求比较的内容,AI 还是没有办法。

亚马逊自己也承认,公司还在继续招聘,并且会为大多数受影响的员工提供 90 天的时间,在公司内部寻找新职位。

如果 AI 真的已经能系统性地取代这些岗位,为什么还要费力进行内部转岗。显然,AI「取代」人类的故事,说服力还不够。那么,真正的动机是什么?

AI 军备竞赛,太烧钱了

如果 AI 不是直接凶手,那它很可能就是动机。这场裁员的第一个真正原因,可能和 AI 有关,但不是因为用 AI 更便宜,而是因为 AI 太贵。

亚马逊正处在一场耗资万亿、赢家通吃的 AI 战争中。在这场战争中,它必须要拼命地追赶对手。

▲2025 年,亚马逊云服务 AWS 市场份额占据领先地位

亚马逊的核心利润来源,AWS(云服务),其增长速度已经落后于微软的 Azure 和谷歌云。亚马逊需要快速释放大量现金,来招聘昂贵的 AI 专家和建造数据中心。

这笔开销正以前所未有的速度上升。2024年,他们在服务器与数据中心建设上的支出,就已经突破 850 亿美元。2025 年预计将再增加 40%,达到 1200 亿

每削掉 1% 的白领薪酬预算,就意味着公司能多买几千块 H100 GPU。

分析师们一针见血地指出,「亚马逊短期内面临着压力,需要抵消在建设 AI 基础设施方面的长期投资」。

我们使用的 ChatGPT、Claude 都强烈依赖于这些云服务;Claude 主要依赖 AWS,Gemini 则是自家的 Google Claude,OpenAI 则主要有微软 Azure 提供支持。不过 anthropic 在前几天也宣布和 Google 达成合作,使用他们的 TPU;OpenAI 也有使用 AWS 的云服务。

现在,裁员的逻辑清晰了,亚马逊正在砍掉成熟业务(如零售)中的臃肿管理层,以及 HR 、设备 等非核心盈利部门的员工,将他们数以亿计的工资,转化成支持 AI 军备竞赛的「弹药」

这些被裁的 L5-L7 经理们,他们不是被 AI 取代了,他们是被 AI 的成本给「挤兑」了

这是一个残酷,但大势所趋的商业决策:用今天的人,换明天的算力。

能被挤兑,只怪疫情期间招了太多

如果说为 AI 凑钱是面向未来的战略考量,那么这场裁员还有另一个更尴尬、更着眼于过去的真实原因,就是纠正疫情期间,亚马逊的过度招聘

耶鲁大学的经济学家 Ernie Tedeschi 直接说,「我认为这主要是对疫情期间动态的纠正,而不是像 AI 这样的新事物在冲击这些公司。

数据是不会撒谎的。

在 2020 年和 2021 年的疫情电商热潮中,亚马逊过度招聘,雇佣了数十万员工 。其全球员工总数(包括仓库和企业员工)从 2017 年到 2024 年几乎翻了三倍 ,一度超过 160 万。

现在,电商需求增长放缓 ,经济进入不确定期,亚马逊发现自己养了太多「多余」的企业员工。这家公司开始要为当年的疯狂买单,进行成本优化了。

毕竟,它一边裁掉的是疫情期间膨胀最快的白领和经理职位,同时又在大规模招聘 25 万名季节性仓库工人。刚刚还投资 10 亿美元,将仓库工人的平均时薪提高到 30 美元以上。

一边是给蓝领加薪招人,一边是裁掉白领经理。AI 所引发的生产力替代浪潮,并没有想象中来得那么快,但它的潜在影响,已经开始让这些大型企业如履薄冰,不能再走错一步路。

把裁员归咎于 AI,对公司来说是一举多得。它把过去这些走错的路(一个传统的、因管理不善、过度招聘导致的成本削减行为),包装成了一个具有前瞻性的、面向未来的技术转型。

▲图片来源:https://x.com/KobeissiLetter/status/1983209896721236139

虽然和传统叙事里面那套,因为 AI 的高效率,所以要裁员不同,但其实他们讨论的都是一件事情。

亚马逊、微软 、Meta 和 Google 为首的这些科技巨头,正处在一场关乎生死的 AI 军备竞赛中。竞赛的入场券,就是构建数据中心、采购天价的 GPU、研发基础模型。

而亚马逊的裁员,也正是因为,他需要腾出这 3 万人的薪资预算,去支付建设 AI 基础设施的巨额账单。

▲Meta 要建一个和曼哈顿岛一样大的数据中心

另一批也在裁员的公司,UPS(联合包裹服务公司)、塔吉特 (Target,美国零售业巨头) 、乃至汉莎航空 (Lufthansa) ,它们裁员,恰恰是因为 AI 已经在起作用了。

这些公司不需要自己承担天价的研发成本,它们只需要从亚马逊 (AWS)、微软 (Azure) 这样的平台,租用成熟的 AI 解决方案,像是自动化客服、供应链优化 、精简管理层级。

这两种裁员动机,一个为未来买 AI,一个因现在用 AI,它们都在喂养同一只经济巨兽——算力

很明显,AI 正在创造财富,这些财富以前所未有的速度流向了算力,而不是劳动力

半导体公司,像是英伟达就坐在这条价值链的顶端,向所有人收租。

▲ 全球首个市值突破 5 万亿美元的公司,英伟达,7 月份才刚刚突破 4 万亿

对于被裁的员工来说,无论理由是什么,结果都是一样的。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


MacBook Pro M5 首发评测:苹果最接近「游戏本」的一次?

作者 马扶摇
2025年10月22日 07:00

在过去的很长时间里,「用 Mac 打游戏」一直是网络上一个长久不衰的梗。

但是伴随着近几年苹果深耕 macOS 软件生态、开始主动加大和游戏厂商的合作力度之后,我们得以在 Mac 上见到越来越多经典 IP,「用 Mac 打游戏」听起来似乎不是那么离谱了。

而这背后的一切,除了苹果难得的主动合作态度之外,更要归功于 Apple Silicon 自身在性能和功耗方面的提升。

这不,苹果又在前两天发布了使用 M5 处理器的三款新品:iPad Pro、MacBook Pro 以及 Vision Pro。

爱范儿收到的这台 14 寸 MacBook Pro 是 10+10 核心的 M5 标准版,内存规格为 M5 所支持的最大容量 32GB,以及 1TB 的硬盘,和一块纳米纹理玻璃的抗眩光屏幕:

和今年有抗眩光涂层的 iPhone 17 Pro 相比,MacBook Pro 上纳米纹理玻璃 + 抗反射涂层的组合,无论是在泛光的室外还是充满点光源的室内,消除反光的效果都相当出色。

但 M5 MacBook Pro 的外围硬件和前代其实没有区别,真正让它脱颖而出的,还得是机身里的这块 M5 处理器。

今年的 M5,是继 M3 和 M4 以来,苹果连续第三年推出 3nm 处理器了。M5 的制造工艺换成了 A19 Pro 同款的第三代台积电 3 纳米工艺(N3P)。

换句话说,和 A19 Pro 师出同门的新架构,让 M5 的能效比得到了进一步提升,也让 MacBook 原本就很强的离电续航更上一层楼,哪怕是 14 寸机型也能做到「电脑续航比人长」。

更重要的是,今年 M5 处理器的升级大部分集中在 GPU 上。N3P 工艺优秀的能效比,让这一次 MacBook Pro 的性能释放更加大胆。

就拿 macOS 平台上最主流的 3A 大作《赛博朋克 2077》来说,M5 的 MacBook Pro 使用游戏默认的「for this mac」配置时,能够在大部分画质选项为中或高的前提下实现离电 30 帧的表现。

而打开 FSR 和帧生成后,2077 则可以以接近游戏默认的「中画质」配置里跑到稳定 50-60 帧左右,同时维持你在星巴克的座位不变,不用接电源。

类似的情况也出现在 App Store 上的《控制:终极合辑》,以及爱范儿编辑部最近都在玩的《逃离鸭科夫》中。只需要一点点画质微调,M5 MacBook Pro 都可以稳在 60 帧以上:

换个角度看,这个体验其实已经接近了当年 GTX 1660 的表现。App Store 和 Steam 上越来越丰富的游戏库,满足了 Mac 用户在出差高铁上也能玩玩搜打撤的愿望。

另一方面,M5 最大的升级点还在于它为每颗 GPU 核心都内置了「新一代神经网络加速器」,相当于让 M5 有了个 10 核的 NPU。

这样一来,M5 的 AI 性能——尤其是本地 AI 性能,就有了相当坚实的基础。

以苹果在官方视频中演示过的 Msty Studio 为例,作为一款功能类似 Ollama 但模型库更丰富的「开源模型本地化部署工具」,Msty Studio 最主要的功能,就是可以让你的 Mac 在断网情况下跑语言模型。

我们以最体现性能的「首词元响应速度」表现为标准可以看到,纯本地运行的 DeepSeek-R1:8b 在 10 核心 GPU 的 M5 上运行时,对于相同的一段生成指令,它的速度追平了 24 核 GPU 的 M1 Max

相当于 M5 用不到一半的核心数量,就可以获得与两三年前 Pro 甚至 Max 规格的 Apple Silicon 相当,同时发热量和功耗还控制在一个相当优秀的水平。

更重要的是,类似的表现也可以在其他本地化的 AI 场景中复现。

比如在纯本地运行的 AI 视频画质增强工具 VidHex 中,在进行视频细节增强时,10 核的 M5 同样出现了追平甚至反超 24 核 M1 Max 的现象。

但在测试过这么多本地 AI 工具之后,我们也不由得产生了一个疑惑:

开源的本地 AI 模型虽然免费,但部署起来比较麻烦,其中很多也没有非常直观的图形界面、必须在终端里面用 CLI(命令行界面)去微调——

而那些收费的本地 AI 工具,实际上就是在卖一个打包好的 GUI(图形界面)。现在云端模型不仅性能更强,价格也逐渐亲民,你觉得「本地化部署和运行 AI 模型」能够对你的电脑购买决策产生影响吗?

总之,对于 M5 的端侧 AI 性能,爱范儿认为:苹果官网上宣传的「相比 M1 有四到六倍的提升」是比较贴切的,不仅是可以稳定的「10 核打 24 核」,同时还有更优秀的发热和功耗控制。

M5 这样一来,就很难不让人期待明年 M5 Pro 和 M5 Max 的表现了,或许可以催生另一批多台 Mac Studio 组网做超算的潮流。

不过就在前两个月,M4 家族的 MacBook Pro 刚刚经历过一轮国补,新的 M5 基础款并不能和 M4 Pro/Max 形成替代关系。

因此今年值得升级 M5 基础版 MacBook Pro 的,更多还是那些仍在坚守 M1 或 M2 系列的老用户,就比如爱范儿编辑部那位还在用 M1 Max 的编辑。

至于爆料中那个模具更新、去除刘海的新 MacBook,则至少要到明年的 M6 机型才有希望了。如果你是 M4 家族的用户,那么小挤一管牙膏的 M5 并不是具有说服力的换机理由。

总之,爱范儿今年对于 M5 MacBook Pro 的结论,依然与前两代相同:

Mac 依然是一个「你必须非常明确自己的需求」才值得入手的优秀工具——如果你不确定自己需不需要一台 Mac,那么就是不需要

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


电纸书也玩窄边框?新款 Kindle Scribe 发布,带来首款「全面屏」Kindle

作者 马扶摇
2025年10月9日 18:00

随着折叠屏手机在便携性和显示效果上的进步,以及内容消费方式的转变,我们似乎越来越少听人提起「专门用于阅读」的电子设备了。

然而作为电纸书产品的开创者,亚马逊显然不是这么想的。9 月 30 日,亚马逊宣布更新了旗下的 Kindle Scribe 产品线,一共推出了三款改进型号。

根据亚马逊的介绍,今年的「新一代 Kindle Scribe」分别包含 Kindle Scribe 标准版、Kindle Scribe 无背光版,以及支持彩色墨水屏显示的 Kindle Scribe Colorsoft:

图|Amazon

今年的三款 Scribe 屏幕尺寸相比 2024 款稍微增长,从 10.2 寸提升到了 11 寸,同时机身重量从 433g 缩减到了 400g,厚度更是从 5.7mm 压缩到了 5.4mm。

图|Amazon

2025 款 Scribe 的全系主要升级点在于屏幕技术。根据亚马逊官方的描述:「最新的 Oxide 显示技术让书写和翻页速度提升了 40%」,搭配一贯优秀的残影控制,阅读体验无疑距离纸质书更近了一步。

此外,2025 款 Scribe 依然会附赠亚马逊官方的 Premium Pen 手写笔,并且新 Scribe 优化了屏幕的堆叠工艺、进一步缩小了显示层和表面的纹理玻璃,让墨迹和笔尖几乎实现了 0 视差,书写仿真同样大升级。

图|Amazon

而今年的彩屏款 Scribe Colorsoft,是自去年的 Scribe Colorsoft 签名版之后,亚马逊时隔一年就推出的第二款彩色墨水屏电纸书产品。它采用了一套亚马逊定制的显示技术,借助彩色滤光片以及氮化物 LED 光导方案,实现了在增强色彩的同时不至于影响显示细节。

根据官网和商品页面的介绍,Scribe Colorsoft 2025 款的通用书写工具支持 10 种笔颜色和 5 种荧光笔颜色,以及一个专门的着色(shader)工具,可以实现顺滑的 4096 色渐变,用 Kindle 随手涂鸦的效果可以更上一层楼了。

图|Amazon

只不过用过墨水屏设备的朋友都知道,目前彩色墨水屏技术由于需要安装更多颜色的微型墨囊,会造成分辨率的损失。

这也是为什么三款新的 Scribe 在黑白模式下都支持 300ppi 的分辨率,但 Scribe Colorsoft 打开彩色显示之后,分辨率会骤降到 150ppi ——换句话说,用它来书写要比阅读更舒服一些。

图|Amazon

此外,亚马逊也为三款新的 Scribe 更新了不少软件功能,其中自然少不了 AI 的影子。

根据官网描述,2025 款 Scribe 在内置的笔记本工具种增加了 AI 搜索的功能,让用户可以用自然语言搜索笔记,或者用来生成 AI 摘要,甚至是进行深度研究和对话。

这个功能很方便那些更常用 Kindle 压泡面的用户——当你时隔半年重新捡起一本书的时候,可以用 AI 摘要功能来帮你回忆之前看过的篇幅到底讲了些什么。

图|Amazon

亚马逊甚至还学起苹果,花了个 AI 大饼:用户就可以把 Scribe 上面的笔记和文档上传给 Alexa+ 服务,作为文本资料进行对话和讨论——但这个功能要到明年才能实装。

如果你现在就想用这个 AI 功能,则可以利用 Scribe 的 Google Drive 和微软 OneDrive 云盘接入能力。这两个第三方云端文档同样支持上传给 Alexa+ 分析。到时候看看 Alexa+、Gemini 和 Copilot 针对同一篇文档能分析出什么东西,想来也是很好玩的。

不过仅凭上面的这些功能,2025 款 Kindle Scribe 其实并没有什么非常特殊的地方,无论怎么看都只是一次常规升级而已。

然而如果把 2024 款的 Kindle Scribe 拿出来放到一边,我们立马就会发现:今年 Scribe 最大的技术突破,其实就藏在光天化日之下——

2025 款(左)与 2024 款 Scribe(右)|Amazon

在此之前,由于墨水屏的显示底层由一个个装着染料分子的微型墨囊构成,无法像 OLED 那样弯折,因此墨水屏始终没能很好解决外侧排线占空间的问题,最多只能做到三面窄边框。

然而今年的三款 Scribe 都做到了一件史无前例的事情:四等边的窄边框墨水屏——从商品图旁边的 Premium Pen 宽度比较,2025 款 Scribe 的边框宽度仅为 0.4 英寸(大约 1 厘米)左右。

这对于电纸书产品来说是非常难得的,无论是爱范儿此前介绍过的 reMarkable Paper Pro Move,还是今年的 Kindle Paperwhite,无论机身怎样减薄,始终都很难实现窄边框:

图|reMarkable

更重要的是,今年 Scribe 的屏幕边框大进步,实际上要归功于亚马逊的墨水屏供应商——元太科技工业(E Ink Holdings Incorporated)。这家位于台湾省新竹市的上市公司,实际上是目前全球规模最大的墨水屏制造商:

图|元太科技官网

尽管亚马逊 Kindle 退出了中国大陆市场,但元太科技仍然是全球墨水屏供应商的最大参与者。目前国内市场活跃的电子阅读器品牌如掌阅、文石等等,仍然有很多屏幕来自元太。

而元太这一次在墨水屏边框厚度上的技术突破,极有可能在未来一两年里出现在国内的电子阅读器/电纸书产品上。换句话说,一场墨水屏的「全面屏」革命其实就在我们面前了。

亚马逊设备与服务高级副总裁 Panos Panay 展示 Kindle Scribe Colorsoft|Amazon

只不过和小米独占骁龙 8 Elite Gen5 首发一样,亚马逊大概率也会独占元太的窄边框墨水屏一段时间,尤其是 10-11 寸这个黄金尺寸区间。

因此如果你等不及国产品牌跟进,或者仍然在使用亚马逊的 Kindle 生态,那么直接海淘今年的 Kindle Scribe 系列仍然是个不错的选择。

无背光版 Kindle Scribe|Amazon

标准版 Kindle Scribe 与彩屏版 Kindle Scribe Colorsoft 将在今年内于美国上市,售价分别为 499.99 美元和 629.99 美元(约合人民币 3560 和 4500 元),无背光的基础款 Scribe 则将在 2026 年初上市,价格 429.99 美元(约合人民币 3060 元)。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌