普通视图

发现新文章,点击刷新页面。
昨天以前首页

AI 大神 Karpathy 2025 年度总结刷屏:AI 既是天才也是智障,这 6 个转折最关键

作者 爱范儿
2025年12月20日 12:46

最近各种年度回顾陆续上线, OpenAI 的前联合创始人 Andrej Karpathy 也交出了自己对大模型的年度总结

就在今年早些时候,他在 YC 的一场演讲刷爆了全网,提出了不少新的观点:

  • 软件 3.0 已来: 从最初的人写代码(1.0),到喂数据训练模型(2.0),现在我们进入了直接对模型「念咒语」(Prompt)的 3.0 时代。
  • LLM 是新操作系统: 它不是像自来水一样的普通商品,而是一个负责调度内存(Context Window)和 CPU(推理算力)的复杂 OS。
  • Agent 的十年: 别指望 AI Agent 一年就成熟,从 99% 到 99.999% 的可靠性,我们需要走上十年。

Karpathy 今天这篇《2025 年度总结》,他再次向我我们剖析了这一年 AI 究竟长出了什么样的「脑子」。

以下是对 Karpathy 年度总结的精译,APPSO 在不改变原意的基础上做了更多通俗解读。

如果想看原文可以点击🔗 https://karpathy.bearblog.dev/year-in-review-2025/

2025 年是 LLM(大语言模型)发展强劲且充满变数的一年。以下是我列出的几点个人认为值得注意且稍感意外的「范式转变」——这些变化不仅重塑了行业版图,更在概念层面上狠狠地冲击了我的认知。

🛑 太长不看版:

2025 年既让人兴奋,又有点让人措手不及。

LLM 正在作为一种新型智能涌现,它同时比我预期的要聪明得多,也比我预期的要笨得多。

无论如何,它们极其有用。我认为即使以目前的能力,行业甚至还没挖掘出其潜力的 10%。同时,还有太多的想法可以尝试,从概念上讲,这个领域感觉依然广阔。正如我今年早些时候提到的,我同时(表面上矛盾地)相信:我们将看到持续快速的进步,但前方仍有大量艰苦的工作要做。

系好安全带,我们要发车了。

1. RLVR:教 AI 像做奥数题一样「思考」

在解释这个复杂的基础概念之前,先看看以前是大模型训练是怎么做的?

在 2025 年初,各大实验室训练 LLM 的「老三样」配方非常稳定:

1. 预训练(Pretraining):像 GPT-3 那样,让 AI 读遍全网文章,学会说话。

2. 监督微调(SFT):找人写好标准答案,教 AI 怎么回答问题。

3. 人类反馈强化学习(RLHF):让 AI 生成几个答案,人来打分,教它讨人喜欢。

现在发生了什么变化?

2025 年,我们在这个配方里加了一味猛药:RLVR(从可验证奖励中进行强化学习)。

这是什么意思?

简单来说,就是不再让人来打分(人太慢且主观),而是让 AI 去做那些「有标准答案」的任务,比如数学题或写代码。对就是对,错就是错,机器能自动验证。

在数百万次的自我博弈和试错中,模型自发地演化出了看似「推理」的策略。它们学会了先把大问题拆解成小步骤,甚至学会了「回过头来检查」这种高级技巧(参考 DeepSeek R1 论文)。

核心对比:

  • 旧范式(RLHF): 像是教小孩写作文。因为没有标准答案,AI 很难知道自己哪一步想错了,只能模仿人类的语气。
  • 新范式(RLVR): 像是把 AI 关进奥数训练营。不用教它具体怎么想,只要给它足够多的题和对错反馈,它自己就能摸索出解题套路。

这一招太好用了,以至于 2025 年大部分算力都被这只「吞金兽」吃掉了。结果就是:模型并没有变大,但训练时间变长了。 我们还获得了一个新旋钮:让 AI 思考得久一点。OpenAI 的 o1 是开端,而 o3 则是真正的拐点。

2. 幽灵 vs 动物:AI 不是「电子宠物」

2025 年,我和整个行业终于从直觉上理解了 LLM 智能的「形状」。

一个惊悚的比喻:我们不是在像养宠物一样「进化/养育动物」,我们是在「召唤幽灵」

为什么这么说?

因为 AI 的一切都和生物不同。人类的大脑是为了在丛林里活下来、为了繁衍后代而优化的;而 LLM 的大脑是为了模仿人类文字、在数学题里拿分、在竞技场里骗赞而优化的。

参差不齐的智能(Jagged Intelligence):

正是因为 RLVR(可验证奖励)的存在,AI 的能力在某些领域(如数学、编程)会突然飙升成刺状。这就导致了一种极其滑稽的现象:

  • 它同时是一个绝世天才(秒解高数题);
  • 又是一个智障小学生(会被简单的逻辑陷阱骗得团团转)。

▲这里 Karpathy 引用了一张梗图:人类智能是圆润的蓝色圆圈,AI 智能是像海胆一样满是尖刺的红色图形。这很形象.

这也解释了为什么我对现在的「跑分榜单」(Benchmarks)失去了信任。

什么是「刷榜」的本质?

既然榜单是可验证的,那就可以用 RLVR 针对性训练。现在的实验室都在搞「应试教育」,把 AI 的能力尖刺专门往考题上长。「在测试集上训练」已经不仅仅是作弊,而成了一门新的艺术形式。

3. Cursor:不仅是编辑器,更是「包工头」

Cursor 今年的爆火,揭示了一个新真相:LLM 应用层比我们想象的要厚。

大家开始谈论「医疗界的 Cursor」、「法律界的 Cursor」。这些应用到底做了什么?

  • 「上下文工程师」: 帮你整理好所有背景资料喂给 AI。
  • 「工头」: 在后台偷偷指挥多个 LLM 干活,把复杂任务拆解,还要帮你省钱。
  • 「遥控器」: 给你一个调节「自主性」的滑块,决定放手让 AI 干多少。

预测:大模型实验室(如 OpenAI)会负责培养「全科大学生」;而应用开发商(如 Cursor)则负责给这些学生提供私有数据和工具,把他们组建成「专业施工队」

4. Claude Code:住在你电脑里的「赛博幽灵」

Claude Code (CC) 的出现让我眼前一亮。它不仅仅是一个能写代码的 Agent(智能体),更重要的是:它活在你的电脑里

对比来看,我认为OpenAI 搞错了方向。

OpenAI 早期的 Agent 都在云端跑(ChatGPT),离你的真实环境太远。虽然云端智能体听起来像是 AGI 的终局,但在当前这个「参差不齐」的过渡阶段,本地才是王道。

为什么本地很重要?

因为你的代码、你的配置、你的密钥、你的混乱环境,都在本地。Anthropic(Claude 的母公司)搞对了优先级,他们把 AI 塞进了一个小小的命令行界面(CLI)里。

它不再是你浏览器里的一个网页(像 Google 那样),它变成了一个寄宿在你电脑里的「赛博幽灵」,随时准备帮你干活。这才是未来 AI 交互的样子。

5. Vibe Coding

什么是 Vibe Coding?

这是我在推特上随口造的一个词(居然火了):意思是写代码不再需要你真的懂语法,你只需要用英语描述你的「意图」和「感觉」,剩下的交给 AI。

这带来了什么改变?

  • 对于普通人: 编程的门槛彻底消失了。
  • 对于专家: 代码变得像纸巾一样「廉价、一次性、用完即弃」。

举个例子,我为了找一个 Bug,可能会让 AI 现场写一个专门的 App 来测试,测完就删。放在以前,为了找个 Bug 专门写个 App?疯了吧!但在 2025 年,代码是免费的。

Vibe Coding 将会彻底重塑软件行业,也会改写程序员的招聘 JD。

6. Nano Banana:AI 终于有了自己的「脸」

为什么现在的 AI 交互很反人类?

不管是 ChatGPT 还是 Claude,我们还在用「打字」跟它们聊天。这就像 80 年代还在用 DOS 命令行的黑底白字。

事实是: 计算机喜欢文本,但人类讨厌读文本。人类是视觉动物,我们喜欢看图、看表、看视频。

Google Gemini Nano banana(这是一个虚构的模型代号,指代某种多模态交互模型)是 2025 年的另一个范式转变。它暗示了未来的 LLM GUI(图形界面) 是什么样子的

未来的 AI 不应该给你吐一堆字,它应该直接给你画一张图、生成一个网页、弹出一个交互面板。 这不仅仅是「画图」,而是将文本生成、逻辑推理和视觉表达纠缠在一起的混合能力。

连接热爱,发现创新价值的科技媒体,传播有价值的发声文本。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


字节 92% 工程师都在用的 TRAE,这次瞄准了企业级市场

作者 张子豪
2025年12月19日 14:29

AI Coding 的「元年」还没落幕,在即将迈入 2026 之际,这个赛道就加速进入更加残酷的下半场了。

之所以残酷,是因为规则变了,如果说上半场比的是「速度」,那么下半场拼的就是「落地」。

这带来的变化或许远超开发者想象,最近OpenAI 披露了一个颠覆性的工程案例:Sora 的 Android 团队曾面临极度紧迫的上线任务。

为此,他们组建了一支仅有四名工程师的「特种部队」。通过 AI coding 的方式,这支四人小队在 18 天内就发布了内部版本,10 天后即公开发布。这并非牺牲质量的狂奔,相反,他们在极短周期内依然保持了高标准的可维护性。

可见,AI 不仅在写代码,更在定义软件架构。而 Gartner 预测,到 2028 年,90% 的企业软件工程师将使用 AI Coding,开发效率将提升 30%。

在中国,这种转变甚至更为激进。数据显示,84% 的开发者正在使用 AI Coding 产品,其中 51% 每天都在使用。

但热闹背后,CTO 们的焦虑其实更深了。

因为 AI Coding 正在经历最痛苦的「祛魅时刻」: 从单纯验证「能不能写出一段 Python」,到要求「能不能搞定复杂的企业工程」。

问题早已从「要不要做」,变成了「怎么做得更好」

说白了,企业引入 AI Coding 必须先解决四大挑战:安全合规、性能适配、管理透明和流程集成。解决不了这些,AI 就不仅无法提效,反而会变成一个吞噬维护成本和带来安全隐患的无底洞。

昨天,一家中国大厂也交出了自己的答卷,在火山冬季 Force 大会上,字节正式发布 TRAE CN 企业版,拥有 600万开发者、市占率第一的 TRAE ,正式进军 B 端市场,它的目标很明确:啃下挡在企业应用 AI Coding 前的几座大山。

TRAE CN 企业版,让 AI Coding 进入「工程轨道」

如果 AI Coding 仅仅意味着代码能跑通,其他全凭运气,那它永远无法真正进入企业开发的核心工作流。

这本质上是一场关于「控制权」的博弈。

企业需要的 AI Coding ,应当监控自己的训练过程,甚至为自己编写测试框架,但最终的「决定权」和「迭代方向」,始终掌握在人类手中。这是一种微妙的人机协作关系:让 AI 负责干活和制定初步计划,人类负责审查、讨论并迭代计划。

在TRAE CN 企业版里,各处都是这种「可控协作」的细节。

它拒绝让开发者陷入盲目的「抽卡式」编程,而是通过配置企业规则、知识库与 Agent,强迫 AI 进入团队协作的严谨轨道。在这个轨道里,TRAE 不仅生成代码,更在生成一种「懂业务、守规矩」的工程资产。

通用大模型最大的软肋,其实并非算力限制,而是「上下文窗口与工具调用次数的限制」。

它们通常只能盯着当前打开的文件,面对企业级数亿行代码的超大仓库(Monorepo)时,这种能力简直是个笑话。

所以,TRAE CN 企业版针对大仓库场景,专门对上下文与索引性能进行了深度优化,直接构建了资深架构师般的「上帝视角」

它支持 10 万文件、1.5 亿行代码的超大仓库索引,配合超长上下文窗口,能适配最复杂的编程场景。比起简单的文本检索,TRAE 实现了亿行级代码的极速检索与实时增量索引。依靠企业级 GPU 集群的优化,它能在处理如此海量信息时依然保持毫秒级响应

这意味着,当你敲下需求的那一瞬间,TRAE 已经「看」完了你整个项目,给出的不再是孤立的代码片段,是基于完整上下文的深思熟虑。

为什么我们需要这种能力?因为传统软件工程的物理定律正在失效。

图灵奖得主、曾撰写软件工程圣经《人月神话》的架构师 Fred Brooks 有句名言:「在一个已经延期的软件项目中增加更多人手,只会让项目更晚完成。」

▲ Fred Brooks

刚刚发布的 TRAE CN 企业版,正在试图打破这个魔咒。

要知道很多稍有底蕴的技术团队,都有自己的一套「黑话」和「规矩」。这些宝贵的知识往往分散在 Wiki 文档、CI/CD 流程或者特定的工具链中。通用的 AI 对此一无所知,生成的代码往往充满了「外行感」,需要大量的人工修正。

TRAE 企业版的解法是:全场景适配,让 AI 学会团队「语言」

它允许企业直接接入知识库与规范,并基于 MCP 协议统一调用企业的工具与数据源。这相当于给 AI 装上了企业的「大脑」和「手脚」。

当 Agent 接收到指令时,它会基于企业规则和知识库进行校准。所以,TRAE 生成的代码自带「规矩」:它更懂业务逻辑,代码生成更准确,甚至能集成现有的 CI/CD 和 DevOps 体系,实现 AI 开发的一体化。

更关键的是,它让所谓的「管理黑盒」变得更加透明。

以前老板不敢推 AI,是因为不知道员工用 AI 干了什么,也不知道 ROI 到底是多少。TRAE CN 企业版直接把效能做成了看板。它可以追踪 AI 生成率、代码量等关键指标,让整体 ROI 清晰可见;同时还能设置费用上限、实时监控消耗,把成本算得明明白白。

当然,这一切的前提是守住安全的「红线」。

TRAE 企业版给出了的承诺是,数据不训练。官方隐私协议明确规定,企业代码永远不用于 AI 训练。配合代码全链路加密传输、云端零存储(代码文件默认本地存储)以及云端数据用后即焚机制,让企业代码资产「滴水不漏」。

TRAE 企业版扎扎实实地解决了三个最要命的工程问题:让 AI 看得全(全库索引)、懂规矩(规则内化)、能闭环(Agent 协作)。

正因为啃下了这三块硬骨头,TRAE 企业版才能将 AI Coding 从一个「有时好用、有时捣乱」的玩具,转变为企业研发的确定性生产力

在字节最真实的业务里,验证「确定性」

2025 年我们已经习惯了 AI 产品在 PPT 上各种参数的天花乱坠,但真正能让 CTO 们信服的,只有在极限业务场景下跑出来的数据。

最好的试金石,莫过于承载字节自家泼天流量的产品。毕竟在这种大量并发协作的真实业务考验里摸爬滚打出来,比任何关于「提效」的承诺都更有力,目前字节 92% 的工程师都在用 TRAE 进行开发。

就拿抖音生活服务来说,这个业务迭代速度快得惊人,过去面对的最大挑战,是需求到上线的链路冗长且人力投入巨大。从产品经理写下的自然语言需求(Brief),到工程师敲下的第一行代码,中间横亘着巨大的「沟通折损」。

工程师不仅要理解业务逻辑,还要在大脑中检索与之匹配的中间件、熔断规则和数不清的隐藏依赖。

而企业希望 AI 带来的生产力拐点,往往并不是推倒重来的「颠覆」,是要像水一样渗入到企业已有的流程里,去填补那些效率的洼地。

而 TRAE CN 企业版在这里给出的解法,就是一种不同的「全链路深度嵌入 」,透着一股老练的「懂行」

当工程师把一段飞书文档投喂给 TRAE 时,它没有机械地把中文翻译成代码。它不仅读懂了「团购券核销」这个业务动作,更扫描了当前服务的上下文,自动匹配了团队最新的 RPC 调用规范。它甚至指出了文档中未提及的兜底逻辑缺失。

如果问研发同学最讨厌干什么,写单元测试(Unit Test)绝对榜上有名。

这是一件苦差事。为了赶业务进度,单测往往是第一个被牺牲的环节;而一旦系统挂了,缺乏单测又是第一个被拉出来背锅的理由。这种死循环,折磨了无数技术团队。

TRAE 干了一件极其漂亮的事:单测自动生成与修复

据内部研发团队测试,在接入 TRAE 后,单测生成时间被压缩到了 18 分钟以内,而且首编译通过率高达 70% 以上。请注意,这 70% 不是生成的伪代码,而是实打实能跑通逻辑的测试用例。

TRAE 默默扛下了这些枯燥、重复但又至关重要的脏活累活,让工程师能把宝贵的脑力留给架构设计和业务创新。

这套在字节内部跑通的逻辑,也正在外部企业中复制

在一家头部的 PC 硬件厂商业务系统中, 80% 是旧代码迭代,多年的代码堆积让维护变得异常困难,每一次改动都像是在排雷。

引入 TRAE CN 企业版后,它充当了企业知识库的「守门人」。在 Java 后端场景中,TRAE 能准确识别陈旧的架构问题,甚至精准定位重复查询等性能瓶颈,给出优化方案。

而在前端,它直接打通了 Figma,让原型图瞬间转化为代码,被研发团队评价为「省去了切图环节,提速非常明显」。

能够处理那些逻辑盘根错节、充满历史包袱的存量老系统(Legacy Code),这意味着它不挑食,不嫌脏,具备极强的代码理解和上下文穿透力。

对于金融科技企业汇付天下,对代码的准确性和交付效率有着金融级的要求。在他们的支付 PaaS 平台「斗拱」的研发中,下游开发者理解接口文档耗时、环境部署排查困难一直是阻塞交付的顽疾。

他们在利用 TRAE 企业版的 Agent 能力后,实现了智能环境诊断和测试用例自动生成。它能分析下游环境日志,快速定位问题,直接将沟通成本降至最低。

效果是立竿见影的,从最初 10 个席位的谨慎试点,迅速扩展到 100 个席位,高峰期活跃率高达 70%。这种自下而上的高频使用,说明 TRAE 真正嵌入了工程师的核心工作流,而非一个可有可无的辅助插件。

字节跳动的高并发场景,到 PC 巨头的存量维护,再到金融科技的交付提效,TRAE 企业版这种转变,也是 AI Coding 更加成熟的标志,对于那些追求确定性、不仅要快更要稳的企业级研发来说,才有真正的应用价值。

AI Coding 的下半场,要成为确定性生产力

尽管行业普遍预测 AI Coding 还有巨大的增长空间,但背后依然是无数企业从观望到试水的艰难跨越。

企业需要的不是随机的 Vibe,而是确定的 Spec(规范)。

所以,AI Coding 的下一阶段,从「人指挥人」,转向「人定义 Spec(规范),AI 落地执行」

TRAE CN 企业版正是基于这种判断,将字节在 C 端极其复杂的海量场景经验,内化为解决问题的能力,确立了一种全新的生产关系。

TRAE 并不满足于生成 Demo 级代码,而是试图陪伴开发者走完从构思到落地的全链条。它让工程师从重复劳动中抽身,去定义架构、去洞察业务,给出企业可用的生产级代码。

不过,这场生产关系的进化注定不会轻松。传统的研发惯性、复杂的存量系统以及对安全合规的顾虑,依然是横亘在企业面前的现实高墙。

TRAE 的出现,或许只是给这堵高墙凿开了一个缺口。否持续证明这种「确定性」价值,能否让更多企业像字节内部一样信任 AI,将是决定其能否真正撬动企业级市场的关键。

这场关于 AI Coding 的长跑才刚刚起步,TRAE 抢到了一个不错的身位,但真正的较量还在后头。

文|李超凡

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌
❌