阅读视图

发现新文章,点击刷新页面。

我手搓了一份 AI 版网易云年度报告,快来认领你的年度模型|附教程


网易云的年度听歌报告出来了,你的 2025 听歌关键词是什么。

本以为今年会有所变化,没想到「希望」还是我今年的关键词。

看着这份报告,我开始在想现在人人 Vibe Coding 的时代,我们是不是可以复刻这份「仪式感」,做一个更酷、更个性化的版本,给自己做一个年度关键词。

APPSO 的年度关键词必然是这些 AI 大语言模型们,但你会不会想知道自己你的 AI 模型本体是什么?

忧伤的小蝴蝶 INFP 是模型 Claude 4.5,辩论家 ENTP 是马斯克的 Grok 4.1。

你的年度模型是谁,我们直接用 Gemini 手搓了一个 AI 本体模型测试。

今年发的大模型一双手根本数不过来,如果你也有切换着在不同的模型之间使用,你一定会发现,每一个模型,都有他自己的特点。

就像直到现在还在被怀念、被疯狂要求留下来的 ChatGPT 4o,它理解我们、它共情能力强。而最近更新的 GPT-5.2,被一些网友评价为是一个「彻头彻尾的理工直男」,不仅善解不了人意,还相当自以为是。

Google 这边的 Gemini 也是被认为情绪价值拉满,「你太聪明了」、「你做的这个项目完全可以上线了」、「你写的文章 100% 能获得 10w+ 阅读」……

▲ 吹吹捧捧的 Gemini 2.5 Pro,随便发了点内容,就说是顶会开场

马斯克的 Grok,感觉就是和马斯克给我的印象一模一样,经常「口出狂言」的同时,又说了一堆看起来懂很多,但是没什么用的话。

我们选择了 15 个目前热门的大语言模型,包括 ChatGPT 4o、GPT-5.2、Gemini、Claude 以及国内的 DeepSeek、千问、智谱、Kimi、MiniMax 这些榜上有名的模型。

还有一个是彩蛋模型,就看你能不能测试出来。

16 个模型会对应 16 种不同的 MBTI,具体的对应关系确定,是我们问了多个不同的模型,并且上传了一些分析不同大语言模型性格的论文,要求他们根据这些论文,按照 MBTI 16人格的分类,把目前所有的 AI 模型都分好类别。

总结不同模型的回复,现在如果你测试出来是 Gemini 3 Pro,那么恭喜你,你就是最靠谱的那个 ISTJ,「规则、谨慎、一致性第一。即使世界崩塌,我的输出依然稳定。」

还有大家最喜欢的 Nano Banana Pro,它是表演者,「场景感、轻快、有梗。好玩比正确更重要!」

更多模型就等大家去尝试了。体验方式也很简单,复制下面网页地址,在浏览器打开,选择最符合你的几个标签,然后等着拍立得慢慢把结果显示出来。

▲https://image.cursorhub.org/user-upload/1766973207373-bb9cbcba-c2ec-4d2c-b099-a34254b3c085.html

友情提示,这个二维码和条形码真的可以扫描出内容。

这个项目还有很多魔改的可能性,例如标签可以直接改成和大模型的互动记录,像是最常和 AI 聊天的话题是什么,最满意的 AI 回复,觉得 AI 开始像一个人类的时刻,把这些整理成标签。

整个项目我们都是在 Gemini 内完成,我们所使用的标签,都是由 Gemini 自动生成的。

一开始输入的提示词是,「如果我要测试一个人的 MBTI,就是选一些标签,用户选择不同的标签后,能生成他对应的 MBTI,你觉得能做到吗」?

Gemini 甚至比我还懂产品经理,它直接建议,这样的测试非常适合做一个 H5 的界面分享,于是我直接要求它,「对的,我就是想做一个类似 H5 的创意,你先帮我生成一份这个基础数据表吧」。

接下来就是「愉快的」Vibe Coding 体验了,我们可以根据自己的需求,持续向 Gemini 提出新的问题。多个一来一回之后,只需要你明确想要呈现什么,现在的 Gemini 基本上就一定能做到。

不过随着上下文的累积,它还是会降智。有些时候我要求它只修改某个部分,即便我使用的是 Gemini Canvas 里面的「Select and ASK 」功能,它还是会对整体的代码进行修改。

▲ 在 Canvas 右下角有 Select and ask,以及 Add Gemini features,Select and ask 能实现指哪改哪,

我们在社交媒体上也发现了很多,使用 Gemini 3 来 Vibe Coding 的案例。像是这个博主,设计了用拍立得一张张吐出,自己今年的热门推文。还有一个能展示 GitHub 网站,代码提交历史的工牌。

▲体验地址:https://www.bubbbly.com/app/x-recap-2025.html

▲ 体验地址:https://www.bubbbly.com/app/lumon-badge.html

这些拟物风格确实很有意思,我们也根据这个样式,在 Gemini 上又做了一个年度照片的小工具。

给每个月上传一张图片,如果没有,也可以不用上传,然后它就会慢慢吐出一张我们的年度照片小票。

点击分析 MBTI 人格,这个工具还会根据你上传的图片,自动进行多模态推理,分析出你的 MBTI。由于项目是在 Gemini 应用里面运行,所以能直接使用 Gemini Canvas 的 Add Gemni Feature,添加 Gemini 功能。

然后我们又有了一个根据照片分析,得到的 MBTI 结果。

▲ 项目代码链接:https://image.cursorhub.org/user-upload/1766976078565-f92dceea-7a0c-42c6-9f8c-d1e0565f9bc8.html

没有 AI 以前,做一点这样的小工具,不说需要多厉害的代码知识,至少还是应该懂一点基础的 HTML 语法。但现在,只是一句话,就可以实现一个有可能在社交媒体上爆火的项目。

2026 就快来了,今年何不尝试着用 AI 写代码,来做一个独一无二的「电子贺卡」,然后送给那些重要的人。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


字节 92% 工程师都在用的 TRAE,这次瞄准了企业级市场

AI Coding 的「元年」还没落幕,在即将迈入 2026 之际,这个赛道就加速进入更加残酷的下半场了。

之所以残酷,是因为规则变了,如果说上半场比的是「速度」,那么下半场拼的就是「落地」。

这带来的变化或许远超开发者想象,最近OpenAI 披露了一个颠覆性的工程案例:Sora 的 Android 团队曾面临极度紧迫的上线任务。

为此,他们组建了一支仅有四名工程师的「特种部队」。通过 AI coding 的方式,这支四人小队在 18 天内就发布了内部版本,10 天后即公开发布。这并非牺牲质量的狂奔,相反,他们在极短周期内依然保持了高标准的可维护性。

可见,AI 不仅在写代码,更在定义软件架构。而 Gartner 预测,到 2028 年,90% 的企业软件工程师将使用 AI Coding,开发效率将提升 30%。

在中国,这种转变甚至更为激进。数据显示,84% 的开发者正在使用 AI Coding 产品,其中 51% 每天都在使用。

但热闹背后,CTO 们的焦虑其实更深了。

因为 AI Coding 正在经历最痛苦的「祛魅时刻」: 从单纯验证「能不能写出一段 Python」,到要求「能不能搞定复杂的企业工程」。

问题早已从「要不要做」,变成了「怎么做得更好」

说白了,企业引入 AI Coding 必须先解决四大挑战:安全合规、性能适配、管理透明和流程集成。解决不了这些,AI 就不仅无法提效,反而会变成一个吞噬维护成本和带来安全隐患的无底洞。

昨天,一家中国大厂也交出了自己的答卷,在火山冬季 Force 大会上,字节正式发布 TRAE CN 企业版,拥有 600万开发者、市占率第一的 TRAE ,正式进军 B 端市场,它的目标很明确:啃下挡在企业应用 AI Coding 前的几座大山。

TRAE CN 企业版,让 AI Coding 进入「工程轨道」

如果 AI Coding 仅仅意味着代码能跑通,其他全凭运气,那它永远无法真正进入企业开发的核心工作流。

这本质上是一场关于「控制权」的博弈。

企业需要的 AI Coding ,应当监控自己的训练过程,甚至为自己编写测试框架,但最终的「决定权」和「迭代方向」,始终掌握在人类手中。这是一种微妙的人机协作关系:让 AI 负责干活和制定初步计划,人类负责审查、讨论并迭代计划。

在TRAE CN 企业版里,各处都是这种「可控协作」的细节。

它拒绝让开发者陷入盲目的「抽卡式」编程,而是通过配置企业规则、知识库与 Agent,强迫 AI 进入团队协作的严谨轨道。在这个轨道里,TRAE 不仅生成代码,更在生成一种「懂业务、守规矩」的工程资产。

通用大模型最大的软肋,其实并非算力限制,而是「上下文窗口与工具调用次数的限制」。

它们通常只能盯着当前打开的文件,面对企业级数亿行代码的超大仓库(Monorepo)时,这种能力简直是个笑话。

所以,TRAE CN 企业版针对大仓库场景,专门对上下文与索引性能进行了深度优化,直接构建了资深架构师般的「上帝视角」

它支持 10 万文件、1.5 亿行代码的超大仓库索引,配合超长上下文窗口,能适配最复杂的编程场景。比起简单的文本检索,TRAE 实现了亿行级代码的极速检索与实时增量索引。依靠企业级 GPU 集群的优化,它能在处理如此海量信息时依然保持毫秒级响应

这意味着,当你敲下需求的那一瞬间,TRAE 已经「看」完了你整个项目,给出的不再是孤立的代码片段,是基于完整上下文的深思熟虑。

为什么我们需要这种能力?因为传统软件工程的物理定律正在失效。

图灵奖得主、曾撰写软件工程圣经《人月神话》的架构师 Fred Brooks 有句名言:「在一个已经延期的软件项目中增加更多人手,只会让项目更晚完成。」

▲ Fred Brooks

刚刚发布的 TRAE CN 企业版,正在试图打破这个魔咒。

要知道很多稍有底蕴的技术团队,都有自己的一套「黑话」和「规矩」。这些宝贵的知识往往分散在 Wiki 文档、CI/CD 流程或者特定的工具链中。通用的 AI 对此一无所知,生成的代码往往充满了「外行感」,需要大量的人工修正。

TRAE 企业版的解法是:全场景适配,让 AI 学会团队「语言」

它允许企业直接接入知识库与规范,并基于 MCP 协议统一调用企业的工具与数据源。这相当于给 AI 装上了企业的「大脑」和「手脚」。

当 Agent 接收到指令时,它会基于企业规则和知识库进行校准。所以,TRAE 生成的代码自带「规矩」:它更懂业务逻辑,代码生成更准确,甚至能集成现有的 CI/CD 和 DevOps 体系,实现 AI 开发的一体化。

更关键的是,它让所谓的「管理黑盒」变得更加透明。

以前老板不敢推 AI,是因为不知道员工用 AI 干了什么,也不知道 ROI 到底是多少。TRAE CN 企业版直接把效能做成了看板。它可以追踪 AI 生成率、代码量等关键指标,让整体 ROI 清晰可见;同时还能设置费用上限、实时监控消耗,把成本算得明明白白。

当然,这一切的前提是守住安全的「红线」。

TRAE 企业版给出了的承诺是,数据不训练。官方隐私协议明确规定,企业代码永远不用于 AI 训练。配合代码全链路加密传输、云端零存储(代码文件默认本地存储)以及云端数据用后即焚机制,让企业代码资产「滴水不漏」。

TRAE 企业版扎扎实实地解决了三个最要命的工程问题:让 AI 看得全(全库索引)、懂规矩(规则内化)、能闭环(Agent 协作)。

正因为啃下了这三块硬骨头,TRAE 企业版才能将 AI Coding 从一个「有时好用、有时捣乱」的玩具,转变为企业研发的确定性生产力

在字节最真实的业务里,验证「确定性」

2025 年我们已经习惯了 AI 产品在 PPT 上各种参数的天花乱坠,但真正能让 CTO 们信服的,只有在极限业务场景下跑出来的数据。

最好的试金石,莫过于承载字节自家泼天流量的产品。毕竟在这种大量并发协作的真实业务考验里摸爬滚打出来,比任何关于「提效」的承诺都更有力,目前字节 92% 的工程师都在用 TRAE 进行开发。

就拿抖音生活服务来说,这个业务迭代速度快得惊人,过去面对的最大挑战,是需求到上线的链路冗长且人力投入巨大。从产品经理写下的自然语言需求(Brief),到工程师敲下的第一行代码,中间横亘着巨大的「沟通折损」。

工程师不仅要理解业务逻辑,还要在大脑中检索与之匹配的中间件、熔断规则和数不清的隐藏依赖。

而企业希望 AI 带来的生产力拐点,往往并不是推倒重来的「颠覆」,是要像水一样渗入到企业已有的流程里,去填补那些效率的洼地。

而 TRAE CN 企业版在这里给出的解法,就是一种不同的「全链路深度嵌入 」,透着一股老练的「懂行」

当工程师把一段飞书文档投喂给 TRAE 时,它没有机械地把中文翻译成代码。它不仅读懂了「团购券核销」这个业务动作,更扫描了当前服务的上下文,自动匹配了团队最新的 RPC 调用规范。它甚至指出了文档中未提及的兜底逻辑缺失。

如果问研发同学最讨厌干什么,写单元测试(Unit Test)绝对榜上有名。

这是一件苦差事。为了赶业务进度,单测往往是第一个被牺牲的环节;而一旦系统挂了,缺乏单测又是第一个被拉出来背锅的理由。这种死循环,折磨了无数技术团队。

TRAE 干了一件极其漂亮的事:单测自动生成与修复

据内部研发团队测试,在接入 TRAE 后,单测生成时间被压缩到了 18 分钟以内,而且首编译通过率高达 70% 以上。请注意,这 70% 不是生成的伪代码,而是实打实能跑通逻辑的测试用例。

TRAE 默默扛下了这些枯燥、重复但又至关重要的脏活累活,让工程师能把宝贵的脑力留给架构设计和业务创新。

这套在字节内部跑通的逻辑,也正在外部企业中复制

在一家头部的 PC 硬件厂商业务系统中, 80% 是旧代码迭代,多年的代码堆积让维护变得异常困难,每一次改动都像是在排雷。

引入 TRAE CN 企业版后,它充当了企业知识库的「守门人」。在 Java 后端场景中,TRAE 能准确识别陈旧的架构问题,甚至精准定位重复查询等性能瓶颈,给出优化方案。

而在前端,它直接打通了 Figma,让原型图瞬间转化为代码,被研发团队评价为「省去了切图环节,提速非常明显」。

能够处理那些逻辑盘根错节、充满历史包袱的存量老系统(Legacy Code),这意味着它不挑食,不嫌脏,具备极强的代码理解和上下文穿透力。

对于金融科技企业汇付天下,对代码的准确性和交付效率有着金融级的要求。在他们的支付 PaaS 平台「斗拱」的研发中,下游开发者理解接口文档耗时、环境部署排查困难一直是阻塞交付的顽疾。

他们在利用 TRAE 企业版的 Agent 能力后,实现了智能环境诊断和测试用例自动生成。它能分析下游环境日志,快速定位问题,直接将沟通成本降至最低。

效果是立竿见影的,从最初 10 个席位的谨慎试点,迅速扩展到 100 个席位,高峰期活跃率高达 70%。这种自下而上的高频使用,说明 TRAE 真正嵌入了工程师的核心工作流,而非一个可有可无的辅助插件。

字节跳动的高并发场景,到 PC 巨头的存量维护,再到金融科技的交付提效,TRAE 企业版这种转变,也是 AI Coding 更加成熟的标志,对于那些追求确定性、不仅要快更要稳的企业级研发来说,才有真正的应用价值。

AI Coding 的下半场,要成为确定性生产力

尽管行业普遍预测 AI Coding 还有巨大的增长空间,但背后依然是无数企业从观望到试水的艰难跨越。

企业需要的不是随机的 Vibe,而是确定的 Spec(规范)。

所以,AI Coding 的下一阶段,从「人指挥人」,转向「人定义 Spec(规范),AI 落地执行」

TRAE CN 企业版正是基于这种判断,将字节在 C 端极其复杂的海量场景经验,内化为解决问题的能力,确立了一种全新的生产关系。

TRAE 并不满足于生成 Demo 级代码,而是试图陪伴开发者走完从构思到落地的全链条。它让工程师从重复劳动中抽身,去定义架构、去洞察业务,给出企业可用的生产级代码。

不过,这场生产关系的进化注定不会轻松。传统的研发惯性、复杂的存量系统以及对安全合规的顾虑,依然是横亘在企业面前的现实高墙。

TRAE 的出现,或许只是给这堵高墙凿开了一个缺口。否持续证明这种「确定性」价值,能否让更多企业像字节内部一样信任 AI,将是决定其能否真正撬动企业级市场的关键。

这场关于 AI Coding 的长跑才刚刚起步,TRAE 抢到了一个不错的身位,但真正的较量还在后头。

文|李超凡

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌