阅读视图

发现新文章,点击刷新页面。

2026 年 ChatGPT 要加广告了,最懂你的 AI 都开始出卖你

2026 年,很可能是人类首次需要给 AI 安装「广告拦截器」的一年。

就在今天凌晨,据 The Information 爆料称,OpenAI 员工正在琢磨如何让 ChatGPT 在用户提出相关问题时,优先显示「赞助内容」。比如你问睫毛膏推荐,就可能看到厂商的软广。

近几周内,OpenAI 的员工还制作了多种广告展示方式的原型图,其中就包括可能会出现在 ChatGPT 的界面侧边栏中。

从 2023 到 2024 年,硅谷的主流想象是优雅的。不少人笃定,大模型可以走 SaaS 模式,用户会像订 Netflix、Spotify 一样,每个月付 20 美元,然后就能清清爽爽地用上 AI 的服务。

但到了今年,这个幻想基本破产了。

因为 AGI 还没来,账单先到了。可以预见的是,明年更多 AI 产品会开始试探性地「上广告」。有的会明说,有的会伪装成推荐和合作,有的干脆就埋在交互里。

这多少带点黑色幽默:当我们还在仰望 AGI 统治世界的宏大愿景,没承想,它先学会的生存技能,竟然是靠广告「恰饭」。

▲ChatGPT 投放广告的泄露代码 | 图源自 Tibor

往 AI 加广告是回血捷径,也是想象力破产

先承认一个现实。在持续烧钱的大模型时代,「在 AI 里加广告」确实是最稳、最快的回血方式。

互联网已经替它们踩过一遍坑了。最早的门户网站卖广告位,后来搜索引擎卖关键词,社交网络和短视频平台卖信息流。

套路其实没变多少。先把人聚集过来,再把这些注意力打包卖给广告主。广告的形态越来越隐蔽,系统却越来越成熟。

AI 现在面临的处境,和当年互联网很像。

用户数狂飙,收入跟不上,订阅还在慢慢教育市场,企业付费项目周期长。理想和现实之间,隔着一个越来越大的亏损窟窿。

于是,贩卖广告成了一根放在 AI 牌桌上的救命稻草。谁压力大,谁就得先伸手。只是,谁先在对话里明目张胆地塞广告,谁就有可能先把最敏感、最挑剔的那批用户送到别家模型那里去。

囚徒困境的道理不外如此。

只要还有一家坚持不加广告,其它玩家在加广告时就会有顾虑,怕自己变成那个先被抛弃的人。而一旦多家同时迈出那一步,这种顾虑就被集体摊平了,谁也不用再装清白了。

把这个视角放到 Gemini 身上,就更清晰了。最近多家媒体援引广告代理商买家消息称,Google Gemini 的运营方已经告诉部分广告客户:计划于 2026 年在 Gemini AI 中植入广告。

从广告主视角看,这对他们来说是极具吸引力的新渠道:大模型的尽头不是 AGI,是 CPM(千次展示成本),而聊天环境 + 巨量用户则 = 极有潜力的变现空间。

但很快,Google 全球广告部负责人 Dan Taylor 在社交媒体上直接否认了这一说法,称「Gemini App 目前没有广告,也没有当前计划改变这一点」。这说明,Google 至少在公开语境里是保持谨慎的。

把镜头拉到 OpenAI CEO Sam Altman 身上,则能看到一个很典型的摇摆轨迹。
ChatGPT 刚火的那一两年,他反复强调自己不喜欢广告,尤其是「广告 + AI」这种组合,在公开场合叫它「让人格外不安」。

他更偏爱的是干净的订阅模式:用户直接付费,用钱换取不被广告商左右的答案。最多可以接受一种「导购分成」的想象——用户自己做完调研、自己下单,平台从成交里抽一小口,而不是收钱去调换答案的先后顺序。

到了 2025 年,他的话锋明显软了下来。

他开始承认「自己其实挺喜欢 Instagram 上那些精准广告」,觉得能帮自己发现好东西还挺酷,顺势改口:广告未必一无是处,关键看形态是不是足够有用、足够不讨人厌。

根据 The Information 的报道,OpenAI 正在寻求创造一种「新型数字广告」,而不是简单照搬现有的社交媒体广告形式。

ChatGPT 可以通过详细对话收集大量用户兴趣相关信息,OpenAI 曾考虑是否可以基于这些聊天记录来展示广告。方案之一就是在用户使用 ChatGPT 提问时,对「赞助信息」给予优先展示,比如可被设定为在生成回答时优先插入广告内容。

据知情人士透露,最近一些广告原型图中,广告被设计为出现在 ChatGPT 主回答窗口的侧边栏。此外,员工还讨论了是否应添加类似「本回答包含赞助内容」的声明。

一位知情人士表示,OpenAI 的目标是让广告尽量「不打扰用户」,同时维护用户信任。例如,广告只在对话进行到特定阶段后才出现:当用户询问巴塞罗那行程时,ChatGPT 会推荐圣家堂(非赞助),但点击链接后可能弹出付费导览服务的赞助商家。

与此同时,为了 OpenAI 的商业化发展,奥特曼更是操碎了心,一大早请来负责应用和商业化的高管,公开物色「广告负责人」,探索把 ChatGPT 变成广告平台的路径。比如 CFO Sarah Friar 就是实打实从广告系统磨炼出来的沙场老将。

包括即便奥特曼拉响了红色警报,但营收依旧是头等大事,并因此加码挖来前 Slack CEO Denise Dresser 做首席营收官,把「怎么赚钱」这件事提到了公司最高优先级。

嘴上是理想主义,实际心里全是生意。

当然,单看商业逻辑,这样做其实也没啥问题。数据不会说谎,OpenAI 的年化收入大概 120 多亿美元,听上去很亮眼,但烧钱速度却可能是公开数据的三倍。

预训练要烧钱,上线之后每一次推理也要烧钱。推理成本确实在降,但可杰文斯悖论印证了一点,当算力便宜一点,用户也只会立刻拿它去跑更复杂的模型,这也就造成企业需要购买越来越多的 GPU,电费账单也像滚雪球一样。

简言之,单位成本是降了,但总账一点没省。

根据 OpenAI 截至今年 7 月的统计,ChatGPT 约有 3500 万的付费用户,占周活跃用户的 5%,与此同时,订阅营收也占据了以 OpenAI 为代表的绝大多数 AI 企业的大头。

在这种背景下,所有 AI 公司都要面对一个简单粗暴的问题:钱从哪儿来。

最直接的答案,就是在 AI 里塞广告。

广告之所以成为原罪,是因为当年互联网缺乏其他有效的商业选择。同样在 AI 时代,如果没有创新模式,广告依然是覆盖大部分用户成本的唯一手段。

当然,如果照抄上一个时代赚钱方式的做法,显然是一种缺乏想象力的路径依赖。传统互联网已经证明过一次,当你手里只有锤子,所有问题都像钉子,当你只会做广告,所有产品都像广告位。

ChatGPT 广告同样面临挑战:截至今年 6 月,仅 2.1% 的查询涉及购物。为此,OpenAI 已接入 Stripe 支付、Shopify 电商、Zillow 房产和 DoorDash 送餐等功能,既培养用户购物习惯,也为广告投放积累数据。

收入模式决定产品形态,用户体验通常就会变成那个被牺牲的变量。AI 本被寄予厚望,被视为跳出旧时代泥潭的机会,谁也不希望兜兜转转,我们还是在同一个泥坑里打滚。

最懂你的 AI,开始给你带货

传统互联网加广告的方式,究其本质,不外乎用一块块醒目的位置贩卖注意力,更典型的是早年的搜索引擎广告。
页面看上去是搜索结果,实际前几条全是竞价排名。那时候的事故和争议,现在回头看都让人后脊发凉。

在 AI 里插广告,会比这些更危险。

经验丰富的我们对网页广告是有天然戒心的,对搜索结果也大概知道要多对比几条,知道上面这几个很可能是广告。但面对拟人共情的 AI 陷阱在于,我们可能会忘记屏幕对面可能站着一个销售团队。你把 AI 当老师,它把你当待转化的潜在客户。

回顾历史,苏东坡给卖馓子的小摊写了「纤手搓来玉色匀,碧油煎出嫩黄深。夜来春睡知轻重,压扁佳人缠臂金。」,从此客似云来。人们买的不是馓子本身,而是名人苏东坡的信任。

今天的 AI,在许多场景里就是那个被普通用户默认可信任的苏东坡。

尤其危险的一点,是现在不仅是简单的广告植入,还有人在用 GEO 做「内容投毒」。

GEO,顾名思义,是「生成式引擎优化」(Generative Engine Optimization),目的是让某篇网页或文章在 ChatGPT、Gemini、Perplexity 等 AI 回答引擎中被优先引用。

想象这样一个场景:某些厂商或利益方,提前发布大量优化过的网页文章,专门针对某种产品或服务写得很权威、很完整,并加了结构化标签、SEO 元数据、关键字提示等。

他们的目的不是为了帮助,而是为了确保当用户在 AI 里询问相关问题时,他们的内容被优先输出。接着,AI 把这些内容编入答案。

对用户来说,这就是「权威建议 + 中立信息」。而实际上,它可能是一个包装得像专家建议的商业推广/投毒结果。

这比传统的广告或者软文更可怕,因为它隐藏在「答案」的核心里,不是在醒目的广告位,而是在用户最信任的建议或者结论中。每隔几段文字,我们都需要确认,AI 的这个建议,到底是在为我着想,还是在帮谁带货。

光是把广告藏进一句话里,危险已经不小了。更重要的是,AI 还在谋划下一步,把自己挪到所有 App 的上游,干脆接管「谁来给你打广告」这件事。

传统互联网时代,每个超级 App 都想当入口。各自圈地、自建城墙。用户直接打开它们,再由它们负责往你眼前塞内容、塞服务、塞广告。

超级 App 做了十年的围墙花园,但 AI Agent 想一夜推平。

理论上,它具备跨应用操作能力,可以帮你完成「打开某 App 搜一下、多平台比价、自动填表下单」这种操作。你不再需要自己点来点去了,甚至不需要记住每一个 App 的入口。

这就点出了最近豆包手机助手一上线就被各家 App 集体「拉黑」的根本原因。

本质上,这是一场零和博弈的入口之争。

谁离用户更近,谁就能决定用户看到什么。当豆包通过和手机厂商合作,拿到了系统级权限,可以帮用户跨 App 点外卖、订机票、比价购物,甚至回消息,也就意味着所有 App 成了豆包手机助手的「后端服务」。

于是不出意外,各大 APP 纷纷以「安全」为理由,限制豆包手机助手的自动化操作,甚至直接强制下线。

这是一次不折不扣的预演。

未来真正的 AI Agent,如果成为大多数人默认的上网入口,那些原本靠广告赚钱的应用,要么被迫给 AI 交「保护费」,要么退回后台,当一个没有品牌存在感的接口。

新闻网站已经先走了一遍。据媒体公司 Raptive 预计,Google 新上线的 AI 概览功能最终将导致许多出版商网站流量流失 25%。虽然目前受影响程度还不算最严重,但随着 AI 概览应用范围扩大,影响将进一步加剧。

有了聚合平台之后,它们慢慢从直接面向读者的平台,变成了内容供应商,现在轮到消费者应用迎来同样命运。甚至于所有应用都要排队伺候 AI 管家时,最需要有人盯紧的,其实是这个管家本身。

一方面,过去广告的目标是说服一个个具体的人:想尽办法抢占人的注意力,在人的时间线里插播内容。而在 AI Agent 主导的世界里,广告主首先要说服的,变成了帮人做决策的 Agent。

另一方面,这也意味着未来大部分广告团队都需要认真思考:当用户不再自己逛应用,而是让 Agent 替自己逛时,我的广告要投给谁?要怎么投?

是的,如果 AI Agent 同时又是广告平台,它就会同时拥有两种权力。

决定你去哪儿,决定你看到什么。它可以替你选酒店、选机票、选保险、选医生,还可以在每一个选择的背后挂上自己的返佣和广告逻辑。

尤其是,AI 助手可以深入理解用户当前的需求和意图,从而插入高度相关的广告推荐,这比传统网页根据关键词投放广告更进一步,可能达到类似真人顾问的推荐效果。

以及 AI 助手与用户的交互积累了大量个人隐私数据——包括用户的偏好、习惯、地理位置、社交关系等。如果这些被用于广告定向,广告的针对性将前所未有地强。

回到开头那个预言。

2026 年的杀手级应用可能不是某个聊天机器人,而是「Adblock for intelligence」。每一代新技术都声称自己不一样,最后都在广告里找到了归宿。

过去老牌浏览器插件 Adblock 拦的是网页广告,现在的「Adblock for intelligence」要拦的,是那些未来渗透在 AI 回答里、伪装成中立建议的软性广告和不客观的信息。

在 AI 试图接管我们大脑的时代,保持怀疑,并拥有「拒绝被喂养」的能力,将是人类最后的尊严。

作者:莫崇宇

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


刚刚,高中辍学生创办的 AI 公司,被英伟达花 1400 亿「收购」了

英伟达史上最大的一笔「收购」,正式落地。

就在刚刚,英伟达已经和 AI 芯片初创公司 Groq 达成了一笔重磅交易,涉及金额高达 200 亿美元(折合人民币 1405 亿元)。

根据 Groq 官方声明,这次交易的核心内容是英伟达获得了 Groq 推理技术的授权,Groq 创始人兼 CEO Jonathan Ross、总裁 Sunny Madra 以及其他高管将加入英伟达,协助推动授权技术的落地。

与此同时,Groq 还将继续作为「独立公司」运营,新 CEO 由现任 CFO Simon Edwards 担任。

听起来像是技术合作加人才引进,但 Groq 的投资方、Disruptive 公司 CEO Alex Davis 却向外媒 CNBC 表示,英伟达获得了 Groq 的全部资产,只是初具规模的 GroqCloud 云业务不包括在交易中。

黄仁勋本人也在给员工的邮件里玩了个太极,他说「虽然我们正在吸纳 Groq 的优秀员工并获得其知识产权授权,但我们并没有收购 Groq 整家公司」。

所以这到底算收购还是授权?

答案可能是:英伟达花 200 亿美元把 Groq 的核心技术、专利和关键人才都拿走了,但留了个空壳公司继续运营云业务。

要理解英伟达为啥愿意砸这么多钱,得先搞清楚 Groq 到底是个什么来头。

Groq 成立于 2016 年,创始人 Jonathan Ross 的履历相当传奇。他高中辍学,没正经读完大学,却在 Google 设计出了第一代 TPU 芯片的核心架构。

TPU 就是 Google 用来跑 AI 模型的定制芯片,现在被不少公司当作英伟达 GPU 的替代方案。

2016 年,Ross 带着 Google TPU 团队 10 个核心成员中的 7 个人集体出走,创立了 Groq。

Groq 的名字来源于「Grain of Quantum」(量子之粒),既暗指要搞定「量子级别」的海量数据,也在宣告:芯片领域,小体量也能有大杀器。

它的核心杀器,是专为 AI 推理设计的 ASIC 芯片 LPU(语言处理单元)。和英伟达的 GPU 相比,LPU 在处理大语言模型推理时有个杀手锏:延迟超低、吞吐量超高。

说得更通俗点:同样跑一个 AI 模型,Groq 的芯片能比 GPU 更快给出响应,而且更省电。在某些测试场景下,Groq 芯片的推理速度能甩开 GPU 好几条街。

今年 9 月,Groq 刚完成 7.5 亿美元融资,估值 69 亿美元,投资方包括贝莱德、三星、思科这些大佬,Groq 今年的营收目标是 5 亿美元,发展势头相当猛。

过去几年,AI 行业的重心主要在训练侧,大家比拼的是谁能训练出更强的模型。但现在风向变了,推理市场的需求正在爆发式增长。

插个小科普,简单来说,训练就是喂大量数据让模型学习,推理则是训练好的模型在实际应用中产生响应,比如你问 ChatGPT 一个问题,它生成回答的过程就是推理。

此外,推理和训练对硬件的需求不太一样。

训练需要超强算力,一次性跑很久都正常。但推理讲究的是低延迟和持续响应效率,用户可不想问个问题等半天才出结果。

Groq 的 LPU 恰好就是针对推理场景优化的,这正是英伟达想要补齐的短板。

与此同时,以 Groq 为代表的 AI 初创公司可能都面临类似的困境:技术虽然有亮点,发展势头也很猛,但在英伟达庞大的生态壁垒面前,想真正打开市场太难了。

在这种情况下,被英伟达收购或许反而是最好的归宿。至少技术能得到应用,团队能拿到丰厚回报,总好过在市场上苦苦挣扎。

有意思的是,这种「技术授权+挖团队」的玩法,英伟达已经越来越熟练了。

就在今年 9 月,英伟达刚用差不多 9 亿美元的代价,雇佣了 AI 硬件初创公司 Enfabrica 的 CEO Rochan Sankar 及其团队,同样是获得技术授权而非直接收购公司。

这种操作模式其实挺聪明。

相比直接收购整家公司,技术授权加挖团队的方式能更快速地整合核心能力,避免收购后冗长的整合期。而且留个空壳公司继续运营,还能维持市场多样性的表象,不至于被指控垄断。

Meta、Google、微软这些科技巨头最近也都在用类似套路抢 AI 人才。

比如,我们熟知的 Meta 今年就花大价钱从数据标注公司 Scale AI 挖走了 CEO Alexandr Wang 并拿下技术授权。

黄仁勋显然把这套玩法研究透了。

他在邮件里直接说,要把 Groq 的低延迟处理器整合进 NVIDIA AI 工厂架构,让平台能支持更广泛的 AI 推理和实时工作负载。翻译过来就是:我要把你们的技术装进我的生态里,继续卖我的整体解决方案。

且由于 AI 热潮让英伟达的 GPU 卖到供不应求,钱多到花不完,黄仁勋的投资动作也越来越激进。

今年 9 月,英伟达表示要向 OpenAI 投资最多 1000 亿美元,条件是 OpenAI 承诺部署至少 10 吉瓦的英伟达硬件。虽然这笔投资还没正式落地,但谈判仍在进行中。

同月,英伟达还宣布向老对手英特尔投资 50 亿美元。

除了这些大手笔,英伟达还投资了一堆 AI 基础设施公司,比如能源公司 Crusoe、AI 模型开发商 Cohere、云服务商 CoreWeave 等等。整个 AI 生态链,英伟达恨不得每个环节都插一脚。

Groq 的结局已经给后来者上了一课。

在这个赛道上,你最好的归宿可能不是上市敲钟,而是被巨头看上,拿一笔丰厚的收购款体面退场。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


刚刚,钉钉掀桌子!狠人无招狂甩 20+AI 新品,AI 工作操作系统来了

2026 年,很可能会被后来的人反复提起,作为人类工作方式分水岭的重要一年。

在今年的 OpenAI 开发者大会上, Sam Altman 给出了一个判断:第一批真正意义上的 AI Agent,会开始进入企业体系,像「新工种」一样参与产出。人的职责被压缩为决策与指令,执行层则交给机器完成。

但一个 chatbot 聊天框,显然还承载不起这种野心。

OpenAI 希望用 Apps SDK 把 ChatGPT 变成新的 OS ,试图让所有应用都不再运行于 Windows 或 macOS 上,而是直接「寄生」在 ChatGPT 里。

顶尖 AI 公司在打造操作系统(OS),本质上是为了更好调动智能资源。

回看移动互联网的崛起,光有触摸屏远远不够,iOS 和 Android 这样的操作系统才是关键。AI 能力如果真的要成为企业的生产力,需要一个能统一调度的 AIOS,让零散的模型、工具和流程像安装 App 一样自然运转。

这种对未来计算架构的终极构想,今天在国内有了更落地的答案。

就在刚刚,AI 钉钉 1.1 新品发布暨生态大会在杭州召开,代号为「木兰」的 AI 钉钉 1.1 版本正式发布。

如果只看功能更新,很容易被淹没在产品名里;但如果抓住核心,它的逻辑其实格外清晰:钉钉要成为一个 Agent OS,像 Windows、macOS 那样,给所有 Agent 提供一个统一运行、调度和协作的底层系统。

APPSO 在现场给大家快速梳理了这场发布会的要点:

  1. 钉钉 Agent OS:全球首个为 AI 打造的工作智能操作系统,让 AI 从问答走向干活。
  2. 钉钉 ONE:在这个界面上,工作被 AI 以信息流的形式推送给人,人也可以选择全球所有模型为自己工作。
  3. 企业 AI 硬件 Real: 全球首款专为 Agent 打造的企业级 AI 硬件,提供运行物理环境。
  4. 四大 AI 单品升级:会议记录搭子 AI 听记、AI 录音卡 DingTalk A1、AI 表格、AI 搜问。
  5. 以及基于 Agent OS 打造的一系列商业可交付 Agent,如差旅 Agent、招聘 Agent、研发 Agent、AI 印,以及面向制造业的质量 Agent、订单 Agent,面向门店餐饮行业的销售 Agent、店长 Agent……
  6. 覆盖从模型训练、Agent 开发、通用 Agent、行业 AI 解决方案、用户交互方方面面,堪称新品轰炸!

Agent OS ,为 AI 打造的操作系统

这两年,打工人普遍患上了一种「技术性精神分裂」:网上的 AI 已经聪明到能拿诺贝尔奖了,自己手头的工作却还在用 Ctrl+C 和 Ctrl+V 缝缝补补。

文档是一个孤岛,日程又是另一个孤岛,打工人的一天,基本就是在各种应用功能的缝隙里「仰卧起坐」。要想让 AI 真的接管工作,光靠在聊天框里敲几个提示词是没用的,必须把地基重打一遍。

钉钉这次推出的 Agent OS,就是那个新的地基。或者说 AI 时代的钉钉就是 Agent OS。

作为全球首个为 AI 打造的工作智能操作系统,钉钉没在旧系统上小修小补,而是直接把桌子掀了,给 AI 打造了一层新的工作操作系统,重新做一个新的钉钉,让所有应用和智能体都跑在这上面,被统一调度、统一协同。

怎么理解 Agent OS?可以理解为 AI 时代的 Windows。所以,Windows 操作系统有什么,Agent OS 对应就有什么。

在架构上,它底层由钉钉开放平台提供丰富的 AI 模型及 MCP(Model Context Protocol)能力支撑,再通过钉钉企业 AI 平台(DEAP)、模型训练平台联通了整个软硬件生态,开发者、企业都可以在其上开发 Agent、训练模型,也可以进行模型、Agent 的资源管理、运维。

再往上,其提供了桌面「钉钉 ONE」、Agent 的运行环境「DingTalk Real」、Agent 的指挥官「悟空」。

Gartner 预测,到 2028 年至少 15% 的日常工作决策将通过 Agentic AI 自动完成。钉钉 Agent OS 正是这一趋势的践行者。而为了调度这些 Agent,钉钉还推出了名为「悟空」的通用 Agent。

「悟空」不仅能听懂人话,更具备了规划(Planning)、执行(Acting)和自反思(Learning)的能力。

它就像是一个不知疲倦的个人秘书,你只需要说「帮我安排一次去英国的差旅」,它就会自动拆解意图,调用日历、订票 Agent、酒店 Agent,甚至协同企业自建的专属 Agent,跑通一整条复杂的业务流。

把执行的繁琐留给 AI ,把决策的尊严还给人类。当我们从繁琐的点击操作中解脱,才能把大脑更多内存用在关键的决策和思考上。

钉钉 ONE,消灭一个个功能窗口,给 AI 一个统一桌面

过去的钉钉受困于聊天软件的形态,而钉钉 ONE 彻底重构了交互界面。这可能是用户感知最强烈的变化,新的桌面不再是消息列表的堆叠,而是一个由 AI 驱动的信息流。

首先是能搜、能问、能干的「AI 搜问」。

在全新的 Agent OS 架构中,AI 搜问承担着「指挥官」的核心角色, 它是用户指挥 AI 工作的统一入口, 也是整个 Agent 体系的中枢大脑。

它融合了全球大模型的能力与企业本地知识库,用户的一次提问,既能连接外部世界的知识,也能穿透内部数据的壁垒,甚至直接驱动「悟空」去执行任务。

大模型问答上,AI 搜问还首创三项能力:多模型融合与交叉验证降低幻觉、专有脱敏加解密的安全模式保障数据不泄露、基于真实业务数据与知识图谱推理的事实问答,支撑企业洞察与决策。

AI 钉钉 1.1 发布后,AI 搜问将沉淀为钉钉全局基础 AI 服务,覆盖 IM、AI 表格、AI 听记等场景,自动感知上下文实现统一问答与跨内容检索;同时上线浏览器插件,支持网页划词/点击提问,并可一键把页面信息转为 AI 表格沉淀,实现「钉钉内外随处可问」。

其次是「Agent 主动服务」的新范式。底部的应用变成了可以左右滑动的智能卡片(Agent widgets)。

  • 消息 Agent 成了你的秘书,自动折叠噪音,只提醒真正重要的事。
  • 日程 Agent 全程托管时间,从查闲忙到订会议室,全流程无人值守。
  • 发现-7 新板块则像一个全球情报雷达,利用专门训练的 Agent 实时扫描全球的新产品、新技术与新风险,并以短视频形式呈现在你面前。

你不再是去找工具,而是工具主动来找你。这不仅仅是 UI 的革新,这是工作权的交接——AI 负责处理信息噪音,人负责最终决策。

DingTalk Real,给 AI 一个物理的家

DingTalk Real 是全球首款专为 Agent 打造的企业级 AI 硬件,也是本次发布会上最有趣,也最体现钉钉「To B」基因的部分。

它是 Agent OS 的运行环境,有了这个「盒子」,员工不管在哪,都能远程唤起 AI,安全地访问公司内网和本地文件,比如全网比价订酒店、写深度分析报告。真正实现「人在家中坐,工作 AI 帮你办」。

很多人会问,云端那么强大,为什么还需要一个本地盒子?答案在于 DingTalk Real 解决了两个核心痛点:

  • 数据主权与安全: 企业不敢把财务数据、内网权限完全交给公有云。Real 作为一个部署在企业防火墙内的「安全主机」,让 Agent 可以在隔离的环境中通过浏览器、PC 软件去操作真实的业务系统,既能干活,又不泄密。
  • 永不掉线: 这是一个 7×24 小时的数字员工,能够访问最实时的数据,当然它也可以在深夜依然可以监控市场动态、整合信息,等待第二天早晨向你汇报。

从这个角度看,Real 实际上是在啃企业数字化转型中最硬的那块骨头:让 AI 不止停留在会说话,而是真能安全地、持续地、在组织体系内把事情办了。

硅谷想做的 AI 操作系统,怎么钉钉先做了出来

在硅谷,AI 操作系统几乎是明牌方向。

微软把 Copilot 塞进 Office,Google 把 Gemini 嵌进 Workspace,创业公司则试图从浏览器和桌面重来一遍。但真正复杂的企业工作,藏在审批流、权限、内网系统和行业软件里。

钉钉的不同在于,它原本就是企业的工作底座。Agent OS 不是叠加在工具之上,而是直接生长在组织结构和业务流程里。

别再 Ctrl+F 了,AI 听记用一句话帮你找回关键信息

注意,AI 听记迎来重大升级,能够根据你的身份标签(学生、销售、项目经理)自动贴合最合适的总结模板,像一个懂行的速记员,主动帮你归纳重点。

它不仅能听,还能看。

比如你在课堂或会议上拍一张板书,它能自动识别上面的公式或流程图,并插入到语音记录中。你甚至不需要去翻看冗长的记录,直接问它上周客户对价格有什么异议?它就能从历史录音库中把答案翻出来。

AI 表格:普通人也能写代码,才是 AI 该有的温柔

AI 表格可能是打工人最值得关注的产品。

全新语音交互功能「念一念」支持语音输入自动转换为文字,并由 AI 智能识别字段类型,实现数据的结构化录入。

在蒙牛的牧场里,那些戴着厚手套、打字困难的巡查大叔,现在只需要对着手机说一句「牛舍温度正常」,AI 表格就能自动识别并填入对应字段。

业内首创的「万能贴」功能,能够把乱七八糟的截图、网页复制进去,两秒钟变结构化数据。更夸张的是「AI APP」模式,拍一张手绘草图,AI 直接给你生成一个带仪表盘、带权限管理的完整 CRM 系统。

DingTalk A1:不取代手机,只做最好的外挂

硬件必须服务于具体的、高频的、且手机无法完美解决的场景。作为双 11 的销量冠军,DingTalk A1 并没有试图取代手机,而是选择了做手机的「外挂」。

DingTalk A1 专注于会议记录这一痛点,提供了一键录音和超长续航等功能。销售通话录音更是直接进入 CRM 系统分析意图,HR 面试纪要自动生成。不可否认,这是一次彻头彻尾的实用主义胜利。

如果说前面的产品升级是钉钉自己的「内功修炼」,那么基于 Agent OS 打造的一系列商业可交付 Agent,比如差旅 Agent、招聘 Agent、研发 Agent 和 AI 印等则展现了这个操作系统真正的生态爆发力。

除了上述产品,钉钉还顺手发布了一系列行业大杀器,并展示了其构建开放生态的决心。

钉钉 CEO 无招在发布会上宣布,钉钉已建成全球最大的企业级 MCP 广场和 AI 助理市场。目前,平台上已包含数千个企业常用 MCP 能力和数十个开箱即用的 AI 助理。

  • 制造业与零售业: 针对制造业,它有能看懂订单截图的「订单 Agent」;针对零售业,它有一个能盯着监控分析客流、甚至能去大众点评看差评并提出整改意见的「店长 Agent」。
  • 商业模式的共享: 钉钉为入驻的生态伙伴提供了「算粒分成」和「按效果付费订阅」等模式。这意味着,开发者不再是单纯卖软件,而是与平台一起共享 AI 时代的商业红利。

实际上,这次版本的代号「木兰」颇具深意。

作为古老的被子植物,木兰象征着生命形式从简单向复杂的必然进化。而在数字世界,AI 钉钉 1.1 正试图复刻这一过程:让孤立的 AI 功能,演化为一座万物互联、多 Agent 共生的热带雨林。

钉钉 Agent OS 的诞生,本质上是在提前抢占 AI 办公时代的「入口」。

无招团队的判断很毒辣:在搜索入口式微、操作系统逻辑被重写的当下,唯有主动跳进 AI 的洪流,将钉钉从一个聊天工具重塑为一个能够理解、规划并执行人类意图的「超级系统」,才是最忧解。

这恰恰呼应了 OpenAI 联创卡帕西(Andrej Karpathy)今年那场在 AI 圈刷屏的演讲中提到的观点:

LLM is becoming the OS. Not for your computer, but for your mind(LLM 正在变成一种操作系统——不是管理电脑的,而是管理思维的)。

也就是说,通过用自然语言取代复杂的软件菜单,进而重构人与工具的交互逻辑。

那么为什么 Agent OS 会率先诞生在办公场景中?

究其原因,办公场景天然就是一张被切得稀碎的任务网:人找人、表接表、会连会、审批套审批;每个环节都不复杂,但连起来就是一场令人窒息的消耗战。

Agent 若真要成为「工作入口」,它必须解决的不是会聊天,而是会办事。

于是我们便能进一步理解,钉钉为何如此激进加码 Agent OS:它不缺用户、不缺场景,更不缺流程,只缺一个足够「能跑」的智能体层,把那些看似琐碎的工作串起来,把关键任务节点推到人面前。

过去的我们被职场信息填得太满,喘不过气来。新版钉钉用 AI 重新分配时间与注意力,让人把精力收拢到关键决策与高价值产出上,为工作节奏重新腾出空间。

删繁就简,新一代工作的基本形态,正在钉钉中逐步显现。这是钉钉的 1.1 版本,也是工作本身的 2.0 时代。

作者;莫崇宇、李超凡

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


GPT-5.2 翻车内幕曝光:技术团队没走「歪路」,但用户成了大冤种

OpenAI 的十周岁生日,过得不太体面。

在当天发布的 GPT-5.2 交出了一份完美答卷:它横扫许多基准测试的 SOTA,在数学和编程等竞赛场景中的表现堪称亮眼,也被官方描述为 AI「超级大脑」。

可到了社交网络,迎接它的不是掌声,而是用户的集体骂街。

在 X 和 Reddit 上,愤怒与失望几乎写在每一条评论里。人们又一次怀念起那个曾经的「白月光」GPT-4o:有人说 GPT-5.2 变得平淡、乏味、像被磨平了棱角;也有人讥讽它成了「把成年人当幼儿园小孩对待」的说教。

当舆论的炮火对准 OpenAI 及其 CEO Sam Altman(山姆·奥特曼),一个尖锐的问题摆在面前:为什么模型更「聪明」了,用户反而更不爱了?

更「聪明」的模型,为什么不讨喜了

The Information 今天凌晨的最新报道,扒出了内幕。

过去一年,OpenAI 内部曾奉行一条铁律:每一次模型的代际飞跃,都会伴随着用户量的爆发式增长,因为「变聪明」带来的体验升级是直观的。但现在,这条铁律失效了。

当然,模型在智能与科研计算领域的提升依旧显著。研究团队耗费数月打磨推理能力,让它能攻克更复杂的数学与科学难题,但对于大多数普通用户而言,这种感知微乎其微。

🔗 https://www.theinformation.com/articles/openais-organizational-problems-hurt-chatgpt?rc=qmzset

换句话说,智能的提升,并不天然等同于体验的提升。

普通用户很少需要一台「竞赛级大脑」,他们更多需要一个「日常好用的助手」。OpenAI 对 150 万次对话的大规模分析佐证了这一判断,用户的核心需求极其接地气:实用指导(29%)、信息查询(24%)以及写作(24%)等,而与编程任务相关的对话只有 4.2%。

于是矛盾就变得非常具体:当技术团队在实验室里狂卷数理化、狂卷基准测试时,用户在聊天框里只想要一句话解决问题——别绕、别教、别拖。

战线拉得过长是一大槽点。

今年大部分时间里,奥特曼同时启动了多个新项目:视频生成应用 Sora、音乐 AI、浏览器、AI Agent、硬件设备、机器人……摊子越铺越大,资源也被越分越碎。

这其实是科技巨头最常见的经典错误:核心阵地还没打稳,就急着开辟第二、第三战场。短期看是「全面开花」,长期看,贪多嚼不烂,乃兵家大忌——每一条战线都缺人、缺算力、缺产品打磨的耐心。

OpenAI 内部「研究优先」和「产品增长」之间的拉扯,在图像生成上体现得尤为明显:

即便 GPT-4o 的吉卜力风格在三月还短暂带动过 ChatGPT 的使用与用户增长,但 OpenAI 还是一度把图像模型的开发优先级往后放,等到 Nano Banana 口碑发酵后,OpenAI 又紧急回头补课,内部也因此爆发分歧——

奥特曼认定图像模型是用户增长的抓手,研究主管 Mark Chen 则更想把资源押在别的项目上。

另外,伴随着 Scaling Laws 边际效益递减,为了突破大模型的瓶颈,OpenAI 过去一年里押注了推理模型,超过 1000 人的研究团队将资源倾斜于此,导致对 ChatGPT 日常体验的优化被边缘化。

这种做法不仅分散了资源,甚至在年初的内测中出现了性能倒退——为了适配「聊天」场景,反而削弱了推理模型的纯粹性。虽然后来推出了「思考模式」和「深度研究」来分流、来补救,但用户使用率却很低,真正的日常对话体验并没有因此变得更讨喜。

除此之外,新旧模型之间也常出现兼容问题。

例如在发布 GPT-5 前,研究人员发现模型在集成进 ChatGPT 后在部分编程任务上表现变差——因为系统根据用户职业等个性化信息调整回答,结果反而干扰了模型理解,导致错误答案。

诚然,推理模型越来越强,但 ChatGPT 体验越来越拉胯。

当技术进步的方向和用户需求的方向开始分叉,谁会先妥协?答案显而易见。

Gemini 3 Pro 的强势发布,最终把 OpenAI 逼到了墙角,于是便有了奥特曼发布「红色警报」的经典名场面,要求 OpenAI 员工重新聚焦 ChatGPT,提高产品体验吸引力。

而在同一时间,OpenAI 应用负责人 Fidji Simo 也在个人博客中阐述 ChatGPT 的愿景,那就是从主要以文本为主的对话系统,转向能根据用户意图动态生成界面的全生成式 UI。

只是 Simo 也曾承认,公司本质仍以研究为中心,「产品本身并不是最终目标」。

从商业逻辑看,这句话其实很危险。

不同于 Anthropic 更偏向主攻 API 市场,OpenAI 的大头收入来自个人订阅。在消费市场,没有人会为企业的「终极理想」买单,用户只愿为当下的体验付费。这就好比餐厅大厨醉心于研发米其林料理,而大堂里的食客仅仅想要一碗热气腾腾的阳春面。

不过,如果你因此就断言 OpenAI 内部已经乱了阵脚,那可能低估了这家公司的韧性。

据彭博社援引 Mark Chen 的说法,「红色警报」并非新鲜事,而更像是一种战时状态的常态化管理工具。每当 OpenAI 需要集中火力攻克某一单一目标,或要求团队放下低优先级任务时,这种机制就会启动。

▲播客地址:https://x.com/Kantrowitz/status/2001790090641645940

奥特曼在最新的播客中,同样否认了拉响红色警报带来的过度焦虑。

「首先,所谓的『红色警报』,在我们看来其实是一种低风险、但非常必要的应对措施。」奥特曼坦言,「在潜在的竞争威胁出现时,保持一点『偏执』、并迅速做出反应,是件好事。」

他甚至提到了今年年初 DeepSeek 的崛起,认为那和现在的 Gemini 3 一样,都是一种良性的外部刺激。

「Gemini 3 到目前为止,还没带来我们原本担心的那种毁灭性冲击。虽然它和 DeepSeek 一样,精准地刺痛了我们在产品策略上的软肋,但也倒逼我们做出了极其迅速的调整。」

在奥特曼看来,这种紧急状态通常只会持续六到八周。「我很高兴我们有这种快速反应机制,我们不会在这个状态里待太久。」

OpenAI 显然也明白光喊口号不够,他们今天也正式发布了 GPT-5.2-Codex。

作为专为解决复杂现实软件工程问题而生的智能体编程模型,GPT-5.2-Codex 在通用智能的基础上,融合了 GPT-5.1-Codex-Max 的终端操作能力,更擅长处理代码重构、迁移等长程任务。

而同样是在播客的尾声,当主持人询问「GPT-6 还要等多久?」时,奥特曼敞亮地表示:「我不知道我们什么时候会正式把某个模型命名为 GPT-6,但我预计在明年第一季度,会有比 5.2 有显著提升的新模型发布。」

拉响「红色警报」,到 GPT-5.2 系列的反击,再到 GPT-6 的暧昧预告,OpenAI 试图用新模型与新节奏重建信心,但决定长期胜负的,仍是分发入口、生态协同与算力成本等硬门槛。

Google 的阳谋,与奥特曼的 8300 亿「空城计」

Google 的优势,从来不只在 Gemini 3 Pro 这一个模型上,更在于它几乎无可匹敌的分发渠道。

搜索、Chrome、办公套件。在 AI 赛道,护城河可能是所有科技产品中最浅的。 用户的迁移成本几乎为零,当 Google 的 AI 产品如空气般无处不在,这几乎成了一场无解的阳谋——你不需要「被说服」,你只会「顺手就用」。

更重要的是,在与 Google 的较量中,硬件层面的短板成了 OpenAI 最大的软肋。

相比于 Google 十二年前就开始布局专用 AI 芯片(TPU)所建立的效率优势,OpenAI 每年仍需花费数十亿美元租用算力。即便试图通过自建数据中心和芯片来「补课」,但体验在被追平、成本在被碾压的现状已是不争的事实。

用网友的话来说:

OpenAI 现在并不需要一个更强大的模型,它需要的是 AMD。如果 OpenAI 收购了 AMD,这场 AI 之战就将宣告结束。Google 之所以不怕 OpenAI,是因为它拥有自家的 TPU。但它真正该担心的,是 OpenAI 拥有 AMD。

OpenAI 总裁 Greg Brockman 在最近的视频中也坦言,由于算力捉襟见肘,每当新功能上线(如年初 GPT-4o 吉卜力风格),就必须从研究部门「抽血」,把算力挪给产品部。这是一种饮鸩止渴的循环——为了维持今天的用户体验,被迫推迟了明日的技术研发。

可算力这东西,归根到底就是两个字:烧钱。而且是海量地烧钱。

为此,据 WSJ 报道,OpenAI 已计划发起 1000 亿美元的巨额融资;若一切顺利,这家超级独角兽将在明年 Q1 之前,以 8300 亿美元的估值,再次刷新资本市场的想象力。

而在今年早些时候,软银同意向 OpenAI 投资 300 亿美元,并于上月出售所持的英伟达股份价值 58 亿美元,为这笔投资筹资,并预计尽快完成剩余 225 亿美元的出资。

但钱的问题没那么简单。预计到 2030 年,OpenAI 的现金消耗将超过 2000 亿美元。相比之下,Google 财务稳健,甚至能通过 Oracle 等合作伙伴的股价波动间接挤压 OpenAI 的融资前景。

到处筹钱的 OpenAI,看起来更像是在和时间赛跑。于是便诞生了那个笑话:照奥特曼的融资能力,没准哪天连 Google 和英伟达都能「打包带走」。

但玩笑归玩笑,钱能买来时间,却买不来口碑。

所以在 2025 年这个冬天,狂奔三年的 OpenAI 选择先踩一脚刹车,其实是对的:收拢战线、回撤资源,把方向重新对准 ChatGPT 的日常体验。

这是一次昂贵但必要的纠偏。

技术领先不等于产品好用,基准测试第一不等于用户满意。更重要的是,你不能只在用户怀念旧版本的时候,才想起来问问他们的感受。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿 | 原文链接 · 查看评论 · 新浪微博


❌