阅读视图

发现新文章,点击刷新页面。

11.98 万起,占了同级一半销量的小鹏 MONA M03,又加上了「图灵芯片」和「越级座舱」

2025 年,小鹏 MONA M03 以 40.6% 的市场占有率,拿下了 A 级纯电轿车市场销量第一。

这个数字很夸张,它已经超过了第二名到第五名的总和。放在竞争最拥挤、价格战也最凶的区间里看,这样的领先幅度,已经不是一句简单的「性价比高」能概括的了。

那么买这辆车的人,到底是谁?

小鹏官方公布的数据显示,小鹏 MONA M03 53% 的车主年龄不超过 30 岁,49% 是女性,50 岁以上用户只占 8%。

这是一群典型的年轻城市用户,他们在意设计,在意科技感,也在意预算花得值不值。

MONA M03 从立项开始,瞄准的就是这样一批人。到了今天刚刚更新的 2026 款车型上,这套精准的「讨好」逻辑依然在延续。

2026 款小鹏 MONA M03 一共有 6 种版本配置,起售价为 11.98 万元,分了 Plus、Max、Ultra 三个版本,从 Max 开始配备图灵 AI 芯片。

从内到外,都是「降维打击」

乍一看,新款小鹏 MONA M03 在外观上的变化并不大,标志性的回旋镖大灯、C 柱风刃,配合黑色饰条营造出的悬浮式车顶,依然是我们熟悉的那套视觉语言。

车身三围也原封不动,依旧是 4785 / 1896 / 1445 mm,轴距 2815 mm,后备厢容积 621 L,并搭载电动掀背尾门,维持了原本已经足够的竞争力。

但小鹏在细节上做了不少调整。

前后保险杠重新做了造型,换上钢琴烤漆风格的运动包围,后保险杠两侧加入导流槽,底部加上了一条贯穿式红色灯带。整车的视觉重心被进一步压低,看起来更贴地,也更有攻击性。

不仅如此,无边框外后视镜直接给成了全系标配,轮圈也一口气掏出 3 款新样式(1 款低风阻、2 款运动版),19 英寸规格配上了米其林轮胎。

类似的变化,还发生在工艺层面。

新车清漆改用巴斯夫 2K 配方,厚度硬拔了 20%,光泽度冲到了 92 以上。

配色除了原先的暗夜黑、星云白、星雨青、星瀚米、星暮紫、微月灰这 6 款经典色,又添了罗兰紫和牛油果绿,全系共 8 种车漆。

MONA M03 此次改款的重点放在了座舱内,

这些年,国产纯电车在 10-15 万这个价位段,最容易翻车的地方就是座舱,往往是材质透着廉价、做工经不起细看、细节处处敷衍。

但小鹏 MONA M03 是个异类。

新款车型内饰提供拂晓紫、晨雾灰、夜幕灰 3 款配色,软包覆盖面积超过 70%。车顶棚换成了更具高级感的仿麂皮绒材质,中控台和门板开关区域喷上了 UV 触感漆,扬声器网罩用上了全金属蚀刻工艺,现款的氛围灯更是升级成了 256 色寰宇光瀑方案,支持 100 档亮度调节。

实用性上的小修小补也能看得出来小鹏很花了一番心思。

前排杯架后移,给前置的双手机托盘腾出了位置,其中一处支持 50 W 无线快充;门板底部做了封闭处理,可以放雨伞;中央扶手下方采用镂空设计,用来扩展储物空间。

舒适性配置上,小鹏这次也加码了不少。

新车前排座椅坐垫加长,标配 14 点按摩功能,覆盖臀部到大腿区域;全景天幕升级为双层镀银 Low-E 材质,紫外线隔绝比例达到 99.97%;遮阳板化妆镜面积比现款扩大 2.7 倍,还支持 3 档色温和亮度调节。

同时新车前挡风升级为隔音玻璃,前排两侧换成双层夹胶玻璃,还新增了 RNC 主动降噪模块。以及最重要的,新款小鹏 MONA M03 加入了热泵空调,冬季暖风工况下电耗可降低 50%,对应冬季续航最多提升 30 km。

动力部分,虽然新车电机规格没变,依旧提供 190 马力(225 N·m)与 218 马力(250 N·m)两种配置,电池组分为 51.8 kWh 、61. 6 kWh和 62.2 kWh 三档,不过供应商悄然从弗迪切换成了亿纬动力。

倒是电驱升级为了小鹏自研混合碳化硅扁线电驱,峰值效率达到 95%,这套电驱配上 X-HP 3.5 智能热管理系统,官方称让新车在老款的基础上又能多跑 20 到 30 km,CLTC 极限续航来到了 640 km 。

底盘部分,新车全系升级为了自适应阻尼减震器,可以根据路面状态实时调节软硬。最小转弯半径 5.3 m,百公里制动距离 35.63 m。

官方还完成了 5 项极端爆胎稳行测试,自适应阻尼和实时扭矩分配里可以协同控制车身偏移,在 170 km/h 的超高速下单前轮爆胎,靠着自适应阻尼和实时扭矩分配的系统救场,车身依然能保持稳定。

智驾,毫无疑问是小鹏的灵魂,也是这次 M03 最锋利的一把刀。

从 Max 版开始,新车就搭载小鹏自研图灵 AI 芯片,算力达到 750 TOPS,替代原先的双颗英伟达 Orin-X。

在小鹏原有的产品体系里,图灵芯片此前是更高价位车型才有的配置。如今把它下放到 MONA M03,等于把小鹏现阶段最顶级的智驾算力平台,放进了一台 A 级轿车里卖。今年下半年,它还将获得第二代 VLA 的蒸馏版升级。

这套坚持不配激光雷达的纯视觉方案,支持全国高速、城市及快速路 NOA,还有「车位到车位 2.0」,可以从出发地地库自动泊出、过闸机、行驶到目的地园区,再泊入收藏车位,形成完整的自主驾驶链路。

从小鹏官方的实测视频来看,不论是避让神出鬼没的自行车和电摩,还是在拥挤混乱的批发市场里穿梭,系统都果断得毫不迟疑。

在十几万的价格段,这种智驾能力几乎是降维打击。

配合智驾的,是升级后的座舱大脑,新车搭载联发科 MT8676 芯片,15.6 英寸中控屏分辨率升级至 2.5 K,运行天玑 AIOS 6.0 系统,支持全域超感车道级导航。

销量,是把双刃剑

再说回开篇提到的那个 40.6%。

这个份额的形成,显然不是单纯靠低价冲出来的,真论拼刺刀,这个价位从来不缺狠角色。

MONA M03 的成功,本质上是「产品定义」的胜利,它敏锐地圈出了一批特征极度清晰的买家,然后把有限的成本,精准且粗暴地砸在他们最敏感的痛点上。

颜值、内饰质感、储物空间、静谧性、音质、智驾、冬季续航……这些点单独看都是细枝末节,但缝合在一起,就成了一个无法拒绝的购买理由。

但这套凌厉的打法,也给小鹏自己埋下了一个结构性的隐患。

当消费者花十几万,就能享受到小鹏现阶段最顶级的智驾芯片和近乎全套的功能覆盖时,未来 P 系、G 系、X 系在智驾上的差异化护城河,无疑会被极度压缩。

等这种认知在大众层面固化后,用户很容易产生一个很直接的疑问:既然这台车已经给到了这么多,我为什么还要多花十几万去买一台更贵的小鹏?

坦白说,这并不是 MONA M03 的错。这是所有在下沉市场狂飙突进的品牌,迟早要撞上的一堵墙。

破局的解法通常有两个:要么在昂贵的高端车上,建立起智驾之外的绝对壁垒,用更惊艳的设计语言、更炸裂的三电上限、更奢华的材质,让「贵」变得理所当然;要么,就是在智驾功能上强行划出三六九等,让旗舰产品在体验上永远领先半个身位。

MONA M03 的份额越高,这个问题就会来得越快,MONA M03 卖得越疯狂,市场份额占得越大,这个问题就会倒逼得越紧。

它就像一把双刃剑,一边在拓宽着小鹏的疆土基本盘,一边也在无形中,悄悄抬高了品牌下一步向上的门槛。

小鹏目前给出的答案是 GX,一辆定位超过 9 系的旗舰 SUV 。

而它的成败,才是真正决定了小鹏能否重回高端市场。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

震惊!字符串还能这么玩!

效果预览

一个充满趣味的文字交互效果:文字像绳子一样串联在一起,你可以拖拽末端的文字,像拉绳子一样把整个文字串拉乱。按 F 键还能触发"解开"动画,让文字在重力作用下自然散落。

预览地址:liush.top/textString/

截屏2026-04-02 22.24.49.png

核心原理

这个效果主要基于 Verlet 积分 物理模拟算法,配合 距离约束 来保持文字之间的连接关系。

1. 数据结构定义

每个字符都是一个物理粒子,包含位置、速度、锁定状态等属性:

typescript
interface Letter {
  ch: string;      // 字符内容
  w: number;       // 字符宽度
  x: number;       // 当前位置 X
  y: number;       // 当前位置 Y
  ox: number;      // 原始位置 X(约束目标)
  oy: number;      // 原始位置 Y(约束目标)
  px: number;      // 上一帧位置 X(用于计算速度)
  py: number;      // 上一帧位置 Y
  readingIdx: number;  // 在阅读顺序中的索引
  locked: boolean;     // 是否锁定(锁定则不受物理影响)
}

2. 蛇形排列算法

为了让文字像绳子一样有自然的串联顺序,但视觉上又是正常的阅读顺序,使用了蛇形(Zig-Zag)排列

typescript
function buildZigzagMapping(maxWidth: number) {
  // 先按行分组
  const lineIndices: number[][] = [];
  // ... 分行逻辑
  
  // 奇数行反转,形成蛇形
  for (let li = 0; li < lineIndices.length; li++) {
    const reversed = needFlip ? li % 2 === 0 : li % 2 === 1;
    if (reversed) {
      stringOrder.push(...[...lineIndices[li]].reverse());
    } else {
      stringOrder.push(...lineIndices[li]);
    }
  }
  return stringOrder;
}

这样,物理连接顺序是蛇形的,但每个字符记录了自己的 readingIdx,渲染时放在正确的视觉位置。

3. Verlet 积分物理模拟

核心物理循环使用 Verlet 积分,相比欧拉积分更稳定:

typescript
// Verlet integration
for (let i = 0; i < letters.length; i++) {
  const l = letters[i];
  if (l.locked || isDragged(i)) continue;
  
  // 计算速度(当前位置 - 上一帧位置)
  const vx = (l.x - l.px) * DAMPING;  // 阻尼系数 0.97
  const vy = (l.y - l.py) * DAMPING;
  
  // 更新上一帧位置
  l.px = l.x;
  l.py = l.y;
  
  // 应用速度和重力
  l.x += vx;
  l.y += vy + GRAVITY;  // 重力 0.15
}

4. 距离约束(绳子效果)

这是保持"绳子"感觉的关键。每帧迭代多次,强制相邻字符保持固定距离:

typescript
// Distance constraints
for (let iter = 0; iter < ITERATIONS; iter++) {  // 迭代 12 次
  for (let i = 0; i < letters.length - 1; i++) {
    const a = letters[i], b = letters[i + 1];
    
    // 计算两字符中心点距离
    const dist = Math.hypot(bx - ax, by - ay);
    const diff = (dist - restLengths[i]) / dist;
    
    // 根据锁定状态调整位置
    // 一个锁定:只移动另一个
    // 都未锁定:各移动一半
    // 都锁定:跳过
  }
}

5. 碰撞检测

防止非相邻字符重叠:

typescript
// Letter-letter collision
const RADIUS = 8;
for (let i = 0; i < letters.length; i++) {
  for (let j = i + 1; j < letters.length; j++) {
    if (Math.abs(i - j) === 1) continue; // 跳过相邻的(由距离约束处理)
    // 圆形碰撞检测,分离重叠字符
  }
}

6. 交互逻辑

拖拽:使用 Pointer Events API 实现鼠标/触摸拖拽

typescript
const handlePointerDown = (e: PointerEvent) => {
  const idx = els.indexOf(e.target as HTMLSpanElement);
  if (idx === -1 || letters[idx].locked) return;
  
  drags.set(e.pointerId, {
    idx,
    offsetX: e.clientX - rect.left - letters[idx].x,
    offsetY: e.clientY - rect.top - letters[idx].y,
  });
};

解锁传播:拖拽一个字符时,如果拉得足够远,会"拉断"连接,解锁相邻字符:

typescript
const dist = Math.hypot(dx, dy);
if (dist > restLengths[i] + UNLOCK_THRESHOLD) {
  a.locked = false;  // 解锁!
}

关键技术点总结

技术 用途
Verlet 积分 稳定的位置-based 物理模拟
距离约束迭代 保持绳子般的连接感
蛇形排列 物理顺序与视觉顺序分离
Pointer Events 统一的鼠标/触摸交互
固定时间步长 120Hz 物理模拟保证一致性

参考

参考实现:pushmatrix.github.io/textstring/


有需要代码可以留言或私信我

AI 的「词元」:Token 到底是什么?

一、Token 是什么?

Token,直译为「词元」或「令牌」,是大语言模型(LLM)处理文本的基本单位。

你输入的文字,在进入模型之前,会先经过一个叫做 Tokenizer(分词器) 的程序,把文本切碎成一个个 Token。这些 Token 再被转换为数字 ID,模型才能「读懂」它们。

一个 Token ≠ 一个字。Token 可以是:

  • 一个完整的英文单词:hello → 1 token
  • 一个英文词的一部分:unbelievableun + believ + able = 3 tokens
  • 一个中文汉字(有时): → 1 token
  • 一个标点符号:, → 1 token
  • 几个空格: → 1 token

二、Tokenizer 是怎么工作的?

目前主流的分词算法有三种:

1. BPE(Byte Pair Encoding,字节对编码)

最常见的方法,被 GPT 系列、LLaMA、Mistral 等广泛使用。

核心思想:从单个字节出发,反复合并出现频率最高的相邻字节对,直到达到预设词表大小。

举例

语料:"aaabdaaabac"
初始:a a a b d a a a b a c
第1轮合并最频繁的 "aa":aa a b d aa a b a c
第2轮合并 "aa":aaa b d aaa b a c
...
最终词表中就会有 "aa"、"aaa" 这样的合并单元

2. WordPiece

Google BERT 系列使用。与 BPE 类似,但合并标准是「最大化语言模型似然」,而非纯粹频率。

对中文的处理:mBERT 会将中文字符逐字切分,"你好"["你", "好"],基本保持 1 字 = 1 token。

3. SentencePiece

Google T5、mT5 使用,也被 LLaMA、BLOOM 等采用。

最大特点:不依赖语言的空格分词习惯,把原始文本当作字节流处理,天然支持中日韩等语言,无需预处理。


三、各大模型 Token 大比拼

同一句话,不同模型切法不同

我们拿这句话做实验:

「人工智能正在改变世界」

模型/分词器 大致 Token 数 说明
GPT-3(p50k) 约 14–18 个 旧版 BPE,中文多走 UTF-8 字节,1 字≈2-3 token
GPT-4 / GPT-4o(cl100k) 约 7–9 个 优化后的 BPE,CJK 词表扩充
Claude 3.x 约 7–10 个 Anthropic 自研 tokenizer,中文效率与 GPT-4 相近
LLaMA 2 约 10–14 个 SentencePiece,中文支持一般
LLaMA 3 约 7–9 个 词表从 32K 扩展到 128K,大幅改善 CJK
Qwen2.5 / 通义千问 约 7–8 个 针对中文优化的 BPE,接近 1 字 1 token
DeepSeek-V3 约 7–8 个 自研 tokenizer,中文友好
Gemini 1.5 约 8–11 个 Google SentencePiece 衍生,多语言均衡

结论:国产大模型(Qwen、DeepSeek)和经过优化的新版国际模型(GPT-4、LLaMA 3)对中文都相当友好,而早期 GPT-3 对中文极不友好——同样的内容要消耗多 2-3 倍的 token。


英文 Token 效率对比

用句子 "The quick brown fox jumps over the lazy dog" 来测试:

模型 Token 数
GPT-4o(cl100k) 9
Claude 3(Anthropic) 9
LLaMA 3(128K 词表) 9
GPT-3(p50k) 9
BERT(WordPiece) 10

英文差距不大,主要是常见单词基本都在词表里,直接 1 词 1 token。


四、Token 为什么重要?

1. 直接决定 API 费用

所有大模型的 API 计费都以 Token 为单位。

关键洞察:如果你的业务场景大量涉及中文,使用中文友好的模型(Qwen、DeepSeek)不仅价格低,而且 token 效率更高,双重节省!


2. 决定上下文窗口(Context Window)

所谓「上下文长度」,本质上就是模型一次能处理多少个 Token。

模型 上下文窗口
GPT-4o 128K tokens
Claude 3.5 Sonnet 200K tokens
Claude 3.7 Sonnet 200K tokens
Gemini 1.5 Pro 1M tokens(实验版 2M)
Gemini 2.0 Flash 1M tokens
LLaMA 3.1(70B) 128K tokens
DeepSeek-V3 128K tokens
Qwen2.5-72B 128K tokens

200K tokens ≈ 约 15 万汉字 ≈ 一部长篇小说。


3. 影响模型的「注意力范围」

Token 越多,模型计算的注意力(Attention)矩阵越大,计算量以平方级增长。这也是为什么长上下文模型推理慢、成本高的根本原因。


五、一个有趣的实验:数 Token

你可以亲自去 OpenAI 的 Tokenizer 工具 数数看。

下面是几个有趣的例子(GPT-5 分词器):

"Hello, world!"4 tokens
"你好,世界!"4 tokens
"1+1=2"5 tokens
"😀"1 tokens(emoji 用多个字节表示)
"GPT"1 token(常见词直接收录)
"ChatGPT"2 tokens:"Chat" + "GPT"
"Supercalifragilistic"6 tokens

六、Token 与中文的特殊关系

中文处理是大模型 tokenizer 设计中的一大挑战。

为什么早期模型对中文「不友好」?

早期 GPT-3 的 tokenizer 词表主要基于英文语料训练。中文汉字不在词表里,就会被拆成 UTF-8 字节来表示。一个中文字符在 UTF-8 编码下占 3 个字节,因此变成 3 个 token。

对比

"人工智能" (4个汉字)
  GPT-3:    8  token(每字≈2 token)
  GPT-4:    4-5  token(CJK 词表扩充)
  Qwen:     4  token(1字≈1 token)

这意味着:同样的中文内容,在 GPT-3 上的 token 成本是 Qwen 的 2 倍

国产模型的优势

以 Qwen(通义千问)为例,阿里在训练 tokenizer 时专门加入了大量中文语料,词表中收录了常见汉字和常用词组,实现了接近 1:1 的字-token 比例。

DeepSeek 同样如此,其 tokenizer 词表约 100K,中文字符基本都有专属 token。



总结

AI 在发展,token的计算也在不断优化,本文提到的token数仅供参考!

Token 是 AI 语言模型的「DNA」——一切理解与生成,都从这个最小单位开始。

维度 核心要点
是什么 文本被切分后的最小处理单元,≠ 字词
怎么切 BPE / WordPiece / SentencePiece 三大算法
中文效率 新模型(GPT-5、Qwen、DeepSeek)已接近 1字1token
为什么重要 决定 API 费用、上下文长度、推理速度
开发技巧 提前计算、精简 prompt、善用缓存、选合适模型

iOS 多技术栈混淆实现,跨平台 App 混淆拆解与组合

当项目从单一 iOS 原生扩展到 Flutter、React Native 或 Unity 时,混淆这件事会变得复杂。原因不在于工具少,而是每一层代码完全不同

  • Swift / Objective-C → Mach-O 符号
  • Flutter → Dart AOT + assets
  • React Native → JS bundle
  • Unity → DLL + 资源

如果只用一种 iOS 混淆工具,通常只能覆盖其中一部分。


不同技术栈暴露的信息完全不一样

拿一个混合项目举例(Flutter + 原生 + H5),解包 IPA 后可以看到:

AppBinary          // 原生代码
flutter_assets/    // Dart + 资源
main.jsbundle      // JS 逻辑
assets/            // 图片与配置

每一层的“暴露方式”不同:

技术 可被读取的内容
Swift / OC 类名、方法名、参数
Flutter Dart 符号(部分)、资源路径
React Native JS 逻辑
Unity DLL + AssetBundle

这意味着混淆必须分层处理。


原生层:符号混淆(iOS 混淆工具核心能力)

先看最传统的一层:Swift / Objective-C。

检查方式:

strings AppBinary | grep Controller

如果看到:

HomeViewController
PaymentManager

说明符号未处理。


处理方式

使用 Ipa Guard 这类 IPA 级别的 iOS 混淆工具:

  • 导入 IPA
  • 进入代码模块
  • 勾选类 / 方法 / 参数

执行后:

PaymentManager → a82kd3

这一步直接改变 Mach-O 符号,是跨平台项目中最“统一”的一层处理。


Flutter 层:Dart 混淆 + IPA 补充

Flutter 提供内置混淆:

flutter build ios --obfuscate --split-debug-info=./symbols

执行后:

  • Dart 符号被替换
  • 生成符号映射

但 IPA 解包后仍然可以看到:

assets/images/banner.png
config/app.json

补充处理

使用 Ipa Guard 的资源模块:

banner.png → x92kd.png
app.json → a83ks.json

这样 Dart 层 + 资源层同时处理。


React Native:JS 混淆 + 文件重命名

React Native 的关键在 JS bundle:

main.jsbundle

直接打开可以读。


处理步骤

1)压缩 JS:

terser main.js -o main.min.js

2)替换 bundle

3)用 Ipa Guard 修改文件名称:

main.jsbundle → k39sd.bundle

这样:

  • 内容不可读
  • 路径无语义

Unity:资源与 DLL 的组合处理

Unity 项目解包后:

Data/Managed/Assembly-CSharp.dll
Data/Resources/

DLL 可以被反编译,资源路径也能推断逻辑。


处理方式

  • 使用 Unity 构建参数减少符号
  • 在 IPA 层用 Ipa Guard 处理资源名称
  • 修改资源 MD5

例如:

level1.assetbundle → a82kd.bundle

统一处理:资源指纹与结构差异

跨平台项目中,资源重复是一个常见问题。

例如多个 App 使用同一套 UI:

banner.png
icon.png

即使改名,内容仍然一致。

处理方式

在 Ipa Guard 中开启 MD5 修改:

md5 banner.png

处理前后不同。

这一步可以打散资源特征。


七、调试信息清理

检查:

strings AppBinary | grep NSLog

或:

strings AppBinary | grep Flutter

如果存在调试信息,可以统一清理。Ipa Guard 支持删除调试符号和部分日志字符串。


签名工具

无论哪个技术栈,只要修改 IPA,就必须重新签名。

可以使用:

kxsign sign app.ipa \
-c cert.p12 \
-p password \
-m dev.mobileprovision \
-z test.ipa \
-i

四川黄金:2025年度净利润4.66亿元,同比增长87.69%

36氪获悉,四川黄金发布2025年年度报告。报告显示,期内实现营业收入10.26亿元,同比增长60.38%;归属于上市公司股东的净利润为4.66亿元,同比增长87.69%。公司计划以4.2亿股为基数,向全体股东每10股派发现金红利5元(含税),不送红股,不以公积金转增股本。

泰福泵业:实际控制人拟变更为孙凯

36氪获悉,泰福泵业公告,公司收到相关方出具的权益变动报告书。本次权益变动由协议转让、间接股权转让与表决权放弃共同构成。原控股股东陈宜文、林慧夫妇拟向诤远行转让合计5.23%股份,并将持有18.88%股份的地久电子100%股权转让给诤远行。同时,原实控人及相关方将放弃合计11.15%股份的表决权。交易完成后,诤远行将直接和间接持有公司24.11%股份及对应表决权,成为新控股股东,孙凯将成为公司新实际控制人。本次变动尚需履行相关审批程序,存在不确定性。

热门中概股美股盘前普跌,蔚来跌超3%

36氪获悉,热门中概股美股盘前普跌,截至发稿,蔚来跌超3%,阿里巴巴、爱奇艺、小鹏集团跌超2%,百度、京东、拼多多、网易、B站跌超1%,腾讯音乐跌0.11%、

中山公用:利安人寿拟以12.19元/股受让5%公司股份,举牌成为持股5%以上股东

36氪获悉,中山公用公告,公司控股股东中山投控与利安人寿于4月1日签署《股份转让协议》,拟以12.19元/股的价格协议转让7376万股(占总股本5%),转让总价款约8.99亿元。本次权益变动后,中山投控持股比例降至43.73%,仍为控股股东;利安人寿持股增至8.12%,成为持股5%以上股东。本次交易不触及要约收购,不会导致实控人变更,但尚需国资监管机构批准及深交所审核后方可实施。

网易春招提供2000个转正实习岗位,技术岗位招聘规模翻倍

36氪获悉,近日,网易启动2026年春季校园招聘计划,面向2027届毕业生开放近2000个转正实习岗位,职位覆盖研发、策划、美术、运营等多个方向。网易游戏校招相关负责人表示,实习生总招聘数量较去年增长70%,技术岗位招聘规模较去年翻倍,实习生整体转正率超50%,其中核心研发岗位实习转正率接近70%。

腾讯会议这波 AI 功能,让我彻底戒掉了整理焦虑

有多少会议的录像,你从来没有回看过?

我想有些人的答案是:几乎全部。

录制文件躺在云端,没有索引,没有摘要,于是我们宁可在手机备忘录里潦草记几行字,也不去动那个文件夹。时间一长,会议录像的意义,就只剩下一种:防止对方事后翻脸说「我没说过这句话」。

作为腾讯会议的深度用户,我用它录过选题会、采访,也录过早八课、小组讨论。录制于我而言,从来只是个存档动作。因为我总要花 3 倍于会议时长的时间,去整理笔记、提炼重点、定位关键信息。稍有不慎就会遗漏核心点,主打一个「摸鱼一时爽,整理火葬场」。

腾讯会议这次「智能录制」的升级动静不小。变的不仅是准确率,还包括整个框架。它引入了多模板机制,不同类型的会议,AI 会用不同的方式帮你整理。

看到「AI 帮你整理会议内容」,可能你和我的第一反应是:又来。这种功能见得太多了。生成出来的东西,要么是逐字稿套了个排版,要么是把你说的话复读一遍加了个标题。

但这次可能真的不一样,我拿了几种完全不同的会议来试,工作周会、大学课堂、客户拜访,看看它到底能整出什么花来。

体验入口:

第一步:在会议中开启「云录制」,会议结束后录制文件将自动保存进入你的「录制」文件中。

第二步:进入腾讯会议客户端/APP,点击「录制」(APP 请从「我」-「录制」),在全部文件中,选择任何一场会议,进入后即可查看该功能。

不同的会,终于有了不同的整理方式

我先拿了一场最常见的周会开刀。

这会会一般信息密度不高但杂乱,我过去通常的处理方式是:打开录制文件,拖着进度条找到关键段落,然后打开备忘录开始手动敲:谁说了什么、结论是什么、谁负责跟进。

这次我什么都没做,会后直接打开录制文件,选择「智能总结」模板。

在这场周会的录制里,AI 把内容切成了大约 6 个段落,排期讨论、预算确认、人员安排,每一段标题都对得上我的记忆。单是这一个功能,就帮我省下了至少一半的整理时间。

对于大多数日常工作会,这个通用模板已经够用了。但腾讯会议这次真正让我觉得有意思的,是接下来这件事。

因为不同类型的会议,对「重要信息」的定义完全不一样。

一节课的核心是知识点和考试重点,一场客户拜访的核心是预算、决策链和痛点,一次项目启动会的核心是里程碑和责任人。让一套 AI 模板包打天下,就像让同一个实习生既写课堂笔记又写销售报告。能用,但不专业。

腾讯会议这次一口气推出了 5 个场景化模板,我拿大学生最刚需的「学霸助手」先测了一场早八课。

周三早八,文学翻译鉴赏课,老师用英文开场,PPT 切换的速度比我意识清醒的速度快一倍。

和往常一样,进入会议我顺手点了云录制,然后把脑子调到了省电模式。

下课后,我先点开了逐字稿,中英夹杂,密密麻麻。「so」和「就是说」交替出现。

图源小红书@亿万

我在屏幕前坐了三秒,头开始疼,算了,直接看「学霸助手」模板整理的纪要。

整齐的语段就这样萌萌地看着我。

我在复盘时发现一个有趣的细节:老师在讲「Memory, like olives, is an acquired taste.」这句话如何翻译时,用了相当长的篇幅分析「acquired」,AI 纪要把这段内容压缩成了要点,而不是一堆原话的堆砌。

最让我觉得贴心的是,组队人数、抽签规则、评分占比等重要细节都无一遗漏。

但 AI 的输出不是终点。我还可以随时在要点下面加一段自己的理解,操作就像在一篇文档里插入注释一样自然。 我的思考、我的补充、我的疑问,都能和课程内容牢牢绑定在一起,随着学习过程不断丰富,最终变成完全属于我的学习资产。

对中小企业来说,多模板可能更值钱

除了学霸助手,腾讯会议还准备了汇报总结、项目启动纪要、客户拜访纪要(MEDDICC)和客户分析(BANT)四套模板。

我有个做 ToB 销售的朋友,团队六个人,没有 CRM 系统,客户信息全靠微信收藏和脑子。每次见完客户回来,主管问一句「对方预算多少?谁拍板?」他就开始翻手机备忘录上潦草的三行字,剩下的全凭印象。

他不是不知道 BANT、MEDDICC 这些专业销售框架好用。客户预算、决策人、需求、时间线,哪条漏了都可能跟错单。但六个人的小团队,哪有精力每次见完客户还坐下来花半小时填表?

行业里有个数据说,用对了销售资格认定框架,成交率能提高 67%。道理大家都懂,卡就卡在执行上。

这次我帮他试了一下 MEDDICC 模板。操作很简单:客户拜访时开着腾讯会议的云录制,聊完之后切到 MEDDICC 模板,AI 直接把聊天里提到的预算范围、谁是最终决策人、客户痛点、竞品情况这些信息,按框架归好了类。

他看完说了句:「我以前花半小时填的东西,它开完会就填好了。」

BANT 模板也是同样的逻辑,预算、决策权、需求紧迫度、时间线四个维度自动归位。对他这种小团队来说,这招属于「轻资产、重方法」。

买不起几十万的 CRM,请不起咨询公司做销售培训,但开个腾讯会议、选对模板,AI 就能帮你把客户信息按专业框架整好。说白了,方法论本身不贵,贵的是执行成本。现在执行成本被 AI 干掉了。

会议能被追问,元宝是我的私人秘书

如果说智能纪要解决的是「会后整理」,那「问元宝」解决的是更深一层的问题:会议内容能不能被追问

我们或许都经历过,在五六个人的工作会议中,大家都在说话,你很难在实时对话中同时追踪每个人的立场演变,注意力往往被最强势的那个声音带走了。

现在你直接点击逐字稿里参会者的昵称,就可以让元宝总结 ta 的全场观点。分人总结之后,这五六个人分别说了什么、各自强调了什么、在哪个问题上有过保留意见,全部清晰呈现。

会后追问,才是「问元宝」更日常的用法。

做访谈时,有位受访者提到了心盲症(Aphantasia)这个概念,我当场不好打断就没追问。会后让元宝结合那段访谈内容和外部资料给我解释,它把受访者的个人描述和认知科学的外部知识结合起来,标注了哪些内容来自录制,哪些来自联网检索。

之前遇到陌生概念,要花几小时翻知网、查文献,既耗时又容易出错。现在元宝直接完成「访谈内容解读 + 权威知识补充 + 信源标注」一站式服务,整理好的内容稍作调整核对,就能直接放进论文附录或注释里了。

大学生们课后如果需要给组员发组队通知,直接输入「根据本节课的分组要求,生成一份组队通知,明确组队时间、人数要求、报告占比、抽签规则」,一份清晰得体的通知立刻生成,复制粘贴就能发到群里。

这样一来,「会议内容」就从一段只能播放的音视频,变成了一个可以被追问、被延伸的知识库。你只需要告诉 AI 你想知道什么,它帮你从里面捞出来。

会议录制的终点,是「随时调用的记忆」

以前我对会议效率的期待,就是开完能有份纪要就谢天谢地了。但纪要只是信息的归档,归档之后的信息怎么再流转、怎么被用起来,才是真正决定效率的环节。

这一年腾讯会议把 AI 嵌进了会议的每一个角落。现在,多模板管整理,元宝管追问,整条链路终于没有断点了。

你可以追着它问、往里面加自己的笔记,甚至让它联网帮你查资料。会议录制文件第一次变成了一个活的东西。

我翻了翻云端那堆从来没打开过的旧录制文件,原来早就支持了,过往文件也能用。

那些在云端躺了几个月的早八课录像,我可能要重新打开了。不是为了复习,只是想知道,那节我快睡着的课,AI 眼里的「核心知识点」到底是什么。

与其说这是会议录制,不如说是把工作生活里,那些过去没有被好好整理的上下文记忆都留存了起来。

这,才是「会议录制」这个动作之后真正应该有的结局。

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

宁德时代:已回购1599.08万股,使用资金总额43.86亿元

36氪获悉,宁德时代公告,截至2026年3月31日,公司通过深圳证券交易所股票交易系统以集中竞价交易方式累计回购公司A股股份15,990,782股,占公司同日A股总股本的0.3628%,最高成交价为317.63元/股,最低成交价为231.50元/股,成交总金额为人民币4,385,504,687.90元(不含交易费用)。
❌