阅读视图

发现新文章,点击刷新页面。

融资丨阿迈特医疗完成超2亿元D轮融资

4月9日,作为泛血管植介入领域备受瞩目的创新标杆,阿迈特医疗器械(北京)股份有限公司(以下简称“阿迈特医疗”)宣布完成超2亿元D轮融资,本轮融资由浙生协同生命健康基金领投,河南重点知识产权基金、环球对冲基金管理有限公司等机构跟投。资金将用于加速核心产品(包括已商业化的二氧化碳无肾毒性造影装置及在研全降解支架)的研发、全球市场推广与国际战略布局。

阿迈特医疗成立于2011年,是一家利用全球领先自主3D多轴精密打印平台技术,同步攻克血管疾病诊疗中的关键诊断瓶颈(无肾毒性造影)与治疗痛点(永久金属植入物),构建从精准诊断到创新治疗完整闭环解决方案的高科技平台技术企业,系北京市首批生物医药G20企业、北京市专精特新企业以及国家高新技术企业,同时设有院士专家工作站和博士后科研工作站。公司在2023年成功入选工信部“生物医用材料创新任务揭榜挂帅项目”揭榜单位及工信部2023年增材制造典型应用场景名单,在2024年成功获批国家“十四五”重点研发计划重大专项牵头单位。

公司在血管造影诊断领域的重要战略产品——星落雨ÒJetfallÒ二氧化碳造影压力注射套装,可适用于向肾动脉、髂动脉、下肢动脉、前臂静脉、下腔静脉及髂静脉进行无肾毒性造影。真实世界临床数据表明,该产品采用二氧化碳造影技术,具有规避传统含碘造影剂相关肾毒性风险的显著优势。在其国内多中心临床研究中,针对造影前估算肾小球滤过率(eGFR)> 30 mL/min/1.73m²的患者人群,结果显示:造影剂肾病及严重不良事件发生率均为0%。自2025年海外上市以来,该产品已在美国、欧盟、英国、巴西、土耳其、以色列、中东等全球20余个国家和地区获批并实现销售。近日,该产品正式获得国家药品监督管理局批准,成为国内首个Ⅲ类CO2造影注射产品,为肾功能不全、碘造影剂过敏、甲亢等高危患者提供了刚需解决方案。

星落雨ÒJetfallÒ二氧化碳造影压力注射套装

截至目前,阿迈特医疗已构建起以自主3D打印技术平台为核心、覆盖泛血管及非血管介入领域的完整产品矩阵,展现出清晰的战略纵深与持续创新能力:成功突破国际专利壁垒,实现生物可吸收支架的国产化替代与性能超越;形成“可吸收支架+创新造影+多领域应用”的协同布局,覆盖冠脉、外周、神经、消化道等高成长赛道;二氧化碳无肾毒性造影装置实现多项技术全球首创,为高危患者提供革命性解决方案,并已进入国际主流市场。公司已有3款产品进入国家创新医疗器械审批“绿色通道”,累计获得境内外发明专利授权45项。

阿迈特医疗创始人刘青博士表示:“本轮融资标志着阿迈特医疗从‘技术突破者’正式迈向‘行业引领者’。未来,我们将聚焦两大核心战场:一是把握中国创新医疗器械的政策窗口期,快速推动以生物可吸收外周支架和CO₂造影产品为核心的外周全解决方案进入更多医院,让国内患者享受到国际领先水平的国产创新器械;二是持续打造技术学术高地,与首都医科大学附属北京安贞医院、解放军医学院与解放军总医院(301医院)、复旦大学附属中山医院等顶尖临床中心深化合作,建立CO₂造影技术临床培训基地,推动中国血管疾病诊疗技术的规范化与国际化。”

阿迈特医疗首席科学家赵庆洪博士表示:“本轮融资是对阿迈特医疗15年潜心创新的最好肯定,也是我们向国际科研深水区发起总攻的集结号。资金将坚定不移地投入到原创技术研发中:加速外周可降解支架的循证医学积累,持续优化升级CO₂造影产品,让无肾毒性造影惠及更多高危人群。同时,我们将加速全球化商业布局,推动‘中国智造’出海新篇章。医疗器械的竞争归根结底是核心技术的竞争,阿迈特将始终坚持长期主义,通过源头创新解决临床最棘手的挑战,立志成为中国乃至全球泛血管领域最值得信赖的‘技术创新策源地’。”

浙生协同生命健康基金投资负责人罗煜先生表示:“我们非常荣幸领投阿迈特医疗本轮融资。作为专注医疗健康的投资机构,我们领投阿迈特医疗本轮融资,是基于对其底层技术创新与全球化执行力的双重认可。公司核心产品二氧化碳造影装置凭借独特优势,已在海外市场取得卓越销售首秀,不仅验证了其硬核技术壁垒,更展现了成熟的国际化商业落地能力。这标志着中国医疗器械正从“规模追赶”迈向“价值定义”与“全球规则输出”的新阶段。更重要的是,我们看好阿迈特医疗基于此成功经验,在血管介入领域构建的“诊断+治疗”全栈式平台战略。其系列3D打印可降解支架已进入临床或注册上市申请的关键阶段,代表了从“疾病治疗”到“健康全周期管理”的产业进化方向。该平台将高端影像诊断与创新植介入治疗深度融合,形成强大的临床协同效应与生态竞争力。我们相信,本轮融资将加速这一战略闭环成型,助力阿迈特成为血管介入领域的全球领军者,为全球患者带来更多中国原创的解决方案,引领产业从“国产替代”走向“全球价值创造”。

查看更多项目信息,请前往「睿兽分析」。

财务数仓 Claude AI Coding 应用实战|得物技术

一、引言:财务数仓为什么需要AI?

财务数仓的特殊性

在电商数仓体系中,财务域是复杂度最高、容错率最低的领域。不仅因为财务对于数据准确性的要求高,也因为财务是横向域,与几乎所有的域都有数据交叉,因此对业务 Sense 的要求很高。财务数仓工程师本质上在做三件事:

  • 业务翻译: 将交易、支付、资金、促销补贴、成本等数十个业务系统的数据,翻译成通用的财务语言;
  • 资产架构: 从 ODS 到 DWD、DWS、ADS 层层构建,确保财务 UE、财务管报等公司核心指标算得准、算得快;
  • 质量兜底: GMV 口径是否统一,退款是否扣减,分摊是否跨周期对齐,任何一个字段的偏差都可能导致错误的经营决策。

财务域的独特挑战在于:字段间存在严格的数学公式关系(正向-冲销=冲销之后),业务规则涉及跨周期分摊,对于质量的要求极高。如果单纯依靠人工兜底,要么容易出错,要么需要冗余大量人力做复核。尤其是在交付压力大的时候,质量问题就更容易被忽视。

痛点聚焦

从财务数仓的特殊性出发,我们可以总结财务数仓的痛点,大体可以分为如下几类:

基本上,在需求承接的每个环节,都可能因为"人"的问题,带来隐患。

AI 大模型能带来什么改变

为了有效解决"人"的问题,比如催得太急、看不过来、没看仔细、理解错误等问题,我们引入 AI 来做改变。核心思路是:大模型的介入不是替代数仓开发工程师,而是在「需求理解 → 代码编写 → 质量测试 → 文档沉淀」每个环节注入强推理能力。利用 AI 来代替人做大量的重复性工作,同时减少低级错误概率。

那么为什么 AI 能做到这一点?从技术发展的趋势看,有三个核心能力支撑了这一变革:

  • 超大上下文打破知识孤岛: 200k+ token 的上下文窗口,可以将表结构定义、词根字典、指标计算逻辑一次性注入模型的 “工作记忆”,实现基于全域元数据的推演,让大模型具有记忆;
  • 业务语义的自动抽象与对齐: 大模型能理解 “日活”“留存率”“归因窗口” 等业务术语,并映射为具体 SQL 实现,减少因需求理解偏差导致的返工;Claude 在编码领域显著优于其他模型,是因为它能 “懂” 业务逻辑,而不是简单的机械执行;
  • 突破人类极限的规范执行力: 人工在紧迫工期下规范遵守率通常明显下降,而大模型注入规范后,可稳定维持在高位。只要指令给得明确,大模型 “几乎” 不会出错。

参考:亚马逊 AWS 对于构建一个强大、具备自我纠错能力且能查询多种数据源的 Text-to-SQL 解决方案架构图。

二、应用场景概览:从「单点提效」到「全链路增强」

场景与提效预期

基于上述观点,在财务领域,大模型可以在哪些具体的环节落地呢?以下是根据笔者近期实践经验,列出的可落地场景及提效预期。

人机协作模式:数仓研发的「L3 时刻」

如果借用自动驾驶的分级标准,当前数仓大模型应用正处于从 L2(辅助驾驶)向 L3(有条件自动驾驶)过渡的阶段,即在明确的 Prompt 约束与规范文档支撑下,AI 能接管绝大部分标准化的执行动作。

在财务域的实践中,我们也是按照这套自动驾驶分级的方法,将日常工作拆解成了三级:

这种分工背后的逻辑是:规范执行是人类的短板、AI 的长板;业务判断是 AI 的短板、人类的长板。 人工在紧迫工期下对命名规范、分区约束、注释要求的遵守率通常明显下降,且容易因疲劳产生遗漏;而 AI 一旦"学会"了团队规范,输出的规范遵守度可稳定维持在较高水平。反过来,AI 无法替代的是那些需要理解业务上下文、权衡取舍、处理分歧的工作。

AI 对于数仓全链路研发的提效作用

学习 Andrej Karpathy 关于 ChatGPT 分享的内容时,最大的感受是:AI 最强的能力,是 "泛化"。 因此,如果我们可以把数仓研发的链路拆分清楚,那么 AI 必然能够对其中的每一个环节提效,最终带来研发效率的大幅度提升!

三、核心应用场景深度解析

AI OneData 标准化建模(财务核算数据项目)

背景:财务核算 OneData 为什么难搞?

因为:仅第一轮模型设计,就涉及百张以上的表、多个子域、十余个业务过程、数百个指标。如果考虑到后续的二次/三次迭代,工作量势必大到无法想象。在当前以交付为主的阶段,很难花费如此多的时间做基建。以某次核算项目为例,各层表数量分布如下:

同时,财务域的核心特征是来源多(全公司系统)、指标多(单表字段数众多),但以可累加指标为主。财务严格意义上没有原子指标,全是基于业务指标加工出来的派生指标,且一个财务指标往往有多种口径:业务口径、资金口径、财管报口径。并且,项目涉及多个子域(核算域、技术成本域、促销补贴域、商业化域、分析域),覆盖从「计费 → 核算 → 结算 → 财务分析」的端到端业务过程体系。如果要彻底理解核算 OneData 的构建,不仅要懂数仓,还要懂财务,还要熟悉公司财务系统,这个要求非常难做到!主要难点集中在四个方面:

口径溯源极其复杂: 大量逻辑在工程侧实现,绝大多数表缺失业务文档、技术文档、口径文档,口径逻辑需要基于代码猜测,存在错误可能性,溯源工作量巨大。

规范执行不一致: 财务域涉及表命名规范(DIM/DWD/DWS/ADM 各有格式要求)、时间周期规范(1d/7d/30d/wtd/mtd/ytd 等多种)、生命周期规范、刷新周期规范、标准字段英文命名原则({主体}{业务场景}{币种标识}{度量类型}{时间单位})。规范越细,人工遵守率越低。

跨域依赖复杂: 财务是横向域,与各业务域交叉。核算域依赖大量上游表,技术成本域需要从云服务、算法、产研人力、标注人力等多个来源接入数据。

文档输出繁琐: 每个 ADM 表都必须包含 OnePage 文档(OneData 方案最重要内容),加上口径文档、模型使用说明、下游 mapping 文档,文档间大量重复但需各写一遍。

所以,我们更需要通过 AI 的能力,来做一套新时代的建模方法论,以适应 “低投入、大设计” 的智能建模场景。

建模方法论:规范即 Prompt × 迭代收敛法 × 海量文件阅读

第一个方法论:规范沉淀是前提

AI 的输出质量完全取决于输入的规范文档质量。财务核算项目中,我们沉淀了完整的规范体系作为 Prompt 的核心输入,包括:

  • 模型设计规范:表命名、时间周期、生命周期、刷新周期;
  • 标准字段英文命名原则:{主体 /fin}{业务场景 / 费用类型}{币种标识}{度量类型}{时间单位};
  • 财务业务全链路设计理念:计费层 → 核算层 → 结算层 → 财务分析层;
  • 业务过程总线矩阵:多个业务过程与多个维度的交叉关系;
  • 数据质量监控规范:完整性、准确性、一致性、合规性、业务规则等多个大类。

第二个方法论:迭代是常态

不要期望 AI 一次给出完美结果。验证的关键是选择复杂字段进行抽查 —— 在财务场景中,重点验证涉及条件取值的字段(如分摊逻辑、冲销逻辑、多口径指标),对照 SQL 代码验证溯源路径。每次迭代的产物不只是修正后的输出,更重要的是规范文档的完善。因此,针对每次迭代的结果,快速识别要改动的点并修改,这一点就很重要。也就是说,AI 可以显著提升我们的迭代速度!

第三个方法论:海量文件阅读

因为超大的 Context,所以不仅可以把历史上已有的文档一次性灌入进去,也可以把原有设计链路的表和代码交给大模型理解,省去大量阅读和理解的时间。同时,能够帮我们精准地画出业务架构图,辅助数仓工程师理解业务、构建模型。例如财务数仓架构图,很多子模块的逻辑,都是大模型读取代码后输出思路,再由数仓团队整理形成的。

Prompt 和效果

将以上规范作为学习知识输入给模型,再把原始数据表给到模型,模型即可以产出建模建议。

Prompt 示例:

请读取以下规范文档:

  • 数仓规范资产细则(含词根字典、命名规范);
  • 离线数仓开发规范白皮书;
  • 团队 Cursor Rules;

分析目标表(输入对应的表名)的建表语句,按照数仓建模规范(ODS → DWD/DIM → DWS → ADM)的方式,输出重构后的建模建议。

第一次生成的效果展示了初步建模建议,在经过不断的调优和知识输入后,最终版本要丰富很多,形成了完整的财务核算数据 OneData 方案。

收益

经过一段时间的实施,第一版核算数据结构已经落地,效果如下:

  • 效率提升显著: 百张表的口径溯源、文档输出等标准化工作大幅压缩;
  • 规范遵守率大幅提升: 表命名、字段命名、时间周期等规范严格执行,遵守率较人工有明显改善;
  • 可复用性强: 规范文档、工具脚本、Prompt 模板、工作流程 SOP 均可跨子域复用(已在核算域、技术成本域验证);
  • 数据质量监控体系: 基于口径逻辑自动推荐 DQC 规则(完整性、准确性、一致性、合规性、业务规则等多大类)。

AI SQL Coding 实践(财务 UE 表迭代案例)

实践思路

以财务 UE 表某次迭代为代表的案例,主要成果有:

  • 代码结构优化,可读性大幅提升: 指标分段清晰、逻辑分层明确,维护成本明显降低;
  • 代码开发速度提升: 在规范与口径已对齐的前提下,从需求到可上线代码耗时缩短;
  • 性能优化: 整体基线提前完成,为下游留出更多缓冲时间。

那么,我们是如何实现这种成果的?主要靠两点,一是 PRD 快速阅读与理解,二是代码开发效率提升。

如何理解 SQL Coding 核心能力

PRD 阅读与理解方面,AI 能够帮我们实现:

快速将 PRD 中的目标、指标、维度、过滤条件提炼为结构化要点;对「大促期间」、「小仓卖家」、「冲销」等未精确定义的表述,自动生成待确认问题清单;输出「指标口径」「统计周期」「主键与粒度」等需确认条目。

代码开发效率提升方面,AI 能够帮我们实现:

基于词根、分层、命名规范与建表模板,生成符合数仓规范的 DDL 与 SELECT 语句;多维度聚合、归因逻辑、窗口函数、多层嵌套等复杂逻辑,由模型生成初版 SQL,人工校验微调;对存量长 SQL 进行分段、抽取公共逻辑、统一风格与注释。

实践中大模型显著提升点

财务 UE 表迭代需求使用 AI 开发后,具体效果如下:

指标结构分段、编码规范性、注释清晰度:

  • 新表:按数仓分层与命名规范生成 DDL 与 SQL,指标按业务域/统计口径分段组织,注释完整(字段含义、口径说明、KEY 标记等),既符合规范又便于阅读。
  • 旧表改造:在保留业务逻辑正确性的前提下,对历史「屎山」代码进行结构化改写——统一别名、补全注释、拆分过长子查询、显式写出分区过滤等,使后续维护与排查成本明显下降。
  • 代码展示对比:改动前 vs 改动后,可从「可读性、规范遵守度、注释覆盖」等维度做对比分析。

代码撰写速度大幅度提升:

  • AI Coding 的主要步骤:Step 1:整理需求 → 技术文档 将 BI 需求文档中的字段信息整理进技术文档,明确字段范围。
  • Step 2:大模型分析字段来源 提示大模型读取 DWD 源码,分析哪些字段已存在、哪些需要新增关联。
  • Step 3:大模型编写 ETL 代码 由大模型自动在 DWD → DWS → ADM 三层添加字段代码,输出改动代码集合。
  • Step 4:命名规范校准 引入指标字典和 Cursor Rules,让大模型按规范重命名字段(去掉不规范后缀)。
  • Step 5:测试 SQL 生成与跑数验证 大模型生成自测 SQL,逐步验证各层数据一致性,不通过时追问原因并溯源。

性能优化及自动调参:

  • 自动识别性能瓶颈:结合执行计划、大表扫描、数据倾斜等常见问题,由模型分析 SQL 与表结构,指出潜在慢点。
  • 优化建议生成:在分区裁剪、谓词下推、JOIN 顺序、中间结果物化等方面给出具体改写建议。
  • 参数调优方案:针对 Spark/ODPS 等引擎的资源配置、并行度、倾斜处理参数,给出可落地的调优建议,供运维或开发同学选用。

基线优化提升案例:

  • 原链路:多张表串行/并行产出,整体耗时较长。
  • 新链路:经模型辅助做表合并与逻辑下沉,收敛至更少的表,整体耗时明显缩短。
  • 优化效果:在保证口径一致的前提下,表数量与运行时间双降,基线提前完成,资源占用与调度依赖均得到简化。

AI 数据测试(财务 UE 表邮费迭代案例)

财务数据测试的特殊挑战

在数仓开发工作中,数据测试是保障数据质量的关键环节,但也是最复杂、最耗时的环节之一。特别是在财务类指标开发中,数据测试面临着多重挑战:

测试复杂度高,影响面广:

一个指标的改动往往不是孤立的,它会引发连锁反应,影响其他相关计算指标。在复杂的业务场景中,一个字段的修改可能需要同步验证数十个相关字段的正确性。这种复杂的依赖关系使得人工测试很难做到全面覆盖,容易出现遗漏

业务逻辑复杂,公式验证困难:

财务指标通常有明确的数学公式关系:正向 - 冲销 = 冲销之后:需要验证每个字段的正向值、冲销值、冲销之后值之间的计算关系;子项相加 = 汇总项:需要验证各个子项字段相加是否等于汇总字段;

财务的分摊逻辑涉及跨周期问题,难以验证:某些业务场景下,订单时间与收入确认时间不匹配,需要进行跨周期分摊,测试逻辑极其复杂。这些公式关系看似简单,但在实际测试中,需要考虑各种边界情况、精度问题、空值处理等,验证工作量巨大。

测试用例设计困难:

一个需求往往衍生出大量测试点,单纯凭借个人经验和能力,很难做到全面覆盖,容易出现测试盲区,包括:

  • 字段级别的计算逻辑验证;
  • 汇总关系的验证;
  • 冲销逻辑的验证;
  • 边界场景的验证;
  • 精度问题的验证;
  • 业务规则转化的验证。

业务语言到数据语言的转化困难:

业务人员描述的需求往往是自然语言,而数据测试需要将其转化为精确的数据验证逻辑。例如:"退小仓场景下,卖家邮费出资放在第一笔收入冲销,挂在最后一单";"邮费返利抵减技术服务费";"跨周期分摊,商业化订单时间与交易订单时间不匹配"。

AI 在数据测试中的应用实践

那么,我们如何通过 AI,来解决这些复杂问题呢?以某次财务 UE 表邮费迭代项目为例,我们深度应用 AI 进行数据测试,取得了显著效果。

项目背景:

该项目涉及邮费相关字段的全面重构,包括:

  • 迭代字段:修改多个邮费相关字段的计算逻辑;
  • 新增字段:新增大批量邮费细分字段;
  • 删除字段:废弃部分历史字段;
  • 逻辑变更:邮费返利抵减逻辑调整、冲销逻辑优化等。

AI 应用场景:

  1. 测试用例自动生成:向 AI 提出测试要求后,AI 能够自动生成完整的测试 SQL 和说明文档,包括:
  • 正向-冲销=冲销之后的验证逻辑;
  • 子项相加等于汇总项的验证逻辑;
  • 业务规则转化的验证逻辑;
  • 边界场景的验证逻辑。
  1. 规则理解层面的测试补充:AI 能够从规则理解层面补充测试案例,如抽样验证、精度验证等,减少因理解不一致带来的质量问题。特别是在复杂的跨周期分摊场景中,AI 能够识别出人工容易忽略的测试点。

  2. 复杂逻辑的逐步分析:针对复杂的业务逻辑,AI 能够逐步分析不符合预期的环节,帮助找到潜在的代码 Bug。例如在邮费冲销逻辑中,AI 能够分析退小仓场景下的多种分支情况,识别出逻辑漏洞。

  3. 上下游影响分析:AI 能够分析一个字段的改动对上下游的影响,帮助识别需要同步验证的相关字段,避免遗漏。

  4. 公式验证与精度问题诊断:AI 能够自动生成公式验证 SQL,并识别精度问题。在测试过程中,AI 能够区分真正的逻辑错误和可接受的精度误差,避免误报。

实际效果与收益

经过 AI 加持之后,效果和收益明显,包括:

开发效率提升:

测试 SQL 生成效率明显提升:从提出测试要求到生成完整测试 SQL,时间大幅缩短;测试用例覆盖度提升:AI 能够识别出人工容易忽略的测试点,测试覆盖更全面。

交付质量提升:

一次交付通过率显著提升:从规则理解层面补充测试案例,减少理解不一致带来的质量问题;针对复杂逻辑逐步分析,找到潜在代码 Bug;自动生成全面的测试用例,减少测试盲区。

问题发现能力提升:

AI 在测试过程中能够:发现人工难以发现的逻辑错误,识别精度问题并区分可接受的误差,分析复杂的业务规则转化问题,诊断上下游影响关系。

综合收益较高。通过 AI 辅助数据测试,整体交付质量大幅提升,主要体现在:测试覆盖更全面,减少遗漏,问题发现更及时,减少返工,测试效率更高,缩短测试周期,质量保障更可靠,提升交付信心。

AI 需求文档转换(财务 UE 表邮费复杂逻辑解读)

痛点

理解 PRD 和与业务产品反复核对口径,大约占数仓总体工作时间的较大比例。BI 需求文档往往复杂难懂,第一眼看过去看不懂。

实践案例:邮费 UE 迭代技术文档

以邮费 UE 迭代需求为例,BI 需求文档涉及大量字段口径调整、新增字段、废弃字段、冲销逻辑重写等复杂内容。例如通过飞书 MCP 让 Cursor 直接读取 BI 需求文档,大模型自动总结出两张表(DWS 层和 ADS 层)各自需要改什么。大模型输出的结论结构清晰,按表分类列出:

  • 字段含义/口径调整(哪些字段的逻辑需要改);
  • 数据来源与计算点(应收邮费、实收邮费的新口径);
  • 新增字段清单(应收拆分、冲销相关、实收拆分、成本、UE 等);
  • 废弃字段清单(相关历史字段);
  • 冲销逻辑重点(退小仓规则);
  • 两表关系与实现顺序(先改 DWS 再改 ADS)。

Prompt 实例:读取「邮费逻辑梳理」文档内容,分析其文字描述与财务 UE 表的代码,分析要改动的点,帮我生成对应改动代码和改动原因注释。

通过这个分析结果,能够很快地定位要改动的代码,然后一步步理解业务逻辑和具体如何改动。

效果

经过这个过程快速 get 到 PRD 缺失的内容、快速对齐,总体沟通时间有效缩减。虽然在总时间占比上看似不高,但节省的是工程师最头疼的碎片化沟通时间。

四、总结与展望

核心价值

当前市场上,部分头部大厂由于自身产品策略的原因,限制了内部使用最新的大模型和 IDE 工具,导致一线使用大模型的效率受到制约。而我们则能够更灵活地选择最适合的工具组合,在使用技巧和经验积累上具备优势。例如,我们有如下两个方面的优势:

能力层面:

  • 规范化规则遵守:注入规范后生成结果遵守度稳定维持在高位;
  • 业务抽象能力:快速理解 PRD 中的目标、指标与口径,识别模糊点;
  • 实际落地案例丰富:财务 UE 表迭代等项目已有可量化结果。

组织与场景层面:

  • 模型选择灵活,不绑定单一厂商,按任务类型选用最优模型;
  • 组织精简高效,从确定方向到试点上线路径清晰,试错迭代周期短;
  • 离线数仓分层与规范稳定,模型易学易用、效果可预期;
  • 离线任务可重跑、可回溯,模型产出便于充分校验后再上线。

未来展望

使用大模型的能力不仅仅局限在财务、局限在个人,也要向整个团队推广,包括:优先选择 1-2 个痛点明确、规范相对清晰的场景做试点;将有效的 Prompt 设计、上下文组织方式、测试用例模板等经验在团队内分享,形成可复用知识库;从「人做」为主转向「人定规则与口径、模型执行环节」的协作模式,让大模型成为数仓同学的日常助手。未来已来。

往期回顾

1.日志诊断 Skill:用 AI + MCP 一键解决BUG|得物技术

2.Redis 自动化运维最佳实践|得物技术 

3.Claude在得物App数仓的深度集成与效能演进

4.Claude Code + OpenSpec 正在加速 AICoding 落地:从模型博弈到工程化的范式转移|得物技术

5.大禹平台:流批一体离线Dump平台的设计与应用|得物技术

文 /丹克

关注得物技术,每周更新技术干货

要是觉得文章对你有帮助的话,欢迎评论转发点赞~

未经得物技术许可严禁转载,否则依法追究法律责任。

斜跃智能获元璟资本与理想汽车联合投资,聚焦家庭具身智能机器人

近日,由理想汽车前 AI 首席科学家陈伟、前产品线总裁张骁共同创办的杭州斜跃智能科技有限公司(下称 “斜跃智能 ”)正式亮相。

公司立足于具身智能技术研发,致力于打造服务全球用户的家庭机器人产品。通过将人工智能从数字世界延伸至物理世界,把前沿 AI 技术转化为具备感知、理解与行动能力的家庭智能体,打造可持续学习、可信赖、真正融入家庭生活的下一代智能终端。

目前,斜跃智能已完成首轮融资工商变更,由元璟资本和理想汽车联合投资,为企业技术研发与产品落地注入强劲动力。

核心团队:理想双核心联手,AI + 产品深度耦合,锚定家庭具身智能

斜跃智能创始团队产业背景深厚。创始人陈伟作为理想汽车 AI 领域核心带头人,曾任理想汽车 AI 首席科学家、基座模型部门负责人,长期深耕具身智能、语言与多模智能及智能体系统等领域,曾主导理想同学研发体系建设及自动驾驶 VLA 基础模型研发与落地,是理想 AI 从数字世界走向物理世界的重要推动者之一;

创始人张骁作为理想汽车早期核心成员,曾任理想汽车产品负责人、第二产品线总裁,主导理想 ONE 和理想 L9 等多款现象级车型的产品定义与规模化落地,在用户需求理解、产品定义与复杂产品体系化落地方面具备深厚经验,是“ 以用户为核心 ”产品方法论的重要实践者。

两位创始人将以领先的 AI 技术实力与前瞻性的产品定义能力为核心驱动力,将汽车行业对用户体验、安全可靠与系统工程的极致追求,全面延展至家庭具身智能机器人领域,打造真正融入家庭生活的智能产品,让机器人从技术概念进化为可信赖、可协作、有温度的家庭伙伴,推动下一代家庭智能终端走进千家万户。

资本加持:理想生态赋能,元璟资本加码具身智能黄金赛道

斜跃智能本轮获得元璟资本和理想汽车联合投资,财务投资人和战略投资人携手进场,既是资本对家庭具身智能赛道前景的高度看好,也是对创始团队技术实力、产品执行力、工程化能力的充分认可。

在创业初期,斜跃智能聚焦家庭核心场景,以具身智能机器人为载体,构建 AI 时代面向家庭的智能终端,推动智能设备从被动工具升级为具备感知、决策与行动能力的主动式具身智能体,使机器人真正成为家庭生活的长期伙伴。

未来,公司将加速产品商业化与技术演进,打造全球家庭场景中的核心智能入口,推动具身智能从技术突破迈向规模化应用。

基于 Cursor Agent 的流水线 AI CR 实践|得物技术

一、背景

在实际迭代开发中,不同需求的代码规模差异很大,有些需求涉及上千行代码,有些则只有一两行。且对于前端的代码验收,主要侧重在界面功能,通过功能验收,没法确保每一行代码都测试到的,以及功能的代码逻辑是否合理,是否健壮、是否规范等问题,都需要通过人工代码 CR 来进一步兜底验收代码的质量,尽量降低业务线上出错的可能。但当面对上千行的代码变更时,人工 CR 也是心有余而力不足。

传统的代码审查依赖人工,面对大规模代码变更时效率有限,而 AI 代码审查能够实现自动化、标准化的质量检查,有效补充人工审查的不足。

二、前端研发 CR 现状与可优化点

CR 现状

目前前端研发同学主要使用的代码质量保障工具有前端 Apex 插件智能体、Uraya 质量分检测。其中 Apex 插件智能体是通过前端研发自助点击或 git hook 自动触发 CR 智能体执行,智能体内定制了 CR 规则以及与 MCP 的结合,利用 Cursor IDE 的 Agent 能力进行本地 AI CR ,找出代码问题、本地解决问题。Uraya 质量分检测是在创建 MR 后,通过流水线自动触发,Uraya 质量分检测代码变更的质量分浮动,产出具体问题的记录,引导研发优化代码。

可优化点

  1. 本地触发 CR 需要研发同学主动点击触发或者通过 Apex git hook 执行 CR 智能体,当开发的需求多、分支多、提交次数多的时候,时长容易漏触发、忘记点。
  2. 对于 MR 评审人员,如果希望通过 Cursor CR 时,需要在本地通过调用 CR 智能体再执行一遍,获取 CR 结果,在目前 Cursor 按量计费的背景下,重复执行 CR 智能体的成本需要及时关注。
  3. 当前流水线 Diff + 大模型 API 的 AI CR 方式,误报率较高,研发使用意愿较低。

三、AI CR 方案对比分析

基于以上现状分析,我们对不同 AI CR 方案进行了深入对比。

Cursor Agent CR 主要优势

流水线集成 CR 与本地 AI CR 差异

四、技术方案设计

结合目前现状与可优化点,我们期望能像 Uraya 质量分检测一样,在 MR 过程中通过流水线自动触发,中途每次代码提交也能自动触发,对于流水线中的 CR 不满意时,可以结合 Apex CR 智能体进行本地 CR 调整代码。

为此我们考虑结合 Cursor Agent CLI 在流水线中增加一个 AI CR 的任务,自动触发 Cursor Agent 代码 CR,并记录 CR 结论,及时展示给研发或者代码评审的同学,辅助代码质量优化。

整体链路设计如下:

  1. 当研发创建 MR 后,流水线配置了 AI CR 检测流水线后,将会自动触发 Cursor Agent CR 任务。
  2. 接收到检测任务后,将会前置将该仓库准备好,并将 MR 的信息以及制定的 CR 规则,一并交给 Cursor Agent CLI 执行,待执行完成,会得到一份 CR 报告。
  3. 接收到检测任务完成后,目前会通过 MR 评论的方式添加到对应的 MR 中,引导用户查看。
  4. 对于开发者视角,打开审查报告,可以根据审查出的问题,进行修改。
  5. 对于 CR 人员视角,打开审查报告,可以根据审查出的问题,一键添加到评论,引导开发者修改。

五、MR 流水线接入与 AI CR 报告

自动触发

以下图 MR 为例,在 MR 流水线中,添加了仓库流水线 AI 检测的检测任务,当创建 MR 时,会自动触发执行一次,在 MR 未合入的过程中,每次代码变更也会自动触发。

添加审查报告评论

检测完成后会自动添加一条 MR 评论,通知研发已完成检测,可以点击查看 CR 报告。评论概览中有审查摘要,显示聚类问题的数量;还有审查总结,即对所有反馈的总结,概览问题。

AI CR 报告

以下为实际 MR 生成的 CR 报告,可以看到,报告主要包括:MR 的基础信息、问题的分类 Tab、问题的具体描述、问题的操作。

具体问题列表

首先报告列表会对问题进行聚类,分为严重问题、警告、建议三类,切换对应 Tab 可以看到问题列表。具体的问题信息,主要有类型、问题代码、修复后代码、描述、文件路径、行号、操作等列。

添加到评论

点击操作列的添加到评论,将会一键将相关问题的信息,生成格式化描述,添加到 MR 的评论中,提醒开发者关注问题、解决问题。

AI 智能解决

点击操作列的 Cursor 解决,将会一键将相关问题的信息,生成解决问题 Prompt,一键打开本地 Cursor ,创建 Agent 对话去解决问题。打开链接后,Cursor 会先接收 Prompt ,你可以简单浏览下,点击 Create Chat ,即可一键创建 Chat,回车执行修复。

Cursor Prompt 预览

Cursor Prompt 预览 确认填入 Chat 执行

复制 Prompt

点击复制 Prompt,支持一键复制修复问题 Prompt,可以放到期望的 IDE 里使用。如下图,就是复制的 Prompt 示例。

六、推荐研发流程实践

尽早创建 MR

当需求分支第一次提交后,就可以创建到 release 或 test 目标分支的 MR 了,后续每次提交代码都将会自动触发检测,产出 AI CR 报告。

研发自主查看与解决

研发收到 AI CR 报告的通知后,可以及时打开 CR 报告查看,确认反馈的疑问点是否需要调整,如果需要调整可以通过 Cursor 一键解决,将问题解决前置到提测以前,这样所有的改动可以尽可能的被测试同学验证到。

人工 CR

发布前最后的人工 CR 可以通过前置的 AI CR 发现与问题前置解决,大幅提升靠最后人工 CR 的反馈、修改等环节效率。特别是当业务需求代码量较大时,人工 CR 浏览的效率和质量也是无法保证的。

七、内置提示词工程

AI CR 其实就像给 AI 一个详细的检查清单。这个清单分两部分:一部分是基本规则,比如"你要扮演什么样的角色"、"按什么流程检查";另一部分是具体的技术要点,比如"注意空指针问题"、"检查React用法是否正确"等。有了这个清单,AI 就能像有经验的程序员一样,系统地检查代码,发现各种潜在问题,让代码质量得到保障。

具体这个规则体系的结构如下:

.cursor/rules
├── 00-role-and-constraints.mdc          # 角色与约束 - 定义AI代码审查助手的角色和基本约束条件
├── 01-workflow-steps.mdc                # 工作流程步骤 - 描述代码审查的工作流程和步骤
├── 02-detection-standards.mdc           # 检测标准 - 定义代码问题的检测标准和准则
├── 03-output-format.mdc                 # 输出格式 - 规定代码审查结果的输出格式和规范
├── 04-best-practices.mdc                # 最佳实践 - 提供代码审查中的最佳实践建议
├── common                               # 通用规则目录 - 包含各种常见的代码问题检测规则
│   ├── 01-null-pointer-defense.md       # 空指针防御 - 防止空指针异常的最佳实践
│   ├── 02-react-hooks-usage.md          # React Hooks 使用 - React Hooks 的正确使用方式
│   ├── 03-data-merge-state.md           # 数据合并状态 - 处理数据合并时的状态管理问题
│   ├── 04-async-programming.md          # 异步编程 - 异步编程模式和常见陷阱
│   ├── 05-memory-leak-performance.md    # 内存泄漏性能 - 检测和防止内存泄漏问题
│   ├── 06-security-coding.md            # 安全编码 - 安全编程实践和漏洞防范
│   ├── 07-compatibility.md              # 兼容性 - 确保代码兼容性的检查点
│   ├── 08-git-conflict-detection.md     # Git 冲突检测 - 检测并解决 Git 合并冲突
│   ├── 09-code-quality.md               # 代码质量 - 代码质量评估和改进规则
│   ├── 10-resource-handling.md          # 资源处理 - 正确处理系统资源的规则
│   ├── 11-url-params.md                 # URL 参数 - URL 参数处理的安全和有效性检查
│   ├── 12-business-logic-consistency.md # 业务逻辑一致性 - 确保业务逻辑一致性的规则
│   └── 13-monorepo-dependency.md        # 大仓依赖 - Monorepo 架构中的依赖管理规则
└── README.md                            # 说明文档 - 规则系统的介绍和使用说明

八、模型选择

在 AI CR 环节,模型的选择需要考虑模型对于代码理解的复杂性、上下文长度需求以及推理准确性、模型的速度、模型的使用成本等考量。在 Cursor 的模型列表中,我们优先使用 Compose 1.5,当额度不足时,我们也会降级使用 Auto 模型。

以下为 Cursor auto 模型与 Composer 1.5 模型对比,可以看出,两个模型都找出了 4 个问题,但在时间上,Composer 1.5 进行需 44 秒即可完成,而 auto 模型需要 91 秒。

九、总结与规划

通过多个迭代实践与数据统计,Cursor Agent CR 挖掘的有效问题数可以达到 50% 左右,研发使用的意愿也相比原来有不少提升。当前我们也在将 AI CR 报告融合到 Cursor IDE 插件中,进一步融合到研发流程里。

随着 AI 生成代码在开发流程中越来越普遍,AI CR 的重要性将进一步凸显。相比传统的人工审查,AI 审查能够自动发现 AI 生成代码中可能存在的逻辑错误、安全性问题和规范性缺陷,提前在开发过程中消除隐患。同时,AI CR 还能确保 AI 生成的代码符合团队的技术规范和最佳实践,保持代码风格的一致性。为 AI 时代的开发流程提供了可靠的质保机制,让开发流程更加顺畅,是现代软件开发的重要保障。

往期回顾

1.从IDE到Terminal:适合后端宝宝体质的Claude Code工作流|得物技术

2.AI编程能力边界探索:基于 Claude Code 的 Spec Coding 项目实战|得物技术

3.搜索 C++ 引擎回归能力建设:从自测到工程化准出|得物技术

4.得物社区搜推公式融合调参框架-加乘树3.0实战

5.深入剖析Spark UI界面:参数与界面详解|得物技术

文 /大圣

关注得物技术,每周更新技术干货

要是觉得文章对你有帮助的话,欢迎评论转发点赞~

未经得物技术许可严禁转载,否则依法追究法律责任。

山南投融汇x高榕创投「生物制造」机构日在玉皇山南基金小镇圆满举办

2026年,生物制造作为“十五五” 规划重点发展的战略性新兴产业,是撬动新质生产力发展的核心赛道。中国龙头企业与创新型初创公司加速赛道布局,资本的关注度与投入度持续攀升,生物制造赛道正从技术探索阶段迈入商业化黎明。

玉皇山南基金小镇作为国内私募基金的重要集聚地,长期深耕硬科技投资领域,为生物制造相关企业提供从种子期到成熟期的全周期资本支持,成为引领行业投资方向的标杆阵地。

本次机构日活动,由玉皇山南基金小镇,联合生物制造赛道标杆投资机构——高榕创投和国际创投生态服务平台创业邦共同发起,聚焦“生物制造产业化路径与商业应用突破”。 高榕创投是中国最活跃的风险投资机构之一,专注于早期和成长期投资,重点投资 AI、互联网与消费,新科技,医疗健康等创新创业领域。截至目前,已有 30 多家高榕投资或入股的公司完成上市,多家公司成长为各自行业的领军者。

高榕创投董事总经理 乐贝林带来《产业化浪潮下,生物制造的投资逻辑与价值判断》的主题演讲。他谈到,生物制造已步入产业化爆发阶段, “十五五”规划纲要将生物制造明确为未来产业和新的经济增长点,在政策、资本与技术三重驱动下迎来行业共振。行业发展先后经历基因编辑技术突破、合成生物学兴起,以及 “十四五” 规划明确支持并实现商业闭环三波浪潮。在投资布局上,他坚持 “优秀人才 + 优质业务” 双轮驱动模型,既看重核心团队领导力与迭代能力,也关注项目长期现金流、真实市场需求、成本优势、监管路径与技术壁垒。此外,AI 正深度赋能生物研发,高榕已投资百奥几何、引加生物等 AI + 生物企业,其中多个项目已成功 IPO 或过会。乐贝林先生本人是复旦大学生物系本科,新加坡国立大学医学院博士,重点关注医疗方向的投资,负责投资项目包括普方生物(被Genmab收购)、Mirxes觅瑞(02629.HK)、百英生物、圣贝拉(02508.HK)、齐碳科技、康诺思腾等医疗生物企业。

高榕创投董事总经理 乐贝林

引加生物是一家AI驱动的开发各种高端蛋白及治疗性生物制剂质控和安全评价检测试剂的生产商,已获得由鼎晖投资,高榕资本和招银国际等头部投资机构领投的三轮数亿元融资, 已建成赋能AI-蛋白设计和预测-高通量无细胞蛋白表达平台、 独特蛋白设计和复杂工艺开发为核心的完整蛋白平台、治疗性生物制剂质控安全评价开发平台、基于基因编辑和微生物底盘细胞改造的合成生物技术平台。产品覆盖应用于ADC/抗体新药研发、疫苗、细胞治疗、蛋白组学,类器官/干细胞等前沿领域,为上市药企,创新药企,上市诊断公司和科学院所提供优质稳定的产品。

引加生物创始人兼CEO 吴一飞的分享围绕《基于第一性原理的技术攻坚和商业化挑战》展开。他认为,生物制造的本质是通过活体系统降低医药、材料、能源等领域成本,整体市场规模已超万亿,中国市场增速领跑全球。而在技术创新上,引加生物团队以第一性原理为指引,从生物体基本单元和核心限制机制出发,结合AI完成蛋白设计与验证,自主开发的无细胞蛋白表达体系已在微量<10 ul蛋白芯片中实现高效表达,大幅缩短AI设计和高通量实验验证闭环,赋能生物医药和其他领域的底层创新和成本需求。当前,行业的商业化进程仍面临成本、质量、法规准入与市场竞争等多重压力,可通过轻资产模式联合CRO/CDMO合作破解发展难题。

引加生物创始人兼CEO 吴一飞

生物制造2026——从技术研发到产业落地的破局与进化

圆桌对话环节,由高榕创投董事总经理 乐贝林担任嘉宾主持,辉大基因中国总经理 李方心、食气生化联合创始人 汪庆卓、进化硅联合创始人 沈家锋、可瑞生物创始人 谢兴旺担任对话嘉宾,从技术定位、商业化选择、AI赋能、未来增长角度展开了精彩探讨。

辉大基因是一家全球性的临床阶段生物技术公司,专注于设计、改造及开发新型CRISPR基因编辑工具和颠覆性的创新基因疗法。总部位于中国上海,并在美国新泽西设有办公室,辉大基因目标是利用基因编辑技术满足全球患者的切实需求,研发管线涵盖眼科、中枢神经等多个领域。公司基于CRISPR的基因疗法,有望通过从根本上的基因修复,追求将危及生命的疾病治愈,改变基因编辑医学的未来。

李方心谈到,深耕 CRISPR-Cas 系统优化,核心攻克初代技术的递送大小限制与 IP 壁垒,自研的 Cas12Max 工具适配体内基因编辑,尤其适合罕见病治疗。AI 是工具开发的核心抓手,通过自建 Base Editor 数据库、AI 预测结构性能,大幅提升基因编辑的效率与安全性。当下基因疗法市场遇冷,核心短板是缺乏人体数据,依托国内IIT试验快、成本低的优势,在罕见神经退行性疾病领域积累数据,推动多条管线进入 IND 阶段,靠疗效打破市场质疑。

食气生化是化学品负碳制造和可持续能源领域新锐企业,依托来自中国科学院、英国诺丁汉大学等机构的顶尖团队,开发了特种食气微生物基因编辑技术和气体发酵技术,可转化富碳工业尾气等废弃碳资源为负碳化学品、饲料蛋白和可持续航空燃料前体。2024年起已陆续建成百吨级、五百吨级煤化工尾气发酵中试装置,顺利运行过万小时;五万吨级规模化示范项目已完成备案。

汪庆卓提到,食气生化选定工业尾气发酵生产大宗化学品赛道,既契合双碳战略,又因上下游场景匹配能形成商业闭环,且重资产投入可构筑强竞争壁垒,秉持“高技术做低附加值大宗产品”理念。公司的AI落地工艺端,结合拉曼实时监测和海量生产数据训练模型,实现工艺智能管控与预警,目标替代主操人工干预。团队目前已备案万吨级量产项目,计划年内开工、明年投产,后续将结合低碳属性与成本优势,与石油基产品同台竞争。

可瑞生物创始人谢兴旺博士专注于TCR创新药研发与转化,拥有近20年肿瘤免疫研究和产业化经验。带领可瑞生物建立SMART-TCR®亲和力优化平台和CorEngager®新一代TCR-TCE平台,形成国内领先的TCR-T与TCR-TCE双平台布局。其团队兼具分子发现、工艺开发、分析质控和临床转化能力,推动CRPA1A2获得FDA IND许可,创下中国企业首个TCR蛋白药进入临床阶段的里程碑。

谢兴旺指出,选择TCR-T赛道是因其差异化显著,可靶向胞内抗原、填补小分子和抗体药物的治疗空白,且赛道小众,技术型团队能沉下心做长期技术沉淀。公司对AI的应用是依托自有高精度TCR亲和力数据搭建分布式计算体系,有望将原本一年的分子优化周期大幅压缩至数周。未来两年将聚焦临床数据验证,公布胰腺癌等实体瘤临床结果,推进TCE药物在多癌种的临床应用,以实际数据打破行业观望,印证赛道的产业价值。

进化硅专注生物基纳米二氧化硅研发、生产与销售。公司联合张立群院士团队,建成全球首条以稻壳为原料的绿色产线,采用特殊碳化法替代传统硫酸工艺。拥有多项全球独家技术,产品实现对高端气相法及高分散二氧化硅的进口替代,并已获启赋资本、川流资本等机构的投资。公司致力于成为全球绿色化工与碳中和示范企业。

沈家锋介绍,二氧化硅赛道因市场体量庞大,且传统工艺高污染、产能受限,行业存在突破机会。进化硅在全球首创以二氧化碳 + 秸秆为原料的负碳生产技术,契合下游客户ESG需求,产品应用场景广泛。当下,团队将AI落地到了生产研发全流程,采用外部合作+本地部署模式,实现节能降本与研发提效。公司的南通10万吨产线建成后,成本将反超传统产品,依托高校资源快速对接大客户放量,同时布局芯片抛光等高附加值领域,稳扎稳打守住行业领跑优势。

从大脑到双足:具身智能的产业拼图

项目展示环节,五家生物制造优秀代表企业依次展示了生物制造领域的前沿成果,覆盖创新药、重组蛋白、细胞技术、基因编辑、生物食品等细分方向。

1.瑞诺元生物

公司具有杰出的国际创业团队,核心高管来自中美生物科技公司。公司创立之初,立足国际化,通过底层创新的逻辑,重点解决行业的痛点和难点,拓展基因治疗边际。公司经过两年的时间获得了两项行业数据均处于领先,神经退行性疾病的管线已进入临床IIT阶段,同时公司拥有中期可用于交易的新型的血清型AAV的资产,可控的成长的风险。

2.元一生物

元一生物致力于领先的合成生物学技术为核心,从事合成生物学前沿技术的研发,利用“工程化”思维和高效基因编辑工具,设计并搭建新的基因代谢通路,开发具有极高生产力的细胞工厂,并提供包括集成菌株开发-发酵工艺优化-工业发酵生产-产物分离纯化-终端产品开发 的一站式解决方案。公司立足合成生物学产业多元化,聚焦医美护肤品活性原料、经济动植物营养、营养保健食品、生物新技术等领域。

3.智源深澜

智源深澜由生命科学自动化独角兽公司镁伽科技孵化,专注于生物大分子的人工智能设计与制造。公司已完成搭建自动化的多肽和抗体连续定向进化自动化平台,构建数据驱动的蛋白质功能AI模型。目前该平台日均产出数十万生物分子的功能数据,填补了该领域功能预测模型的空白。


从左到右:瑞诺元生物联创贺加原、元一生物创始人张骊、智源深澜创始人王承志

4.中析生物

中析生物专注于生命科学与生物技术领域高端装备的研发和生产制造。公司自成立以来,在苏州、南京、武汉、广州、三亚设立了五大研发中心,以“V3移液技术”、“3D细胞培养克隆(类器官)筛选技术”、“类器官生物打印技术”、“高通量质粒库构建技术”等为代表的核心技术。公司已初步构建全球业务网络,产品远销韩国、澳大利亚、俄罗斯、美国、德国、英国、迪拜、拉脱维亚等国,全球服务近3,000个用户。

5.海擘生物

海擘生物基于全球首创的肿瘤靶向机制,研发了一系列全球First-in-Class的近红外荧光肿瘤靶向精准成像创新药,能够用于手术中肿瘤精准成像,全球市场空间达数千亿元。核心管线NC527-X各项指标全面领先全球同类已获批/在研药物,已经获得药效关键性数据,最快2026年底核心管线进入3期临床。



从左到右:中析生物CTO刘伟、海擘生物创始人王伟卫

本次机构日不仅是一场高规格的行业聚会,更是一次推动生物制造落地、促进产业与资本融合的务实行动。活动所在地——杭州玉皇山南基金小镇,作为“中国最具实力基金小镇”,不仅是风景如画的创业热土,更是金融与科技双向赋能的典范。小镇打造的“山南投融汇”,作为长三角乃至全国极具影响力的投融资平台,自2023年7月启动以来,已举办活动454期,促成融资金额超58亿元。

展望未来,在政府政策的持续支持、以玉皇山南基金小镇为代表的专业资本平台助力、以及技术创新的多方共振下,生物制造正加速从概念探索走向场景深耕与生态构建。山南投融汇将与基金小镇及各方合作伙伴一道,继续发挥连接器与加速器的平台作用,持续关注并助力生物制造等硬科技领域的发展,共同迎接生物制造领域的广阔未来。



GDPS2026上海市人工智能行业协会与毕马威中国战略合作,共创智能化转型破局之路

当前,人工智能正从技术爆发期迈向产业深水区,传统企业站在了智能化转型的关键路口。与信息化、数字化时代不同,AI转型并非简单的系统升级或流程优化,而是一场涉及战略重构、组织变革与业务重塑的系统性工程。大量传统企业面对AI浪潮时,普遍陷入“不敢转、不会转、转不动”的困境,既担忧技术投入回报不确定,也困惑于原有方法论无法适配AI逻辑,行业亟需一套兼具前瞻性与落地性的AI转型解决方案。

值此GDPS2026全球开发者先锋大会之际,上海市人工智能行业协会(以下简称“SAIA”)与毕马威中国(以下简称“KPMG”)正式签署战略合作协议。双方同意在产业研究、活动合作与品牌共建、企业服务与生态建设、标准制定、咨询项目合作等多个领域开展全面合作。SAIA产业实践经验与KPMG专业方法论深度融合,联合推出面向传统企业智能化转型、具备可落地性的解决方案。

图1-SAIA与KPMG战略合作协议签约仪式

一、传统企业在推进AI转型过程中面临多重痛点与深层焦虑

AI技术已展现出巨大潜力,但传统企业在实际推进转型时,仍普遍面临从战略到执行的多重障碍,主要从以下从五个维度剖析:

首先,战略层面“方向不清”是最大困扰。许多管理者虽已意识到AI的重要性,却难以回答“AI能为业务带来什么”“应从哪个环节切入”等根本性问题,导致转型停留在概念阶段,迟迟无法落地。

其次,业务层面“场景难寻”成为突出瓶颈。AI技术需与具体业务场景深度结合才能产生价值,但传统企业业务链条复杂、流程固化,识别高价值、可落地的AI应用场景本身就需要极高的专业判断力,企业往往在试错中消耗大量资源。

第三,组织层面“复合人才匮乏”构成硬约束。既懂AI技术又懂业务场景的复合型人才极度稀缺,企业内部现有团队的知识结构难以支撑AI项目的高效推进。

第四,成本层面“投入焦虑”尤为突出。AI项目前期投入大、见效周期长,结果高度不确定,决策层常在“怕错过”与“怕投错”之间反复权衡。

最后,路径层面“方法缺失”是深层隐忧。更值得关注的是,传统信息化、数字化转型方法论在面对AI转型时,已暴露出明显的不适应性,企业迫切需要一套真正适配AI特性的专业方法论作为指导。

这些痛点与不足交织叠加,构成了传统企业AI转型的第一道难关。

二、双方构建可落地的AI转型解决方案

基于SAIA与KPMG的联合,双方构建了一套真正可落地、可复制、可迭代的AI转型解决方案,助力企业跨越从战略到执行的鸿沟。

图2 毕马威中国人工智能转型办公室主管合伙人分享AI转型方法框架

第一,以AI转型方法论为根基。方案以SAIA与KPMG联合提炼的AI转型方法论为基石,围绕“战略—场景—数据—组织—生态”五大维度,构建从顶层设计到落地执行的全链路闭环。该方案既深刻反思了传统信息化范式的局限,又充分融合了AI技术特性与企业实际场景,为转型提供了清晰的路径指引。

第二,采用人工智能成熟度评估模型。通过系统化的诊断模型,从战略认知、数据基础、技术能力、组织文化四个维度,精准评估企业当前的AI准备度,明确优势与短板,为后续规划提供客观依据。

第三,顶层设计AI转型战略。基于评估结果,协助企业制定“短期见效、中期突破、长期布局”的AI战略蓝图,明确愿景目标、资源投入、组织保障与关键里程碑,确保AI战略与企业整体发展同频共振。

第四,对接智能体建设解决方案。聚焦AI能力的具体落地,围绕智能体(AI Agent)的规划、开发、部署与运营,提供覆盖单点辅助、流程自动化、知识问答等多元场景的解决方案,推动AI从“工具”向“协作伙伴”演进。

第五,构建前沿部署工程师(FDE)赋能机制。为确保方案真正落地,引入“前沿部署工程师”(Forward Deployment Engineer,FDE)机制。FDE作为技术与业务之间的桥梁,深入企业一线,全程参与需求调研、方案设计、系统部署与迭代优化,确保AI能力与业务场景深度融合,帮助企业在转型过程中构建“自我造血”的持续进化能力。

三、SAIA与KPMG联合的优势分析

在推动传统企业智能化转型进程中,SAIA与KPMG各自拥有不可替代的核心优势,双方的强强联合更形成了“产业洞察+专业方法论”的深度协同效应。

SAIA作为上海市人工智能领域的权威行业组织,以“政府助手、企业帮手、行业推手”为定位,在产业推动中发挥“连接器、推进器、放大器”的关键作用。其一,产业生态优势:SAIA一端链接海量AI创新企业、开发者和创业者,打造“最后一公里”赋能平台;另一端汇聚各行业场景需求与央国企转型痛点,响应国家“AI+”任务。凭借大量已验证的AI+成功案例,精准推动技术与场景的匹配,让AI创新企业找到落地土壤,让AI转型企业获得可复用的标杆实践,形成双向奔赴的产业生态。其二,政策衔接优势:作为政企桥梁,深度参与地方AI发展规划与政策制定,助力企业把握政策导向、争取资源扶持。其三,标准引领优势:在标准制定、伦理治理、可信AI等领域持续深耕,为企业提供合规指引。其四,资源链接优势:通过GDPS全球开发者先锋大会、闭门会等平台,加速资本、技术、人才的流动与聚合。

KPMG作为全球领先的专业服务机构,在咨询、审计、税务等领域拥有深厚积淀。其一,战略咨询能力:长期服务世界500强及中国头部企业,具备从战略规划到落地执行的全链路咨询能力。其二,行业深耕优势:在金融、制造、医疗、汽车、政务等重点行业拥有专业团队,精准匹配AI技术与业务场景。其三,方法论体系:构建了涵盖战略设计、场景挖掘、数据治理、组织演进、生态协同的AI转型方法论。其四,全球视野与本地实践:融合国际领先经验与本土企业实际需求。

SAIA与KPMG的联合,形成了“产业生态+专业服务”的深度融合。双方实现产研结合,确保方案前瞻性与落地性并重;标准与实施并重,助力企业合规高效部署AI;资源协同,为企业提供政策对接、技术选型、人才赋能的一站式服务;价值闭环,打通从战略诊断到组织演进的完整链条。双方联合,形成了“懂产业、懂技术、懂方法、懂落地”的综合能力,为传统企业智能化转型提供坚实支撑。

四、期待合作带来的效果

依托SAIA与KPMG联合构建的AI转型解决方案,中国传统企业将在智能化浪潮中迎来信心与未来。AI将深度重构供应链优化、生产排程、设备维护、客户服务等关键流程,为企业注入降本增效、提质增收的新动能。

决策层面,AI驱动的实时洞察将推动管理者从经验主导迈向数据驱动,让决策更精准、更高效。业务拓展上,AI赋能智能营销、产品服务化转型与研发提速,为企业打开新的增长空间。组织层面,AI转型促进业务与技术深度融合,培育复合型人才,夯实可持续的智能化能力。

更值得期待的是,这套方案将赋予企业拥抱变革的勇气与底气。在智能化时代,敢于先行、勇于布局的企业,将率先抵达高质量发展的新彼岸。SAIA与KPMG愿与各界携手,以专业之力助推企业加速驶入智能化快车道,共同开创更加光明的未来。

Redis 自动化运维最佳实践|得物技术

一、背景介绍

随着业务规模与流量的持续高速增长,自建 Redis 集群面临着更高地性能与稳定性要求,对平台化、自动化运维能力也提出了新的挑战。为进一步提升资源利用效率、保障服务稳定运行,并更好地支撑业务快速发展,我们对 Redis 平台进行了自动化能力的建设与升级,通过系统化的平台能力优化,降低人工运维费力度,提升整体运维效率与服务质量。

Redis 使用现状

Redis 集群目前基于 ECS 进行部署,采用单机多实例、主从混合部署的架构模式,并将 Proxy 组件与数据节点混合部署,以提升 CPU 资源利用率与整体部署密度。当前集群已达到百 TB 级存储规模、数十万数据节点,支撑超大规模业务场景的稳定运行。

面临的挑战和问题

随着业务规模与流量的持续增长,平台在资源效能与运维效率方面面临着新的优化空间:资源池层面机器资源池的整体利用率仍有提升空间,需进一步优化资源调度与负载均衡策略。运维自动化层面告警自动化处理覆盖度有待提升,部分复杂运维场景仍需人工介入,流程效率可进一步优化。

集群架构

自建 Redis 由 ConfigServer、Redis-Proxy、Redis-Server 等核心组件构成。

自建 Redis 2.0(SDK标准版) 整体架构图如下所示:

一主一从,双区部署

ConfigServer

ConfigServer 是自建 Redis 系统中关键组件之一,跨多可用区多节点部署,采用 raft 协议实现 ConfigServer 组件高可用;ConfigServer 主要负责两方面职责:

  • 负责 Proxy 添加与删除、group 创建与删除、Redis-server 实例添加与删除、Redis-server 实例手动主从切换、水平扩容与数据迁移等功能操作。
  • 负责 Redis-server 实例故障检测与自动故障转移(主节点故障后自动主从切换)。

Redis-Proxy

Redis-Proxy 组件是自建 Redis 系统中的代理服务,负责接受客户端连接,然后转发客户端命令到后端相应的 Redis-server 实例,使得后端 Redis-server 集群部署架构对业务透明,Proxy 支持 Redis RESP 协议,业务访问 Proxy 就像访问一个单点 Redis 服务一样,业务可以把一个自建 Redis 集群当作一个容量无限大的单点 Redis 实例即可。

Redis-Server(Redis-Group)

Redis-server 组件为开源 Redis 版本基础上,增加槽 slot 同步迁移与异步迁移等相关功能;支持原生开源 Redis 的所有特性,比如支持 String、Hash、List、Set、ZSet 等常用数据结构,AOF 持久化、主从复制、Lua脚本等等。默认一主一从,可支持多从部署。

二、自动化运维能力

自动化运维

资源池自动化均衡调度

当前 Redis 资源池支持按内存使用率自动化均衡调度、按内存分配率自动化均衡调度、按 CPU 使用率均衡调度、支持指定机器凌晨迁移调度(隐患机器提前维护、凌晨资源池迁移优化下线等)等功能,核心流程为合理选择迁移节点。现在每天定时生成迁移计划,迁移任务默认每天凌晨定时执行。

资源池均衡任务管理

迁移 server 节点选择算法流程图

Redis 潮汐调度算法示意

选择 Server 节点原则

  1. 机器选择:
  2. 获取内存容量使用率超过指定百分比的机器。
  3. 获取分配率超过指定百分比的机器。
  4. 获取需要维护和迁移优化的机器。
  5. 优先节点数量多的实例节点:这样可以在资源均衡的同时,使得同一集群节点也更均衡,同一集群节点尽可能分散到不同的机器上。
  6. 优先实例等级为非 P0 的实例。
  7. 优先从节点:从节点迁移对大部分业务都没有任何影响。
  8. 分配率和内存容量一样,优先节点规格中等规格(1-4G)实例,再选择 1G-5G 规格实例,最后选择其他规格的节点。
  9. 最后汇总迁移任务节点:
  10. 优先处理需要维护和需要迁移优化的节点。
  11. 去掉同一个集群同一个分组的 master 节点,避免对同一 group 分组进行操作。
  12. 对于需要维护和迁移优化的机器上的 proxy:
  13. 获取原来 proxy 版本,资源标签等信息,判断是否是特殊作用 proxy,部署新 proxy。
  14. 调整旧 proxy:对于 sdk proxy 禁用 proxy,对于 slb 下 proxy,调整权重。

选择 server 迁移任务流程图

  • 节点选择后生成迁移任务,前端可展示、确认、取消;
  • 定时任务执行生成的迁移任务;
  • 添加从节点、同步数据;
  • 同步数据完成后如果迁移节点是从则删除节点;
  • 同步数据完成后如果迁移节点是主则进行主从切换;
  • 如果迁移节点是主进行主从切换后检查新主从关系,检查 proxy 拓扑更新等,如果有异常则告警迁移。

迁移 proxy 节点选择算法流程图

proxy 节点选择流程图

选择 Proxy 节点原则

  1. 优先机器 CPU 负载峰值高的机器上 Proxy 节点;均衡调度阈值支持可配置,后续均衡后继续调整。
  2. 需要先采集到 proxy 24 小时 CPU 峰值,排序后优先迁移机器上 CPU 峰值最高的,直到机器 CPU 峰值降到均衡调度阈值。
  3. 每台机器每天只迁移 1 个 proxy。
  4. 判断 proxy CPU 峰值高的个数(如果只有一个就不处理,如果大于等于 3 个 proxy CPU 峰值高则处理一个(超过配置的均衡调度阈值算高 CPU 使用率))。

Proxy 迁移任务流程图:

  • 节点选择后生成迁移任务,前端可展示、确认、取消;
  • 定时任务执行生成的迁移任务;
  • 获取原来 proxy 版本,资源标签等信息,判断是否是特殊作用 proxy,部署新 proxy;
  • 新 proxy 绑定 LB;
  • 调整旧 proxy:对于 sdk proxy 禁用 proxy,对于 slb 下 proxy,调整权重。

收益

  • 提升资源池内存与 CPU 利用率,优化整体资源使用效率。
  • 合理管控资源超卖率,降低自动扩容失败率与告警发生率。
  • 基于机器维护窗口,在凌晨低峰期执行调度与实例迁移,高效支撑隐患机器前置治理、资源池离线优化及节点下线等运维需求。

资源池分级维护和管理

对 ECS 机器资源和 LB 资源进行打标,根据特殊业务需要做不同资源池的隔离调度。

可对资源进行多维度筛选:比如按资源标签、CPU、可用区、是否重保等维度筛选。

可对机器上部署的节点信息进行迁移操作和查看机器详细监控等。

物理资源隔离:自建 Redis 通过对 ECS 机器资源打标,实现重保集群隔离,支持集群物理隔离,减少集群相互影响,支持资源分级维护和灰度测试验证,减少大面积变更影响,使用相对保守的资源水位阈值来减少重保集群的运维频次和任务调度。

Redis 资源池隔离方案示意

不同资源池资源阈值项设置:

资源池分配阈值

集群生命周期自动化管理

集群自动化部署

当前 Redis 支持自动化集群部署,集群交付时间缩短至分钟级。

当业务提交集群申请工单审批通过后,判断是否支持自建,如符合自建则自动化进行集群部署和部署结果校验,校验集群可用性后自动给业务交付集群信息,整个过程高效快速。集群部署成功或者失败都会发送消息通知。

部署结果成功通知

部署结果失败通知

集群垂直扩缩容自动化

当前 Redis 支持 server 垂直扩缩容,ecs-proxy、docker-proxy 扩容等工单自动化操作。

扩容方案

集群 server 垂直扩缩容,ecs-proxy、docker-proxy 扩容等场景在业务提单时给出扩缩容方案和校验,实现工单自动化操作。

集群水平扩缩容自动化

当前 Redis 支持 server 自动扩容分片,以支持更高的请求和负载。

Server 水平扩缩容任务管理

水平扩缩容执行任务详情

集群下线支持回收和重建

当前 Redis下线回收,支持立即销毁和重建恢复。

集群自动下线流程

  • 工单审批通过后立即下线接入层:检测 proxy(ecs-proxy 和 docker-proxy)连接和 qps 请求,都没有则调整权重,下线接入层(ecs-proxy 和 docker-proxy)。
  • 7 天内如有反馈问题,需要继续访问,则重建恢复集群正常访问。
  • 7 天后无反馈下线集群所有资源(包括数据层数据,这里下线后不再支持回收重建)。

集群回收站管理

大 key 删除支持产品化可回滚

支持自建 Redis 和云 Redis 多 db 大 key 删除可回滚。支持控制台大 key 删除任务管理(立即执行删除、定时删除、回滚等)。

进行中的任务

历史删除任务

版本升级自动化

  • 对有需要的集群支持将指定集群在指定时间进行滚动升级到指定版本。
  • 自动化版本升级收敛,通过自动化任务在凌晨低峰期进行同版型系列滚动升级。
  • 支持升级任务管理、修改时间、查看任务详情、升级进度,取消任务等。

版本升级任务

版本升级记录

工单自动化

当前所有运维工单都已完成工单自动化,如 Biz 申请、创建实例、密码申请、权限申请、实例升降配、实例架构升级、Server 版本升级、Server 水平扩容、删除 key、下线实例等均完成工单自动化。业务提单审批通过后自动校验执行,执行完成后自动发送工单执行结果通知。

总结:除了需求描述性(云 Redis 需求)的工单,其他均实现操作工单化标准化,工单自动化。

查询自动化

集群控制台支持命令查询、Key 模糊查询、Key 随机采样等,查询结果也支持 json 格式化、复制等功能。

支持查询历史缓存,查询耗时记录等。

告警自动化处理

告警入库收敛优化

  • 告警触发后收敛至集群维度入库;
  • 判断告警是否沉默中:如内存容量告警,部分特殊集群可以写满按淘汰策略淘汰,不用扩容,这种告警需要沉默;
  • 判断告警是否超频:因为集群分片很多,同一集群同一指标不同分片每次触发阈值都会触发告警;
  • 将告警信息按集群所属发送到对应的业务域:同一集群可能存在多个业务方使用,根据业务域纬度增加业务域大群告警通知,提高告警业务感知能力。

Server 分片内存容量告警自动扩容

自建 Redis 支持业务配置自动扩容,当集群容量超过预警水位线 80% 时,可自动进行垂直扩容,不需要人工介入运维,对业务无感,自动扩容在夜间无人值守的场景下,大大降低了集群容量激增带来的风险。

Redis 自动扩容开关

Server 自动扩容流程图:

Redis 自动扩容流程图

  • 管控周期性任务获取监控平台 Redis 内存使用率超过 80% 的监控信息。
  • 节点告警信息收敛到集群维度处理。
  • 判断集群是否开启自动扩容:集群申请时会让业务填是否开启自动扩容,页面也可配置开启或者关闭自动扩容。
  • 判断节点是否超过集群设置的 80% 扩容阈值。
  • 判断最近一天是否扩容次数大于 3 次:如果 24 小时内扩容多次,说明可能增长异常,需要让告警发出。
  • 判断扩容后容量是否大于设置的最大阈值(8G):这里单个节点最大值为 8G,方便维护。
  • 预检查扩容后分配是否大于机器内存:自动扩容后分配容量不能大于机器容量。如果大于机器容量则记录扩容失败信息,如果小于则可执行扩容操作,扩容操作后再持久化参数到 Redis 配置文件,然后记录节点扩容成功。

宕机场景告警收敛与自动化处理

机器维度的告警收敛,减少告警。

  • 订阅机器宕机事件入库;
  • Redis server 和 proxy Down 告警信息入库;
  • Redis server 和 proxy Down 告警触发后判断所属机器是否有宕机事件;
  • 如果告警所属机器没有机器宕机事件,则直接发送电话告警和飞书告警消息通知;
  • 如果告警所属机器有机器宕机事件,则判断告警时间是否超过 5 分钟,如果 5 分钟后告警还没恢复则当前节点自动拉起失败,发送电话告警和飞书告警消息通知。如果节点自动拉起成功,则不会再触发告警。

宕机节点自动重启流程图:

针对夜间 Redis 实例机器宕机,引入自动化巡检和自动重启机制,减少夜间运维成本,提高夜间故障集群主备完整性恢复效率。

Redis 宕机自动恢复示意图

  • 订阅机器宕机事件入库;
  • 周期性任务查询宕机信息;
  • 机器宕机加入事件队列,判断是否事件重复,重复则不加;
  • 重启宕机上的节点,如果返回失败加入事件队列,支持重试 3 次;
  • 发送重启结果消息通知。

收益

  • 将告警信息按集群所属发送到对应的业务域,降低了告警后不断找人拉群的运维工作量。告警自动实时同步给业务,提高了业务告警实时性和告警感知能力。
  • 通过告警入库收敛优化、宕机场景告警收敛优化和告警自动化处理,降低告警噪音 90% 以上。
  • 通过 Server 分片内存容量告警自动扩容、机器宕机节点自动重启,极大降低运维成本和提高告警恢复效率。

自动化巡检推送

黑名单管理

对集群大 key、集群热 key、集群混用情况、集群成本等进行巡检,针对特殊场景的 key 支持集群维度、key 维度和 key 前缀维度的黑名单配置。

黑名单管理

大 key 巡检日报

每日按业务域维度巡检集群存量大key,推送巡检信息到对应业务域大群,大 key 巡检支持黑名单管理。点击实例 ID 可跳转查看 key 分析详情。

大 key 巡检日报

key 分析详情

热 key 巡检

实时将集群热 key 信息,推送巡检信息到对应业务域大群,热 key 支持黑名单设置。

集群热 key 实时巡检

实时热 key 分析

三、总结

通过持续构建与完善平台自动化运维体系,我们实现了 Redis 集群全生命周期运维的规范化、标准化与自动化,覆盖集群部署、垂直扩缩容、分片水平扩容、版本升级、集群生命周期管理、资源池多维度智能调度、自动化告警处理及常态化巡检等核心场景。整体运维流程实现少人化、无人化执行,大幅降低运维复杂度和人工运维费力度。依托运维工单化、流程自动化的建设思路,平台整体运维效率得到显著提升,为 Redis 服务长期高稳定、高可靠、高性能运行提供了坚实保障。

往期回顾

1.Claude在得物App数仓的深度集成与效能演进

2.Claude Code + OpenSpec 正在加速 AICoding 落地:从模型博弈到工程化的范式转移|得物技术 

3.大禹平台:流批一体离线Dump平台的设计与应用|得物技术

4.基于 Cursor Agent 的流水线 AI CR 实践|得物技术

5.从IDE到Terminal:适合后端宝宝体质的Claude Code工作流|得物技术

文 /陌叶

关注得物技术,每周一、三更新技术干货

要是觉得文章对你有帮助的话,欢迎评论转发点赞~

未经得物技术许可严禁转载,否则依法追究法律责任。

2026科创合伙人大会成功举办!构建科创合伙人生态,激活高质量发展新动能

2026年3月27日,上海徐汇西岸国际会议中心,一场关于AI时代人才与产业深度融合的对话正在展开。作为2026全球开发者先锋大会(GDPS2026)的重要论坛之一,以“科创共生 聚力向新”为主题的科创合伙人生态大会,汇聚了中国国家创新与发展战略研究会学术委员会常务副主席、重庆市原市长黄奇帆,上海交通大学安泰经济与管理学院副院长、中银科技金融学院执行院长刘少轩,上海交通大学智能计算研究院院长、杉数科技联合创始人、首席科学家葛冬冬等学界业界重磅嘉宾,共同探讨一个时代命题:当人工智能从技术突破走向应用转化,如何培育科创合伙人、促进产研融合落地?

在本次大会的全球创新转化成果项目路演环节,来自浙商总会、启迪之星、元芬投资、云锋基金的评审共同对各企业项目进行专业点评、深度沟通与现场指导,为企业梳理发展思路、破解落地难题、明晰升级路径。

时代命题:产业呼唤科创合伙人生态,破解技术、商业、产业协同难题

当前,人工智能正加速赋能千行百业。从科学智能的前沿探索到产业场景深度落地,AI 产业高质量发展,迫切需要打通技术、商业、产业的全链条协同体系。然而行业仍面临深层瓶颈:科研成果与市场需求脱节、技术与资本对接不畅、产学研用各方存在信息壁垒与合作边界,难以形成长期稳定的创新合力。

本次大会上,科创合伙人生态共同体正式成立。科创合伙人生态这一全新范式,是对传统科创协作模式的系统性重构。它打破学界、产业界、投资界、开发者群体、政策服务端之间的壁垒与边界,摒弃短期博弈逻辑,将产业链上下游参与者从供需对接、甲乙方合作关系,升级为长期绑定、共生共荣的永久科创合伙人,构建起 “学界策源、产业出题、开发者答题、生态共成长” 的良性循环,为科创产业高质量发展注入持久动能。

科创合伙人生态共同体正式成立

价值落地:将AI深度融入企业的核心价值链,技术转移人才推动AI 从技术热潮走向价值落地

随着大模型基础能力逐渐趋同,模型参数不再是唯一壁垒。数据质量成为决定胜负的关键,在于企业能否将自身独有的数据资产与行业知识结合,解决实际业务问题。上海交通大学安泰经济与管理学院副院长、中银科技金融学院执行院长刘少轩提到,大部分企业在应用 AI 的落地实践结果仍然不及预期,根据其带领团队在去年完成的 AI 应用成熟度报告。尽管人人都在大谈特谈AI的必要性,实则真正落地并创造价值的应用仍属凤毛麟角。但许多企业却在AI转型的思路上重蹈覆辙——只是通过在局部环节叠加智能化工具,实现有限的降本增效,这种做法本质上是在原本的企业建设上做简单的加法,是一种典型的“+AI”的思维方式。

上海交通大学安泰经济与管理学院副院长、中银科技金融学院执行院长刘少轩发表主旨演讲

应用AI,应该是一场从“+AI”到“AI+”商业模式的接力赛。为了全面、准确地评估企业应用 AI 成熟度,“企业应用 AI成熟度模型”(AIM²)应运而生,以应用和价值为核心导向,致力于帮助企业解决在中国独特市场环境中应用 AI 遇到的实际问题。AIM²设立了战略、组织、数据、技术、应用和商业六个相互关联的关键维度,覆盖了从顶层设计到底层基础,再到最终价值实现的完整闭环。AIM²的核心价值在于将复杂的 AI 落地过程分解为有序、可管理的阶段,为企业提供清晰的演进路线图和最佳实践,避免盲目探索。

此外,刘少轩还提到,AI 赋能千行百业本质是技术转移。上海交通大学中银科技金融学院率先设立国内首个技术转移专业硕士,打造懂技术、懂市场、懂金融、懂法律、懂管理的复合型科创人才,构建科技金融生态,为企业 AI 转型与产业创新提供全周期支撑,助力 AI 从技术热潮走向价值落地。

技术底座:AI for Science成为全球科技竞争重要方向

随着AI for Science这一概念开始系统出现在各国科研计划、顶尖期刊与学术会议中,标志着这一科研新范式的共识在国际层面基本确立。上海交通大学智能计算研究院院长、杉数科技联合创始人、首席科学家葛冬冬认为,从学术自发扩展到国家战略布局, AI for Science正在成为全球科技竞争的重要方向。

他分析了当前科学计算中机理驱动与数据驱动的两大主流范式的优势与不足,在此背景下诞生的第三条路径——协同计算,正在为复杂科学与工程问题提供更稳健、更有效的解决方案。

他提到,GPU加速计算是一条被低估但必须重视的AI for Science关键路径,多种算力架构协同的高精度高性能科学计算已构成AI for Science的重要赛道,GPU加速使得很多原本无法计算的破解高精度科学计算瓶颈,带动了相关领域的发展,以底层计算革新驱动科学突破与工程产业升级。

生态构建:行业协会搭建人才与产业的对接平台

上海市人工智能行业协会秘书长、上海交通大学中银科技金融学院学生联合会主席钟俊浩表示:“科学家做好科学研究,科创合伙人帮他解决商业转化、融资对接、业务落地。这种‘科学家+合伙人’的模式,正在成为上海科创生态的独特优势。”

上海市人工智能行业协会秘书长钟俊浩致辞

作为2026全球开发者先锋大会的主办方,上海市人工智能行业协会在科创合伙人培育、产业生态构建中扮演着不可或缺的角色。协会承担服务企业创新、促进行业进步的使命,业务范围涵盖人才培训、行业调研、技术指导、标准制定等多个领域。目前,协会已开展人工智能训练师等职业技能培训,推动技能培训与产业需求同频共振;同时,通过各类交流活动,为AI开发者、创业者、科学家搭建对接渠道,让科创合伙人找到志同道合的伙伴,让技术成果找到产业落地的场景。协会每年组织的各类活动累计吸引超过30万开发者、创业者参与,链接国内外开发者社区超百家,成为上海人工智能生态建设的重要力量之一。

开放探讨:科创生态的孕育与成长

圆桌论坛现场

本次大会以《科创生态的孕育与成长》为主题开展了圆桌论坛,上海广播电视台融媒体中心时政新媒体制片人沈姝艳主持,四位行业大咖齐聚一堂,上海启迪之星高质量孵化器董事长、清华大学上海校友会副会长兼秘书长韩威,民建陕西省委会委员、中国国际技术转移中心西安示范区总裁郝昭,哪吒出海法律通 AI 智能体联合创始人孙芸,以及上海科学智能研究院副院长邹亮,围绕 AI 驱动科学突破、科技项目孵化培育、东西部科创协同、企业出海合规保障及科创人才培育等核心议题展开深度分享。

嘉宾们共同指出,AI for Science正为基础科学与产业创新带来颠覆性变革,孵化器已升级为全链条创业赋能平台,跨区域协同与全球化合规是企业加速成长的关键;当前科创生态仍面临顶尖人才不足、复合型人才紧缺、法律与全球化能力薄弱等短板,需以研创一体、跨界协同、全周期服务推动科创成果高效转化。本次论坛凝聚多方智慧,勾勒出科创生态从源头创新到落地生长的完整路径,为科创产业高质量发展注入强劲动力。

本次大会设全球创新成果转化项目路演环节,包括杉树科技、商汤医疗、DaoCloud、云枢智元、星穹方舟、海具信息在内的众多优质科创企业依次登台亮相,围绕技术创新、产品应用、市场前景、商业模式等核心内容展开精彩路演,充分展现前沿科技成果与产业落地潜力。

创新成果转化项目路演

与会嘉宾一致认为,AI 产业的高质量发展,从来不是单点的突破,而是全链条、全生态的协同发力。从生产性服务业筑牢科创转化的底层制度与产业支撑,到 MTT 人才体系构建科创合伙人的核心能力底座,从 AI 技术范式革新重构科创转化的底层逻辑,到行业协会搭建人才与产业双向奔赴的全域对接平台,四大维度共同构成了上海科创合伙人生态的完整闭环。

这一全新的生态范式,彻底打破了传统科创体系中产学研用的壁垒与短期博弈,让每一个环节的参与者都成为共生共荣的永久科创合伙人,实现了从原始创新到成果转化、从技术突破到产业升级、从人才培育到生态繁荣的全链路贯通。从黄浦江畔的这场思想碰撞出发,上海正以科创合伙人生态为依托,探索一条 AI 时代科技成果转化的全新路径,为我国实现高水平科技自立自强,注入源源不断的上海智慧与上海动能。

当AI戴在脸上:MOVA用两副眼镜,打开“第一视角”智能时代

过去十年,智能手机改变了人与世界的连接方式;而接下来十年,真正的变化,或许发生在“眼前”。

在美国硅谷的发布会上,MOVA AI智慧生活业务给出了自己的答案——两副看似普通的眼镜:MOVA曜目G2 AI眼镜与MOVA AR S8 AR眼镜。它们没有夸张的形态,也不刻意强调“未来感”,却试图完成一件更大胆的事情:让AI从屏幕里走出来,成为你看世界的一部分。

发布会后,MOVA AI智慧生活业务负责人尚佳接受采访时表示,这两款产品并非为了炫技,而是基于一个朴素判断:当AI足够强大,真正限制它融入日常的,不再是能力,而是形态。“我们需要找到一个让AI始终在场的方式,而不是每次都要主动打开它。”

一副真正可以全天佩戴的AI眼镜

曜目G2的第一眼,很容易让人忽略它的“智能属性”。它更像一副设计克制、质感出众的普通眼镜。38克的重量,让它几乎与传统光学眼镜无异;极简的线条与低调的材质处理,让它可以自然出现在会议室、通勤路上或任何日常场景中。

这种“去设备感”的设计,并非妥协,而是一种策略。行业共识正在形成:只有当一件设备可以被长时间佩戴,它才有机会成为真正的AI入口。据市场调研,当前主流AI眼镜产品的日均佩戴时长已逐步提升,用户正在将其真正融入日常生活,而非束之高阁的“玩具”。

而当你开始使用它时,变化才逐渐显现出来。在会议中,你不再需要低头查看笔记,关键信息会以轻量的方式出现在视野中;面对不同语言的交流对象,翻译不再是一个额外动作,而是一个自然发生的过程;当你产生疑问时,不需要拿出手机,AI已经在“眼前”响应。

这些能力并不新,但当它们被整合进一个“始终在线”的设备中时,体验的性质发生了改变。它不再是一个被调用的工具,而更像一个持续运行的系统。从这个意义上说,曜目G2更接近一个“第二大脑”,而不是一台设备。

从“看屏幕”到“看世界”:AR眼镜的另一种路径

如果说AI眼镜解决的是“如何更自然地获取信息”,那么AR S8关注的,是“信息应该如何被呈现”。它做了一件非常直接却极具冲击力的事情:把原本局限在手机或电脑里的屏幕,释放到空间之中。

通过一根连接线,手机、平板或电脑的内容可以被投射成一块巨大的虚拟屏幕。双目4K的显示与52°的视场角,使这种“随身巨幕”不再是概念,而成为一种可以长时间使用的现实体验。在飞机上,它可以替代传统小屏,提供沉浸式观影体验;在咖啡馆,它可以成为一个不受空间限制的办公屏幕;在户外,它甚至可以作为无人机飞控的第一视角界面。

与AI眼镜不同,AR S8并不强调“无感”,而是强调“沉浸”。它不是隐藏技术,而是放大体验。

这两种路径,看似不同,却指向同一个方向:让数字信息脱离设备本身,回到人的视野之中。这正是智能眼镜行业正在发生的根本转变——从“谁能先做出来”迅速转向“谁能把产品、渠道、制造和资本化真正跑通”。

两个入口,一套更完整的未来

单独来看,这两款产品已经各自成立;但真正值得关注的,是它们组合在一起之后的意义。曜目G2负责轻量、持续的AI交互,AR S8负责沉浸、扩展的视觉体验。一个更像“思考系统”,一个更像“呈现系统”。

当两者形成联动时,一个完整的闭环开始出现:信息获取、理解、呈现与再次交互,不再依赖手机这一中介,而是在“第一视角”中完成。这也意味着,AI开始从“被使用”,走向“伴随存在”。

值得注意的是,MOVA并非最早进入这条赛道的玩家。根据市场数据,2025年全球AI眼镜出货量达到870万台,同比大幅增长322%,其中中国大陆市场出货量接近100万台,成为仅次于美国的全球第二大市场。仅2026年一季度,就有极米、雷鸟创新、Rokid、玄景等厂商密集发布新品,而Meta、谷歌、苹果、三星、华为、字节跳动等海内外巨头的年内产品路线图也逐一浮出水面。在这个已然拥挤的赛道上,MOVA选择了一条独特的路径。

一个不从眼镜起家的玩家,为什么更有机会?

在AI眼镜这条赛道上,MOVA并不是最早进入的玩家,但它的路径却颇为特别。公司的技术起点并不在可穿戴设备,而是在智能清洁领域。看似无关的两条赛道,背后却共享同一套核心能力:如何通过传感器理解环境,如何通过算法做出判断,以及如何在有限能耗下长期稳定运行。

这些能力,在扫地机器人中已经被反复验证。当它们被迁移到眼镜上时,带来的并不是“新技术”,而是更可靠的落地路径。与此同时,团队在消费电子领域的积累,也让产品在结构设计、重量控制与量产能力上更接近成熟消费品,而非实验性设备。

在一个仍处行业早期的领域,“能做出来”和“能做好并规模化”,是两件完全不同的事情。行业的竞争逻辑正在发生根本性转变:过去比拼的是供应链整合能力;而现在,当硬件公版方案高度趋同,真正的壁垒开始向软件和AI等技术能力迁移。据行业数据显示,中国厂商凭借完整的产业链优势,已占据全球AI眼镜市场超过80%的份额。

从产品到入口:更大的想象空间

如果只把这两款眼镜看作硬件产品,或许仍然低估了它们的意义。在MOVA的规划中,它们更像是一个更大系统的入口。未来,当AI陪伴设备、智能家居、健康终端逐步接入同一体系时,眼镜将成为最自然的控制与交互方式:你不再需要寻找设备,也不需要学习复杂的操作逻辑,只需要说一句话,或者看一眼。技术在后台完成连接,而人只保留最直觉的行为。

这或许才是“智慧生活”真正的形态——不是更多设备,而是更少感知到设备的存在。

而更深层的趋势在于,智能可穿戴设备正从“数据记录器”向“智能健康管家”演进。后疫情时代,国民健康观念发生深刻转变,从“治已病”向“治未病”加速迁移。慢性病年轻化趋势明显,催生了对实时健康监测的刚性需求。消费者愿意为健康管理付费的意愿显著增强,智能可穿戴设备从时尚潮品转变为日常健康刚需。当AI眼镜开始承载健康监测功能,它的价值将远超“信息提示”本身。

从价格来看,MOVA显然希望尽快进入主流市场,而不是停留在极客人群。约599美元的定价,使产品处于一个“可尝试”的区间,而非遥不可及的未来科技。选择北美与欧洲作为首发市场,也表明其目标并不仅仅是技术验证,而是直接参与全球竞争。

IDC预测,受益于厂商新品发布节奏和新国补政策的双重推动,2026年中国智能眼镜市场出货量将达451万台,同比增长78%;全球出货量则有望突破2300万台,其中AI眼镜品类将首次突破千万台大关。

当然,AI眼镜与AR眼镜仍然处在行业早期。形态、交互、生态,仍有大量不确定性。谁先突破性能、续航与重量的不可能三角,谁就可能率先定义眼镜版的“iPhone时刻”。但可以确定的是,一个趋势已经发生:AI正在从“口袋里的能力”,变成“眼前的能力”。

把尾货卖到50亿,好特卖靠AI算法,拿捏情绪经济


作者丨卜松

编辑丨刘恒涛

图源丨好特卖

在零售行业,好特卖有些另类。

很多渠道都在精简SKU,最多也就几千个,好特卖的货品不固定,并且品类庞杂,每年会有大几万个SKU。

一些零食量贩店开在街边,好特卖却聚焦在商场开店;零食量贩品牌主要开在下沉市场,好特卖只在新一线、一线城市开店;零食量贩品牌追求厂家直供、定制化产品,甚至开发自有品牌,在供应链端,努力追求低价和货源稳定,好特卖却坚定做尾货,渠道错配、品牌推新失利、包装更替、季节性库存,这些“不确定性”的商品,是好特卖的货源基础。甚至好特卖的店铺数都没有那么大,某零食量贩品牌,店铺数量达到2.2万家,好特卖目前只有1000家左右。

但是,从2020年开始的好特卖,2025年的销售额超过50亿,找到了属于自己的市场。

在这条不一样的赛道,好特卖是如何做到的?

近期,在好特卖上海总部,联合创始人张宁向创业邦讲述了好特卖背后的逻辑。

01不是刚需卖场,是消费者的情绪场

好特卖不是一个刚需场,是一个百分百的情绪场。这是张宁对好特卖的定位。

张宁说,来好特卖的顾客,大多没有目的性。他透露,好特卖和复旦大学人类学团队做过一个研究,发现消费者去好特卖的时候常常不做任何计划,没有购物清单,“纯粹是逛逛”。

“不论开心不开心都可以去,吃个冰激凌就很开心,买个盲盒就很开心。”张宁说,“我认为好特卖就是消费者花小钱去寻宝、寻找惊喜的一个地方。”

好特卖只开在一线和新一线城市,聚焦在商场开店,而不是像很多量贩零食品牌那样,开在街边。这背后也有一套逻辑。

张宁说,好特卖也试过在三四线城市开店,但是发现这些城市的商场人流量不好。这背后有几个原因:

第一,三四线城市缺少白领客群,主要是小老板、公务员和学生,而好特卖主要服务白领。“研究很多三四五线的Shopping Mall,你会发现,它上面是没有办公楼的。”张宁说。

第二个原因,是这些城市大多没有地铁。“地铁是一个人流走向的核心,有地铁的地方,街边店人很少,因为大家不去街边,直接地铁走了。三四线城市街边店烟火气很好,但是商场到8点半以后,几乎空无一人。”而好特卖主要在商场开店。

满足情绪体验,是好特卖的一个重要定位。在好特卖的货架上,有各种新奇的产品,周黑鸭味的彩虹糖、六神味的炫迈口香糖、白象香菜面、星巴克生咖等等。

“在其他的传统渠道,消费者看到这种稀奇古怪东西,因为缺少尝新的氛围,他很可能是不会买的,这东西万一不好吃呢?但是在好特卖,反正主流口味大概率也没有,那还不如试试。”张宁说,“我觉得我们给消费者营造的,是每次来,想买的东西不一定有,但最后也不会空手离开的感觉。”

很多人认为,好特卖卖的是农夫山泉、可口可乐这些大品牌核心SKU的临期产品,但事实恰恰相反。这类成熟产品的生产计划非常精准,分销网络高度成熟,很少规模性出现尾货。好特卖的货架上,往往是品牌的创新产品,这才是好特卖的主力商品。

目前好特卖在全国已有近1000家门店

在中国快消品行业,每一次推新,都有失败的风险。张宁展示了一组内部数据:一个典型的成熟快消品品牌,每年推新的成功率往往不足10%。这意味着,市面上看到的大多数新品,都将因为市场反应不佳而退出。

“因为一个新品能够成功,涉及到的环节非常多。成熟公司做一个新品,是很严格的,这个品完全不好的概率其实不高。但是能卖好的概率却非常低。”张宁说。

一个新品要走向消费者,中间有很多环节,首先是在第一批投放的市场,品牌方和销售之间的配合。“品牌方想推新品,经销商买不买账?渠道会不会让你付条码费?如果一开始投入不够,新品连上货架的资格都没有,就已经变成尾货。”

这些新品的尾货,就是好特卖的上游商品来源。这也解释了为什么好特卖的货架上,总是有各种稀奇古怪的商品。


虽然卖的是临期产品、尾货产品,但张宁认为,好特卖也并不是消费降级。

“根据尼尔森IQ统计的线下渠道数据,即使是在重点城市,消费者100块钱的销售额里,95块钱是牙膏,5块钱是漱口水。好特卖75块是牙膏,25块钱漱口水。漱口水不管卖什么价格,都是一个消费升级的类目。”张宁说,年轻人在好特卖完成了付少量的钱就能享受到他认为更好品质或更丰富体验的生活,“这其实不是消费降级,是消费升级。”

02每年大几万个SKU,靠的全是AI算法

根据张宁介绍,好特卖每年卖大几万个条码的商品。这和很多零售店恰恰相反。根据公开数字,鸣鸣很忙2025年9月份的在库SKU为3997个,山姆店单店SKU约4000个,一般商超的SKU,大概也只有2-3万个。

聚焦刚需产品、精简SKU是当下很多渠道的共识。好特卖却有大几万个SKU,并且货源极不稳定,如何进货、定价、分配,是一项极高的挑战。

“我觉得好特卖的优势在于算法,如果未来能赢,就是赢在我们的柔性决策链上。”张宁说,任何上游供应链的商品过来,好特卖很快就能够把采购量和定价反馈给品牌商。“我认为,这是好特卖最核心的竞争力,其他都是辅助。”

张宁说,2020 年好特卖一出来就很火,第二年市场上出现300 多个竞争对手,几年过去,很多竞争对手都看不见了,原因就是上规模了以后,很多竞争对手没有投入算法。

好特卖的AI算法,主要用在两个核心点:

第一,判断品牌商的货能不能要,以什么样的价格,能要多少。AI通过预测计算货品可销售价格,结合消费者的大数据,来倒推报价。

好特卖每天要面临各种供应商寄来的各种各样的品,有时候一个货单上就几百个品。尾货又有很大的效期压力。而且很多货从来没有卖过,没有任何一个买手能马上报出价格。张宁说,好特卖也希望帮品牌商解决问题,尽快把进货量和价格报给对方,基于这样的需求,好特卖才开发了AI。

第二,就是负责货物的分配。因为货的量不固定,最常规的量是几百箱,最少有几十箱,最大的能到十几万箱。这些货在哪些区域、哪些门店好卖?该如何分到好特卖的一千家门店?也是一门大学问。

好特卖的商品都很新奇

好特卖每年要卖大几万个条码,很早就建了会员系统,所有的购买行为形成了消费者的画像。哪里的消费者爱喝带气饮料,哪里的消费者爱喝养生茶,都有据可查。AI算法可以迅速匹配到最快能够动销的门店。

在好特卖,AI算法还是店长的辅助。

传统零售商以店长选货为主,店长会根据之前的动销经验买入货物,但前提是他每天换品概率没那么高。在好特卖,经常是每次都是新品,从来没卖过,而且每周要换 20% 以上的品,店长无法用经验判断。

“AI算法也无形当中变成了我们的竞争门槛。”张宁说,“当竞争对手只有十几二十家店的时候,是能够跟我们比一比的,但开到一两百家门店的时候,他就没办法了。因为每天上的品太多,店长没办法凭经验做决策。”

张宁说,这些都是好特卖一路踩坑学习过来的。“但好特卖不太会踩大坑,因为我们大部分的货量,每家门店最多配两箱,所以我们可能会快速地犯一些小错,用这些小错不断去喂数据。”

消费行业市场瞬息万变,曾经卖的很好的单品,很可能第二年完全卖不动。比如奶酪棒,2024 年是好特卖的明星品,但2025 年动销明显下滑。张宁说,好特卖的AI 无法提前预知,但可以快速反应。

“第一批 500 箱货下去两周,数据就已经成熟了,对比之前的动销数据,AI马上修正算法,发出预警,买手也会马上拿到信息,调整进货。”张宁说,“很多新的渠道,投新品,可能需要个半年,给不出一个完整的反馈数据,我们两周就有了。你也可以理解为好特卖是一个柔性货架。”

算法同样介入了最敏感的选址与加盟决策。在好特卖内部,有一套成熟的ROI(投资回报率)预测模型。当一个加盟商看中了一个铺位,后台会迅速调用该区域的历史流量数据、预估进店率,并结合该城市的平均客单价,直接算出预估收入。

好特卖整合了很多了解市场的专业加盟商。但是,和零食量贩、茶饮品牌不同,好特卖整合的是专业的选址加盟商,而不是经营加盟商。

“因为开一家店,除了钱以外,有另外两个能力,一个是选址能力,一个是经营能力。我们要的是选址能力。”张宁说,好特卖的加盟商,平均都是开 10 家店以上,基本没有小加盟商。

选址加盟商有丰富的经验,好特卖AI算法也会对选址加盟商赋能。选好址,经营由好特卖来“负责”。好特卖有一个严格的规定:店长不能听加盟商的。加盟店的货是 AI 配的,店长负责货品陈列、收银和社群维护。

“这就是分工,你就选好址,好特卖就帮你把消费者服务好,我们不允许加盟商干扰店长。”

03做秃鹫,也做创新推动者

张宁喜欢把好特卖比作自然界的秃鹫。

“好特卖有一个很强的观点叫生态观,我们不去做掠夺者和竞争者,我们希望好特卖成为整个生态良性循环的关键节点。就像秃鹫,它把腐肉或者把骨头都吃掉,其实是解决整个草原的生态环境。”张宁说,“消费者知道,因为好特卖的是尾货,所以以折扣价卖掉,这叫有理由破价。而且好特卖单条码不会长期卖,尾货卖完就没有了。”

张宁认为,在整个生态中,好特卖变成了品牌管理全域价盘的解压阀。“你可以去全域去管理你的价盘,但是你不能硬管。你要把核心的因素找到,然后通过好特卖把这个核心因素给消化掉。”

在好特卖,目前超过九成的货,都是品牌方给的,有一部分是经销商供货,但也都是品牌方认可认同的。

“我们卖的这个价格,品牌方如果不点头,经销商也不能供给我们。”张宁说,过去几年,好特卖做的最大的一个事情,就是让各个品牌把好特卖从他们传统渠道的抽屉里拿出来,“我们就不是他们传统管理的那个渠道。”

好特卖有专门给品牌方的数据看板。

“有些大的国际零售商,他会有数据看板,但主要是让品牌方管理在店库存。我们给品牌方看的,是我们卖力的数据。比如好特卖同时在售的有哪几个品,过去这一年在卖的几十个品,消费者反馈怎么样。我们这个逻辑,是把我们的数据能力赋能给品牌,他可以在他的销售和市场的决策上面引用我们数据。”

张宁说,近些年,零售业态发生了巨大的变化,新品测试已经没有了以往的场景。

“以前大卖场人流很大,新品有专门的促销员,请顾客试喝、试吃、试饮,可以进行低成本的试错,但是现在无论线上货架还是线下货架,都变少了,整个逻辑对新品推出很不利。整个快消品行业的新品,尤其单价10块钱以内的新品,跟消费者亲密接触遇见的机会非常非常小,因此,使得大量的新品滞销。”张宁说。

根据凯度的数据,过去三年,平均每一年上市的新品超过30万,一年以后,仍然存活的比例,从2022年的31%已经跌到了2024年的22%。新品推出的成功率在变低。


而好特卖做的,就是给新品的托底的工作,“你外面卖的不好了。没事,我们最后来托底,帮你把成本多少拿回来一点。”

张宁认为,尾货的生意要扩大,扩类目是一条绕不开的路。

“我们发现只要有情绪类的产品,或者有大尾货商机的类目,我们都可以做。比方说像日化品。”张宁说,日化、盲盒、宠物,好特卖都在做,也在看服装,包括二手奢侈品。

张宁透露,目前的好特卖整体已经盈利。同时,好特卖也试图把食品饮料的经验,复制到服装领域,开始开大店。因为好特卖的客群,78%在40岁以下,也是高频买服装的客群。

好特卖的小店,一般是200平米左右,大店面积5000-10000平,一般会开在腰部商场,进行服装等品类的销售。张宁说,好特卖的大店,目前主要开在华北地区,目前,公司在北京、南京都已经开了大店。据公开报道,2025年7月开始营业的北京大店,分上下两层,销售服装、箱包、鞋类,还有酒水、饮品、酸奶、冰激凌等,以及美妆、奢侈品、运动服饰、日用品。

好特卖门店

张宁说,好特卖还想做一点为品牌赋能的功能。利用好特卖的消费数据,让品牌把未上市或即将上市的新品,在好特卖的货架上做测试。

“要推动行业的创新,目前看来渠道还是必须要参与的。”张宁说,在他的理想规划里,是好特卖变成新品的孵化器。

2025年,好特卖和全国糖酒会合作,一起发起了ideas创新产品大赛,今年进入第二届。

“我们今年的口号是:让新品成为爆品,通过我们过往的一些 AI 数据,做初步的选择,拉了很多渠道方一起来做评委,去做选品,希望能够在我们获奖的产品中最终能走出几个爆品。”

“行业一定要通过创新和效率这两条腿去推进,如果只做效率,没有做创新,这个行业往往会越卷越死。”张宁说。

本文为创业邦原创,未经授权不得转载,否则创业邦将保留向其追究法律责任的权利。如需转载或有任何疑问,请联系editor@cyzone.cn。

昆仑万维携AIGC全家桶亮相2026中关村论坛,三大世界第一梯队模型正式发布

3月25日,2026中关村论坛年会如期而至。来自100多个国家和地区的上千名嘉宾汇聚百余场论坛,共话“科技创新与产业创新深度融合”发展之道。

作为中国AI领域领军企业与2026中关村论坛会员单位,昆仑万维携手中关村论坛,共同构建多元协同的科技交流生态圈,以AI技术创新赋能产业升级,助力北京打造全球人工智能创新高地。

3月27日下午,昆仑万维集团(300418)旗下天工AI成功举办“世界模型前沿技术与天工AIGC全家桶大模型生态”专场发布会,携Matrix-Game 3.0、SkyReels V4、Mureka V9三大核心模型惊艳亮相,正式宣告三大模型均跻身世界第一梯队;同时发布昆仑万维2026 AGI战略,目标是通过打造AI经济平台,赋予每一个创作者匹敌一家公司的全栈生产力。

北京市经济和信息化局党组书记、局长姜广智,中共北京市东城区委副书记、区长陈献森,北京市东城区人民政府党组成员、副区长邓慧敏,北京市经济和信息化局二级巡视员张宇航,国家发改委宣传中心战略规划处负责人聂正标等嘉宾出席本次论坛。

会议伊始,北京市东城区人民政府党组成员、副区长邓慧敏出席并致辞。她充分肯定了昆仑万维近年来在人工智能领域取得的突出成就,并表示“十五五”期间,东城将大力发展动漫影视、数字演绎、艺人经纪、游戏电竞等新型赛道,做大做强数字文娱产业,以科技创新赋能产业升级,加快实现资源数字化、场景沉浸化、产业数智化发展,积极打造文化、科技创新融合的高地。未来,东城区将持续优化营商环境,积极搭建协同创新平台,助力构建开放共享、互利共赢的人工智能产业生态。

随后,北京市经济和信息化局二级巡视员张宇航发表致辞。他表示,昆仑万维作为扎根北京、辐射全国、走向世界的优秀科技企业,为人工智能的产业发展注入新的活力。同时,北京市经济和信息化局也将聚焦大模型的关键技术,以文娱、文旅、教育等场景为牵引,加速AI在游戏创作、数字文娱等领域的融合应用。未来也希望更多创新成果在北京转化,更多的优秀企业在北京成长,彼此凝聚共识、深化合作,共同开创AI生态创新发展的新局面,为我国的数字经济高质量发展做出更大的贡献。

两位领导的致辞充分彰显了北京市及东城区政府部门对人工智能产业发展的高度重视、对昆仑万维在人工智能领域取得成绩的认可,也为本次论坛奠定了开放、共创、共赢的基调。

紧接着,天工AI董事长兼CEO周亚辉发表题为《2026昆仑万维AGI战略发布:从全模态突破到AI平台经济》的重磅演讲,全面阐释昆仑万维面向2026年的人工智能战略布局,深度拆解从全模态技术突破到AI平台经济生态构建的整体路径。

周亚辉正式发布昆仑万维2026年的AGI战略升级为“3+1”生态架构——以4个SOTA大模型为底座,支撑3大AI原生平台+1个超级智能体。

其中,DramaWave、Mureka和猫森学园三个大平台的底层逻辑是用SOTA AIGC大模型×内容生产×内容分发,做到端到端的闭环;另外的“1”——Skywork Super Agents,则是背后通用的操作系统,我们把它定义为面向全球所有内容创作者的操作系统,从长远来看,未来可能是五亿内容创作者规模的一人公司的操作系统。

展望未来,周亚辉表示,2028年是平台经济年,昆仑万维有望成长为一个AI native的平台经济体。四大SOTA模型、一个超级智能体操作系统和三大平台经济体,归根到底只是为了实现一个目标——让每一个创作者,都拥有匹配一家公司的全栈AI生产力,在确定的AGI时代与千万超级个体共建繁荣。

其后,昆仑万维首席科学家、香港中文大学教授成宇带来题为《构建物理仿真驱动下的实时交互世界:天工世界模型与AIGC全家桶发布》的模型发布演讲,发布 Matrix-Game 3.0游戏大模型、SkyReels V4视频大模型、Mureka V9音乐大模型,这三大模型的迭代升级,将推动游戏、视频、音乐领域实现从技术突破到产业落地的跨越式发展。

首先,昆仑万维正式发布Matrix-Game 3.0模型:物理仿真驱动下的实时交互式世界模型创新实践。从 2.0到3.0模型,我们完成了一次关键跃迁:从“可运行的交互Demo”,走向“具备稳定性与工业级性能的世界模型系统”。

过去一年,我们看到一个非常清晰的趋势:AI已经从“理解世界”走向“生成世界”。世界模型正在推动AI从“静态内容生成”走向“动态世界建模”,并成为连接感知、决策与生成的核心基础能力。在此背景下,构建物理仿真驱动下的实时交互世界是世界模型的核心内容。

今天,昆仑万维正式发布的Matrix-Game 3.0模型,在数据、模型和推理三个层面完成了一次全新技术升级。首先是数据层面——数据决定下限。我们基于 Unreal Engine 构建了大规模数据引擎,能够自动生成带有精确动作、相机位姿以及物理一致性的高质量交互数据,目前已经覆盖1000+场景,对于这些数据我们按照5s时序间隔给所有数据生成了局部描述和全局描述。这些数据为世界模型学习真实的“动作—环境变化”关系提供了基础。

第二是模型层面——模型决定能力。我们设计了带有Memory机制的DiT架构,使模型不仅能够生成当前帧,还可以持续维护历史信息,从而解决长时序生成中的一致性问题,实现分钟级的稳定生成与记忆能力。

第三是推理层面——推理决定落地。通过一系列推理加速优化,包括少步采样、并行生成以及缓存机制(KV Cache)和decoder蒸馏等过程,我们实现了高效的实时推理能力。最终在5B模型规模下,实现720P分辨率、最高40FPS的实时生成。

整体来看,Matrix-Game 3.0 的核心在于:通过“数据—模型—推理”的协同优化,首次将开源世界模型推向了带有记忆能力的长时序一致性 + 高质量 + 实时交互的统一框架。

接着,昆仑万维发布SkyReels V4模型:下一代视听创作的全新范式。

当前,AI视频不仅仅是一个工具,它正在重构整个视听创作的逻辑,成为下一代产业的核心基础设施。“好的AI视频生成”对于普通用户来说,它意味着自由表达和可控可改;对于产业创作者,它意味着更低的门槛、更高的效率和更多的可能性。

SkyReels V4通过四大技术突破——音画一体双流联合生成架构、全模态理解和精准控制、全模态强化学习体系和攻克电影级画质与高效生成的平衡难题,分别解决了音画同步、精准控制、一站式编辑和高效生成等行业痛点,将AI视频生成的普惠生产力和解决方案切实地赋予内容创作者和行业。

SkyReels V4模型实力也得到了全球权威榜单的认可。在Artificial Analysis Arena的排名中(截至2026年3月18日评测结果),SkyReels V4在多个核心赛道均名列前茅——在Text to Video (With Audio) 赛道和Image to Video (With Audio) 赛道,均位列全球第一;在Text to Video (No Audio) 赛道,位列全球第二。

此外,SkyReels V4同步推出了全场景开放API与行业解决方案,能够将SkyReels V4的强大能力开放给所有合作伙伴,共同推动视听产业的智能化升级。未来,SkyReels V4致力于成为AI视听时代的技术灯塔,用技术打破创作的边界,赋能每一个创作者。

最后,Mureka V9音乐大模型正式发布。Mureka V9是一次更可控、更懂表达的创作升级。团队将重点进一步推进到“音乐创作意图的可控表达”上:不仅生成得更快、更清晰,也开始更准确地理解创作者在歌词段落中的具体表达诉求。

Mureka V9在段落内文本控制、生成效率、混音质量与整体听感等多个关键维度持续进化,使AI音乐从“能够生成一首歌”,进一步迈向“能够更稳定地按创作意图完成一首歌”:

段落内文本控制能力增强,生成更精准混音与音质表现继续提升,成品感更强

人声表达更符合创作意图,能恰到好处

生成效率进一步提升,创作反馈更及时

生成结果更丰富,重复感进一步缓解

Mureka V9依然建立在 MusiCoT(Music Chain-of-Thought) 技术体系的持续演进之上,进一步强化了模型对音乐结构、歌词段落、表达意图与声音呈现之间关系的协同建模,使模型不再只是依据提示词“生成一段声音”,而是能以更接近真实创作逻辑的方式,理解“这一段该唱什么、怎么唱、为什么要这样推进”。

可以理解为,MusiCoT在Mureka V9中进一步融合了对歌词段落设计、语义重心与音乐组织方式的细粒度思考,让模型在旋律推进、段落表达、音色安排与整体完成度之间建立更稳定的内在一致性。

如果说传统音乐时代的平台,连接的是歌曲、歌手和听众;那么AI音乐时代的平台,连接的将是所有人的意图、生成、编辑、二创、分发和表达。Mureka想推动的,是AI音乐从生成工具走向创作系统,从单次输出走向版本化工作流,从做一首歌走向持续共创,从功能集合走向平台能力。我们希望把音乐从少数人的专业技能,变成更多人的表达语言。

[1080p.mp4]

从Matrix-Game 3.0实现 “场景 Demo” 到 “真实可玩” 的跨越,到SkyReels V4登顶全球AI视频大模型榜首,再到Mureka V9推动AI音乐向高质感、强情感升级,每一项突破都令人振奋,每一个成果都彰显着中国AIGC技术的全球竞争力。

本次论坛尾声,举行了题为《全模态内容革命:AI游戏、AI视频、AI音乐的创新、落地与生态共建》的圆桌讨论。由量子位创始人孟鸿主持,昆仑万维董事长兼CEO方汉,南洋理工大学副教授刘子纬(线上参与),北京深空交响有限公司创始人、QQ炫舞创始人姚勇,腾讯专家研究员、混元3D负责人郭春超,电子音乐人、多领域创作者朱婧汐,以及青年导演、梦见城(北京)科技文化有限公司创始人周楠共同参与讨论。

多元视角的碰撞,将为游戏、视频、音乐三大AI创新赛道带来深度思考与行业共鸣。

南洋理工大学副教授刘子纬就AI内容生成的学术前沿与工程落地进行了深入解析。他将持续关注全模态的创作模型,包括本次昆仑万维展示的大模型系列,期待它们在各个领域都能涌现出“神之一手”,类似于当时AlphaGo和李世石下棋,能够出现让人类很震惊、有创造力那一步,会非常期待在未来一到两年内,无论是在音乐还是影视上,AI模型会涌现出“神之一手”的创造力。

北京深空交响有限公司创始人、QQ炫舞创始人姚勇从游戏领域分享了AIGC实际落地的宝贵经验。他谈及,做游戏要解决三块,首先是一定要新鲜,之前的人没有做过,第二个是视觉上一定要好看,第三块是好玩,这三块都特别费钱和时间。AI能够快速应对“好看”这个问题,并且擅长解决“新鲜”的问题。

AI能够在同样的场景变出不同新鲜的东西来,对于用户而言感受非常明显。好玩从另一个角度讲,需要长时间打磨玩法。在打磨的过程中,70%-80%的时间都消耗在搭建系统能让它运行起来,这部分AI又能够起到很大的支持作用,能够让更多的创意实现。因此从这三部分来讲,AI起到的辅助作用和带来的改变都非常明显。

腾讯专家研究员、混元3D负责人郭春超谈及3D生成技术和未来发展时,他表示,世界模型不只涉及游戏,还有自动驾驶领域、具身机器人领域也有世界模型,每个方向聚焦和解决的问题不一样,导致世界模型可能大家对它的理解众说纷纭。世界模型的用武之地已经在逐步地被验证,一部分接近商用的模型已经出现。世界模型虽尚未成熟,但目前已经阶段性地找到了能够局部落地的场景,相信给这个领域一些时间,再结合上多模态技术和大语言模型技术的发展,一定会展现出越来越强的能力。

展望未来,郭春超表示,从技术角度主要关注两个点,第一是各种AI生成模型和人类意图的对齐,能不能做到真正的人类意图的可控,也就是言出法随。无论是AI 3D还是其他模态,如果真正能做到说它生成的结果和人类意图的高度对齐,那时候生成模型的可用性就非常大。第二是Agent系统,如果Agent系统的可用性、执行任务的成功率以及成本等方面能够持续优化,它必将深刻改变我们办公和生活的方方面面。

电子音乐人、多领域创作者朱婧汐以创作者视角诠释了AI赋能音乐创作的无限可能。她表示,从技术层面来讲,AI音乐创作的技术发展非常迅速,对于普通的用户来说,这是一个非常好的事情。让更多人能够不借助任何其他的能力或者是别人,使用音乐表达我自己,这个事情非常有价值。

另一个层面,从职业音乐人的身份来讲,朱婧汐认为在AI进入音乐行业以后,势必会替代很多高同质化、高模板化的音乐甚至是功能性音乐。作为一个音乐人需要更多去关注“如何创作”,因为创作不是生成这么简单,创作包含了情感、表达、选择,他的审美,甚至包含了挣扎。

对于朱婧汐来说,在使用AI音乐模型的时候,她的方式可能会让AI音乐模型帮助生成很多的可能性。她描述与AI的模式或者是关系时说道,“更像是AI可以帮我同时打开很多扇窗,我站在原地就可以看到不同窗外的风景。我选择哪个风景描绘,把它变成一幅画展现给我的听众听,这是我自己才能做决策的事情。”

青年导演、梦见城(北京)科技文化有限公司创始人周楠则从影视内容创作角度,探讨了AI技术和视频生成工具对导演和创作流程的积极影响。周楠认为,影视就是由艺术和技术这一对似乎不搭界的父母共同生下的一个孩子。电影这门艺术如果没有电力的发明,没有照相术的发明,没有留声机的发明,没有数字技术的发明和崭新传播技术的发明,它不会如此辉煌,甚至可能根本不存在。

电影一直是拥抱技术的,在AI时代,我们会看到一个现象:很多人用一台电脑,动动手指,就能创造出以前上百人协作才能做到的惊人的影像,这对每个人来说是非常兴奋的。AIGC技术对于普罗大众来说最大的价值,是它把行业里面中层偏下那些廉价的缺乏原创性的作品的位置,让给了我们每个人——用独特的创意去创造最新鲜、最有趣、最丰富、最与众不同的内容,而且可以被无限分享和迅速迭代,这AIGC技术为这个行业带来最大挑战和价值。

昆仑万维董事长兼CEO方汉最后总结道,整个内容生态是一个金字塔,为什么视频是全世界最容易被理解的,因为不识字的人能够看视频,但是读不懂小说。人长了眼睛、鼻子、耳朵,多模态就是满足人类所有对内容的需求。无论是音乐、视频、游戏,都是供给全人类的视听娱乐,AIGC技术要让世界更加快乐。

方汉认为,全模态的价值是让整个内容行业都能够受益于创作门槛的降低、成本的降低,让更多的创作者加入进来。他表示,希望全球将来不是有60亿观众,而是可能有10亿创作者每天用昆仑万维的视频模型、音乐模型、游戏模型,给70亿人创作内容,我们相信这个局面一定会到来。

2026年,人工智能正以前所未有的速度重塑世界。昆仑万维以“实现通用人工智能,让每个人更好地塑造和表达自我”为使命,致力于推动多模态技术突破与商业化落地,用AI重构工作与创作方式。本次昆仑万维在2026中关村论坛的亮相与模型发布,既是向行业展示中国AI企业的技术自信,也是向全球伙伴发出生态共建的开放邀约。

我们始终坚信,AI技术的真正价值在于与产业的深度融合,在于与开发者、创作者、合作伙伴的携手共创。从音乐、视频、游戏等全模态内容到AI平台经济,昆仑万维以开放的姿态邀请各方共建AI时代的内容新生态,推动中国AIGC技术与产业走向世界。



Claude Code + OpenSpec 正在加速 AICoding 落地:从模型博弈到工程化的范式转移|得物技术

一、破局:AI 编码的真正瓶颈不是模型,是上下文管理

在软件开发的历史进程中,每一次效率的飞跃都伴随着抽象层次的提升。从汇编语言到高级语言,从手动内存管理到垃圾回收,开发者始终在寻求降低认知负荷的方法。进入 2026 年,生成式人工智能(GenAI)已成为编程领域不可或缺的力量。 然而,行业正经历从 “模型崇拜” 向 “工程落地” 的深刻转型,单纯依靠增加大语言模型(LLM)的参数规模已无法解决复杂业务逻辑中的幻觉与失控问题。

当前的共识是,AI 编码(AICoding)的真正瓶颈不在于模型的逻辑能力,而在于上下文管理(Context Management)的失效与开发意图(Intent)的模糊。

通过对 Anthropic 推出的 Claude Code(以下简称 CC)与 Fission AI 倡导的 OpenSpec 进行深度解构可以发现,两者正在通过 “代理化执行” 与 “规格化驱动” 双轮驱动,构建一套闭环的 AI 研发体系。这种结合不仅标志着 AI 编程工具从 IDE 插件向终端原生代理(Agentic Tool)的转变,更预示着 “规格驱动开发”(Spec-Driven Development, SDD)将成为企业级 AICoding 落地的核心范式。

在 AICoding 的早期阶段,开发者普遍认为只要模型足够强大,就能解决所有编程难题。然而,随着项目复杂度的增加,这种观点遭到了现实的挑战。研究表明,虽然 AI 编码助手的使用率在提升,但软件交付的稳定性却在下降。例如,Google 的 DORA 2024 报告指出,AI 采用率每增加 25%,交付稳定性反而下降 7.2%。

生产力悖论与认知负荷

AICoding 领域存在一个显著的 “生产力悖论”:开发者在使用 AI 时主观感知速度提升了 20%,但实际完成任务的时间却增加了 19%。这一现象的根源在于 AI 在处理长上下文时的效能衰减。随着任务推移,AI 往往会陷入修正循环(Fix/Test Loops),无法触及深层的业务功能,反而需要更多的人工干预。

模型的逻辑推理能力(Reasoning)在短小上下文中表现卓越,但在大型工程环境中,模型面临的是 “上下文中毒”(Context Poisoning)和 “注意力漂移”(Attention Drift)。当对话历史过长或包含过多无关代码时,模型的性能会呈现非线性下降。例如,GPT-4o 等先进模型在 1K Token 时的准确率为 99.3%,而当上下文扩展到 32K Token 时,准确率会暴跌至 69.7%。这种 “性能断崖” 意味着,单纯依靠扩大上下文窗口(Context Window)并不能解决问题。

上下文工程的兴起

上下文工程(Context Engineering)正在取代提示词工程(Prompt Engineering),成为 AICoding 的核心技术方案。上下文工程的核心不在于 “如何写更好的指令”,而在于 “如何为模型筛选最精准的 Token 集合”。

下表对比了传统缩放路径与上下文工程路径的局限性:

在大型组织中,上下文管理面临更严峻的挑战。很多关键决策并未记录在代码中,而是散落在飞书文档评论、群消息、会议或开发者的认知中。AI 代理在缺乏这些隐性知识(Implicit Knowledge)的情况下,生成的方案虽然符合语法,但却违背了架构初衷或业务约束。

上下文作为一等系统

现代 AI 代理架构开始将上下文视为一种具有自身架构、生命周期和约束的 “一等系统”。在这种视角下,上下文管理不再是临时的字符串拼接,而是一条精密的 “编译器管道”:

  • 存储与呈现分离: 区分持久化的会话状态(Session)与单次模型调用的工作上下文(Working Context)。
  • 显式转换: 通过命名的、有序的处理器(Processors)构建上下文,而非随机堆砌。
  • 默认作用域: 每个子代理仅能看到执行任务所需的最小上下文,通过工具(Tools)按需获取更多信息。

二、Claude Code:把 AI 变成真正懂你项目的编码伙伴

Claude Code (CC) 是 Anthropic 推出的原生代理工具,它直接运行在终端中,具备读取文件、运行命令、执行重构以及自主验证的能力。与传统的 IDE 插件相比,CC 的核心优势在于其“代理循环”(Agentic Loop)和对上下文协议的深度掌控。

代理循环:收集、行动与验证

CC 的工作流程被定义为一个闭环系统,旨在模仿人类工程师的思维过程:

  • Gather Context(收集上下文): CC 不会盲目读取整个目录,而是通过文件搜索、Git 状态检查以及读取特定的 CLAUDE.md 文件来建立认知。
  • Take Action(采取行动): 基于推理,CC 可以跨多个文件执行编辑,或者利用终端工具(如 npm install、git commit)操作环境。
  • Verify Results(验证结果): 这是 CC 最具杀伤力的特性。它能自动运行测试、捕捉错误,并根据反馈调整方案。研究表明,带有验证步骤的 Coding 生成过程,其成功率远高于单次生成。

终端原生的工程哲学

CC 选择了终端而非图形界面作为主场,这体现了其 “代理优先” 的设计哲学。CC 遵循 Unix 哲学,支持管道(Pipe)、脚本化和自动化集成。这种设计使得 CC 能够与现有的 CI/CD 流程完美衔接,例如在 GitHub Actions 中自动执行代码审计。Anthropic 最新推出的 Code Review 功能,就是通过 Claude Code 基于 PR 的方式进行 bug 的追踪。

下表详细对比了 CC 与行业领先的 AI 编辑器 Cursor 的差异:

MCP 与“即时上下文”

CC 深度整合了模型上下文协议(Model Context Protocol, MCP)。MCP 是一个开放标准,允许 AI 代理安全地访问外部数据源。

为了应对大规模工具定义导致的上下文溢出,CC 引入了 “工具搜索” 和 “代码执行” 模式。代理不再一次性加载成千上万个 API 定义,而是通过编写代码按需调用 MCP 服务。例如,在分析大型数据库时,CC 不会加载全量数据,而是编写针对性的查询语句,仅将结果摘要读入上下文。这种 “按需加载” 策略极大地提升了 Token 的效用。

CLAUDE.md 与自动记忆

CC 引入了 CLAUDE.md 文件作为项目的 “操作手册”。这是一个置于根目录的 Markdown 文件,用于存储项目特定的编码标准、架构决策和测试指令。与临时提示词不同,CLAUDE.md 提供了持久的、跨会话的约束。

此外,CC 具备 “自动记忆”(Auto Memory)功能。它会自动在 MEMORY.md 中记录项目的构建命令、调试心得和用户的偏好设置。每当新会话启动时,CC 会加载这些记忆的前 200 行,从而确保 AI 在长期协作中能够 “越用越懂你”。

三、OpenSpec:给 AI 编码加上"规格书",从失控到可沉淀

虽然 Claude Code 提供了强大的执行引擎,但在复杂业务中,AI 仍然可能因为意图不明而跑偏,最终导致交付的代码不符合预期。

OpenSpec 的出现为 AI 编码提供了 “规格说明书”,将 AICoding 从 “凭感觉写代码” 提升到了 “按规格执行任务” 的高度。

规格驱动开发 (SDD) 的兴起

OpenSpec 倡导的是一种 “规格驱动开发”(Spec-Driven Development)范式。其核心理念是:在写任何一行代码之前,先由人类与 AI 共同协商并锁定一份机器可读、人可评审的规格文档。

下表展示了 SDD 的三个演进阶段:

OpenSpec 的工件体系 (Artifacts)

OpenSpec 弃用了笨重的开发文档,转而采用一套轻量级的、面向 AI 优化的 Markdown 工件体系。每个变更(Change)都被组织在独立的文件夹中:

  • proposal.md: 描述变更的初衷(Why)和范围(What)。
  • specs/: 具体的逻辑规格,通常包含 “Scenario(场景)” 描述,通过具体的输入输出消除模糊性。
  • design.md: 技术设计方案,包括本次变更涉及的数据库变更、接口调整等。
  • tasks.md: 原子化的任务清单,作为 AI 的执行路径图。

解决上下文污染:提案、应用与归档

OpenSpec 最具洞察力的设计在于其生命周期管理。AI 在处理新任务时,最忌讳被旧任务的陈旧信息干扰。OpenSpec 的 “归档(Archive)” 机制解决了这一问题:

  • Proposal 阶段: 建立一个独立的变更上下文,让 AI 只关注当前变更。
  • Apply 阶段: AI 严格按照 tasks.md 执行,避免了盲目扫描全库导致的 Token 浪费。
  • Archive 阶段: 任务完成后,临时变更文档被移入归档,核心规格更新至主规格文件。这保证了 AI 始终在一个 “卫生” 的上下文环境下工作,同时也为项目留下了可追溯的决策链路。

四 、实战:CC + OpenSpec 如何落地真实业务

在实际的企业业务场景中,如何整合这两大工具?答案在于将 OpenSpec 的标准化指令集注入到 Claude Code 的会话环境中。

案例实战:复杂业务逻辑的重构

假设一个电商项目需要重构其优惠券结算逻辑。在传统的 AI 辅助下,AI 可能会在修改 CouponService.java 时遗漏分布式锁,或者破坏原有的满减叠加规则。采用 CC + OpenSpec 模式,流程如下:

第一步:提案初始化

执行 /opsx:propose "重构优惠券结算逻辑,引入 Redis 分布式锁并支持多卷叠加"。CC 会在 openspec/changes/refactor-coupon-logic/ 下生成整套骨架。AI 会通过分析现有代码,在 spec.md 中自动列出已知的结算场景。

第二步:规格对齐与边界确认

这时不用急着让 AI 写代码,而是需要先审阅 spec.md。如果发现 AI 没考虑 “优惠券过期临界点” 的并发问题,可以直接要求 AI 修改规格:“在 spec.md 中增加过期校验场景,并要求使用 Lua 脚本保证原子性”。

第三步:受控应用(Apply)

一旦规格通过人工评审,就可以执行 /opsx:apply 了。这时,CC 就变成了完美的执行机器。它不再 “猜” 开发者的意图,而是对照 tasks.md 逐项实施。每一项修改后,它都会运行相关的测试。如果测试失败,CC 会自动分析错误并重新修复,直到该项 Task 标为 “完成”。

第四步、归档与知识固化

任务结束后,执行 /opsx:archive。原本散落在会话记录中的重构逻辑,现在变成了 openspec/specs/coupon-settlement.md 中的标准规格。当下一次另一个 AI 代理(或新入职同事)需要修改此模块时,它只需读取这份规格,即可获得完整的业务语境。

工具链对比:为何选择 OpenSpec

在 SDD 工具链中,OpenSpec 展现出了极高的工程性价比:

OpenSpec 的优势在于它不试图改变开发者的工具偏好。无论是使用 Claude Code、Cursor 还是 Aider,都可以无缝接入 OpenSpec 的规格管理层。

五、沉淀:让 AI 编码能力在团队中持续积累

AICoding 落地的终极目标不是让个体开发者写得更快,而是提升整个团队的知识资产质量。AI 编码能力不应随对话窗口的关闭而消失,而应作为 “团队记忆” 沉淀下来。

从个人技能到组织技能

团队可以通过自定义 Skill 和 MCP Server 来固化组织资产。

  • Skill: 将公司特有的代码风格、安全审计清单,或者特定中间件的使用指南封装为 .claude/skills/。当团队成员使用 CC 时,AI 会自动加载这些技能,仿佛有一位资深架构师在时刻盯着每一行代码。
  • MCP Server: 连接企业内部的向量数据库(如基于 Zilliz 的语义搜索),让 AI 代理能够从数千万行历史代码中找到最佳实践。

建立 AICoding 效能飞轮

AICoding 的成功落地需要建立一套正向循环的 “飞轮”:

  • 规格积累: 每完成一个 PR,都强制更新对应的 OpenSpec 规格文件。
  • 指令进化:发现 AI 反复犯的错,就将其转化为 CLAUDE.md 中的负向约束(Prohibited rules)。
  • 并行执行: 利用 CC 的 Agent Teams 能力,让一个代理负责写规格,另一个代理负责审计代码,第三个代理负责集成测试。

角色转变:从 “码农” 到 “规格定义者”

在 CC + OpenSpec 模式下,软件工程师的角色正在发生质变。如果 AI 能够根据完美的描述生成任何代码,那么 “代码” 本身就变成了编译后的中间产物,而 “规格” 才是核心产品。领域专家(Domain Experts)的重要性显著提升,因为他们能提供最高质量的业务意图描述。这种趋势将迫使开发者从关注 “语法实现” 转向关注 “系统设计” 和 “逻辑严密性”。

六、结语:AICoding 落地的飞轮正在转动

在 2026 年,AICoding 已不再是科幻。Claude Code 提供的强大代理能力,配合 OpenSpec 提供的精密规格框架,为企业提供了一套可复制、可量化的研发新范式。

我们必须承认,AI 编码的瓶颈从来不是模型不够聪明,而是我们与 AI 之间的 “沟通带宽” 太低且 “上下文” 太脏。通过上下文工程化管理(CC)和意图标准化表达(OpenSpec),我们正在构建一套让 AI 能够长期、稳定产出的工程环境。

随着这一模式的普及,软件开发的门槛将进一步降低,而创新的上限将被无限拉高。AICoding 落地的飞轮已经转动,那些能够率先将 AI 编码能力转化为团队组织资产的企业,将在未来的数字化竞争中占据绝对的先机。毕竟,在 AI 时代,掌握了 “意图” 与 “上下文” 的人,才掌握了软件工程的未来。

参考文档:

  1. thenewstack.io/context-is-…
  2. github.blog/ai-and-ml/g…
  3. solguruz.com/blog/spec-d…
  4. medium.com/@eran.swear…
  5. www.anthropic.com/engineering…
  6. code.claude.com/docs/en/how…
  7. www.anthropic.com/engineering…
  8. code.claude.com/docs/en/bes…
  9. dev.to/webdevelope…

往期回顾

1.大禹平台:流批一体离线Dump平台的设计与应用|得物技术

2.基于 Cursor Agent 的流水线 AI CR 实践|得物技术

3.从IDE到Terminal:适合后端宝宝体质的Claude Code工作流|得物技术

4.AI编程能力边界探索:基于 Claude Code 的 Spec Coding 项目实战|得物技术

5.搜索 C++ 引擎回归能力建设:从自测到工程化准出|得物技术

文 /后羿

关注得物技术,每周更新技术干货

要是觉得文章对你有帮助的话,欢迎评论转发点赞~

未经得物技术许可严禁转载,否则依法追究法律责任。

技术自研到生态共鸣:慕思成为全屋智能“睡眠中枢”

当智能家居的竞争从单品参数转向生态协同,睡眠空间的未来形态正在被重新定义。

3月20日,慕思于国家游泳中心(水立方)举行智感生活「启慕式」——2026慕思智能新品发布会,重磅推出鸿蒙智选 慕思智能床Pro H-DESIGN新品。该款产品以自研技术潮汐算法为根基,深度融合华为鸿蒙万物互联能力,完成从“单品智能”到“全场景生态”的战略跃迁。

鸿蒙智选 慕思智能床Pro H-DESIGN发布

从“智能单品”到“生态中枢”的范式跃迁

当前,多数智能家居仍停留在“单机智能”阶段,灯光、空调、窗帘、床垫各自运行,用户需要在多个软件之间切换,无法实现技术协同与效能最大化,尤其在睡眠领域,单一智能床品只能实现基础调节,无法调整多因素共存的整体睡眠环境。

但在行业中已经出现以智能床为智慧卧室“生态中枢”的实践。智慧睡眠正在从概念认知走向体验深化阶段,睡眠系统中枢能够实现人体实时睡眠数据的采集,以及全屋空调、灯光、音乐的联动。慕思智能床就是其中的代表。过去二十余年,慕思始终聚焦用户睡眠健康需求,坚持研发创新,从全球供应链整合到搭建工业4.0生产体系,为产品力的稳定提升构筑起“智造”基本盘,形成“技术研发-生态协同-服务落地”的完整体系。

自2022年开始与华为鸿蒙开展合作以来,慕思成为其在智能睡眠领域唯一的深度合作伙伴,双方以“智慧的空间,懂你的床”为战略持续推进,精心打磨出一套全时段全空间的智慧睡眠解决方案。本次发布的新品鸿蒙智选 慕思智能床Pro H-DESIGN,正是这一合作的深化成果,具备原生鸿蒙的互通互联和智能化能力。其核心使命是成为未来睡眠环境的“大脑”——不仅智能,更能调动整个卧室家电为用户服务,实现从“人适应环境”到“环境主动适配人”的阶段性转变。

鸿蒙智选 慕思智能床Pro H-DESIGN发布会新品展厅

深度共研打造睡眠“中枢”,重新定义智能卧室互联标准

发布会上,慕思集团副董事长、总裁姚吉庆表示“我们正与鸿蒙生态定义未来卧室互联标准”,双方历经三年双向考察、技术打磨,产品共研并非简单的技术叠加,而是实现“系统-算法-场景”的无缝适配,让智能床成为全屋智能家居的“睡眠中枢”,实现床与全屋设备的无感联动,提升用户睡眠体验的便捷性与舒适性。

本次发布新品是双方共研的鸿蒙生态深度融合成果,打造出业内首款依托华为“星闪”技术数字底座的智能床垫系列。“星闪”技术带来了连接范围广、抗干扰能力强、超低时延的革命性体验,确保了床体与全屋设备间指令稳定传输与瞬时响应。

慕思鸿蒙智能床能连接控制全屋鸿蒙生态内的设备,无需用户手动配对。当床监测到用户进入深睡,可联动新风系统优化空气环境,检测到打鼾时,床垫自动微调角度;双方共创的“拍一拍”交互方式,让用户只需轻拍床边模块,即可触发预设睡眠场景,突破传统APP或遥控器的操控逻辑,解决了智能家居中长期存在的“设备孤岛”问题,实现“一键入眠”。

慕思集团副董事长、总裁姚吉庆发言

这种深度融合,实现了从“床的智能”到“以睡眠者为中心的、整个卧室环境的智能”的跨越,是“科技服务于人”的真正体现。会上,华为终端BG OEM生态产品领域总经理杨海松先生也基于慕思和鸿蒙生态的共研成果分享了自己的观点,“在Pro款基础上,今天正式首发“鸿蒙智选 慕思智能床Pro H-DESIGN”。这款床在1万元以上高端新品第一名Pro的基础上,进行了全面升级。我们坚信好睡眠不仅需要一张好床,更需要一个懂你的智慧睡眠空间”

华为终端BG OEM生态产品领域总经理杨海松主题演讲

研发与布局走向纵深,筑牢智慧睡眠的护城河

发布会上,慕思集团CTO陈文泽详细介绍了新品搭载的医疗级检测精度压电传感器。这款自研传感器已获得国家二类医疗器械认证,能够毫秒级精准感知用户心率、呼吸率等生命体征的细微变化,评估睡眠状况并生成专业睡眠报告。

驱动这套感知系统的,是慕思自研的“潮汐算法”。基于更迭8代的健康睡眠系统数据,联合中国睡眠研究会、中国睡眠大数据中心对东方人睡眠的深入研究,潮汐算法集合了“支撑调节算法”、“睡眠报告算法”、“实时睡眠分期”等科技成果,形成国内首创的软体行业潮汐算法。陈文泽介绍,背后的技术已从基于人体脊椎、骨骼的研究,跨至基于肌肉受力研究阶段,复刻身体生物结构的非线性逻辑,“贴合骨结构到肌肉不同状态时的受力曲线”。

慕思集团CTO陈文泽介绍新品

在筑牢自研核心技术的基础上,慕思持续与全球顶尖机构展开深度共创,构建起从基础研究到应用转化的完整产学研闭环。发布会上,麻省理工学院教授Joseph Paradiso(约瑟夫·帕拉迪索)表示:慕思是MIT在世界范围内选择的睡眠产品唯一合作伙伴。“我们关注慕思的项目,尝试将不同类型传感器集成并进一步缩小尺寸,用于测量各种睡眠参数,未来帮助我们获得更佳的睡眠。”此外,慕思还联合中山大学公共卫生学院、广东省钟南山医学基金会等国内权威机构,共建 “智慧健康睡眠生态系统研发基地”,持续将前沿科研成果转化为落地的产品与服务,为智慧睡眠科技的发展注入持续动力。

麻省理工学院终身教授、麻省理工学院实验室学术带头人约瑟夫·帕拉迪(右)参会交流

从“感知”到“干预”,睡眠3.0时代走向主动管理

发布会现场,慕思联合第一财经商业数据中心(CBNData)发布《2026脊椎健康与睡眠白皮书》,对国人脊椎健康状态进行全维度扫描。白皮书揭示,当代人脊椎问题与睡眠质量高度相关,本次新品研发针对这一问题做了专项提升:依托潮汐算法,实现左右六区独立智控,三区动态调节,能够根据用户体型、睡姿实时调整床体支撑力度,贴合腰部肌肉与骨骼的受力需求,让科学护脊融入睡眠全程。

《2026脊椎健康与睡眠白皮书》发布

同时,本白皮书正式提出“睡眠3.0时代”的定义:核心是“主动、系统、科学的健康睡眠管理”,区别于1.0时代的“被动功能满足”、2.0时代的“主观舒适提升”,3.0时代以科技为支撑,实现睡眠健康的全周期、系统化管理。新品则是这一时代的首个标杆性落地产品。

用户每天醒来,手机APP生成详细的睡眠报告——深睡时长、心率曲线、翻身次数,以及基于脊椎健康模型的护脊建议。当长期数据积累,算法持续优化“睡眠最优解”,用户购买的不仅是一张床,更是一套持续的“健康睡眠”管理服务。

鸿蒙智选 慕思智能床Pro H-DESIGN的发布表明,睡眠科技的突破,不仅在于一张床的智能化程度,更在于能否将人的睡眠需求,转化为可感知、可量化、可优化的系统解决方案。随着技术自研与生态开放逐步成为行业共识,智慧睡眠产业也将朝着更科学、更系统的方向持续演进。

打破30年欧美垄断格局,深海智人的“深蓝野心”丨光合说

光合作用是万物生长的能量源泉,也是光合创投坚持的投资理念:不仅是资源的提供者,更是创新生态的共建者。作为深耕中国科技赛道的头部基金,光合创投正在通过“光合作用”让科技创新成为推动社会进步的重要力量。

创业邦将陆续刊载光合创投的投资专栏「光合说」,分享投资背后的故事。

马亦鸣不曾想到,10年前在国外公司的研发经历,成为了他职业生涯的分水岭。

彼时,中国央企刚刚完成对这家欧洲知名深海机器人公司的收购。作为国内首个系统培养的深海机器人专业技术人才,马亦鸣被派往英国学习。站在深海机器人的总装线上,他感受到了一种截然不同的产品文化。

车间里,一排排重型作业级深海机器人如同钢铁巨兽般列队,工程师们不热衷谈论“弯道超车”,而是专注于“一个密封电子单元在海水高压下的安全系数应该是多少”、“液压油在零度低温时的粘度和体积究竟会如何变化”这些细致的技术问题。

“他们展现出的工业化、标准化、可批量交付的工程能力,让我意识到我们与真正的深海工业化之间隔着一道巨大的鸿沟。”马亦鸣回忆当时场景带来的冲击,“这背后的差距不仅是一两个技术参数,而是从设计标准、供应链管理到项目交付的完整工程体系的代差。”

6年后,马亦鸣在广州创立深海智人(广州)技术有限公司(下称“深海智人”),试图用中国力量填平这道鸿沟。

仅仅3年,这家行业的“新面孔”就在阿联酋击败了英国和荷兰的老牌竞争对手,拿下了阿联酋电信公司价值过亿元的关键订单,打破了该领域近30年由海外公司垄断的格局。截至目前,深海智人是国内首个且唯一成功实现深海机器人商业化出口的公司。

去年11月,光合创投完成了对深海智人的A轮领投,并在日前持续追加了投资。光合创投合伙人蔡伟表示,“深海智人是我们在海洋领域的重要布局,在数千米的深海领域更有着巨大的市场潜力。团队凭借对产业智能化变革的前瞻性预判以及从零搭建完整工程体系的关键战略决策,快速成长为中国高端海洋智能装备的领军者,是海洋领域值得投资的链主企业。”

01跨越从样机到工业品的鸿沟

在数千米的深海里,静水压力高达数百个大气压,如同上千头大象同时踩在一个易拉罐上;温度长期徘徊在2-4摄氏度,还可能遭遇海底火山口的极端高温。这里永恒黑暗,光学观测基本失效,高盐度海水引发的电化学腐蚀无孔不入。同时,GPS信号缺失,导航依赖惯性系统与水声定位,通信延迟与带宽受限。

一台工作级ROV(远程操作水下机器人)必须在这样极端的作业环境中,熟练操作数百种专用工具——无论是拧动价值数百万美元的采油树阀门,还是进行海底管线的精确埋设和维修,抑或是完成光缆接头的水下插拔。每一个动作,都需要保证一次成功率,因为一次失败的成本动辄以百万美元和数周工期来计。

工作级深海机器人

“我们能造出世界上最大的船体,焊出最坚固的钢结构,但那个在水下真正干活的‘手’——深海作业机器人,却长期依赖进口。”马亦鸣感叹道。

他看到,市场端客户长期依赖欧美品牌,对中国产品存在天然的可靠性担忧。“他们不仅关注技术参数,更需要深度审查你的设计规范,供应链管理及项目流程体系。正因为这样,我们需要前期投入更多的精力,将研发和制造过程尽量透明化、标准化,以此来赢取信任。”

为此,他和团队率先系统性地将国际顶尖工程标准与中国产业实际相结合,编写了超过300份的内部设计、制造、工艺、测试、供应链管理等企业规范标准文件。

标准细致到一颗特种螺丝的防腐处理与拧紧扭矩的规范,30多种金属材料和40种非金属材料在高压腐蚀环境下的匹配性与寿命预测模型,还有液压管路的清洁度等级与安装标注,以及基于挪威船级社、美国石油协会等国际规范的结构强度与疲劳分析指南等等。

这套规范的典籍后来在应对国际顶级客户近乎严苛的审查时,成为了深海智人最硬核的“信任状”。

02击败巨头拿下海外大单

深海智人组建了一支覆盖机械、液压、电气、软件、通信等交叉学科的研发团队,搭建底层技术平台,自主研发机器人统一操作系统,控制算法库、仿真测试平台,并攻克关键部件推进器伺服模块的设计和工艺控制。同时,在供应链的建设上与核心供应商深度绑定。

马亦鸣坦言,全链条自研是一条重投入、长周期的路,但他坚信这是构建公司长期核心竞争力的唯一途径。

在他看来,去年成功拿下全球通信基建巨头阿联酋电信集团的订单,是公司产品可靠性和工程化能力的顶级验证,也是深海智人的“成名之战”。

“我们从概念设计到完成总装调试,只用了半年左右的时间,比欧美同行缩短了三分之二的交付周期。”提及这段经历,马亦鸣仍兴奋不已。

中东市场向来是欧美装备的“后花园”,这里的能源和通信巨头对品质和安全的要求近乎严苛。此前,完全看不到中国深海机器人的身影。深海智人面对的是英国、荷兰、挪威这些拥有几十年品牌和落地积淀的强劲对手,而自己只是一个仅运营两年多的中国“新面孔”。

当时,阿联酋电信集团为其印度洋海底光缆网络招标新一代光缆铺设机器人,通过公司官网找到了深海智人,马亦鸣第一时间带队前往阿联酋,并随身携带了一些核心关键部件,给客户留下了深刻印象。很快第二周阿联酋电信团队专程飞赴广州,对深海智人展开为期数天的深度审核,不仅查阅了全流程技术文档,还随机走访公司的核心供应商,并与深海智人的各技术团队进行了马拉松式的技术答辩。最终,深海智人啃下了这块“硬骨头”。

马亦鸣认为,在供应链审核中,公司所展现的标准化设计流程、严谨的文档管理和对质量体系的管控,让客户相信中国公司具备持续交付高可靠性装备的工业化能力。

“起决定性作用的还是我们完整的工程体系以及供应链的韧性保障。”马亦鸣说,客户下单的不只是那台看得见的钢铁机器,更是其背后确保它在万里之外的深海中能万无一失的完整工程能力。

批量出口旗舰机型——Phoenix 600 3000米级光缆作业机器人

此后,公司很快又再次中标阿联酋电信的ROV订单,包括直接采购一台整机以及授予公司继续优先供应同型号整机的权利,总金额超过1.2亿元。据透露,公司不久前与荷兰重要海工服务承包商达成合作,中国自主研发的深海机器人技术将首次进入欧洲主流海工装备市场。同时,公司与国内客户签署的深海ROV也已成功交付。

03寻找深海里的具身智能

目前全球海洋资源开发百分比不到1%,但全球海洋经济总产值已接近3万亿美元,发展潜力巨大。同时2025年深海经济被写入政府工作报告,并在今年写入了“十五五”规划,相关产业进入发展快车道。

光合创投对于深海赛道的机会挖掘,在此之前已持续1年之久。

“我认为海洋赛道是一个有待发掘的潜力赛道,不管是围绕国家战略还是商业价值都是很好的投资方向。”光合创投副总裁翟浩苇提到。马斯克的商业版图从航天到陆地,甚至也延伸到地下交通,在翟浩苇脑中闪过的念头是,如果再往下深入探索的话,海洋也有机会,尤其是深海,这是一片人类认知不足1%,但潜力巨大的领域。

基于初步的判断,内部很快组建了团队,合伙人蔡伟、孙健和副总裁翟浩苇、张钰琪组成行业小组,一边研究赛道,判断其中值得投资的价值方向。另一边跟行业里的专家沟通取经。在一次与同行的闲聊中,深海智人进入了他们的视线。

然而,深海智人并非一开始就向资本敞开大门。不肯轻易放弃的4人组展开了轮番“轰炸”:团队轮流去公司蹲点,从投资人的角度跟马亦鸣交流自身对行业的理解。同时,在海外客户引荐、公司未来发展布局、产品迭代、工程化体系以及技术路线设立等方面帮着一起出谋划策。“我们三顾茅庐的诚意最终还是打动了公司。”蔡伟笑着回忆道。

对此,马亦鸣也深有感触。他记得在一次沟通中,蔡伟直接抛出一个问题,“如果不把深海机器人看作冷冰冰的机械装备,而是看作一个有身体、有感知的智能体,这个行业会发生什么?”

这句话如同一道闪电,给马亦鸣打开了新思路:过往传统的深海机器人是一个“被牵线的木偶”,深海智能所专注的高度复杂的深海作业场景,其未来更应该需要海底的具身智能。

04属于深海智人的时代

据马亦鸣介绍,传统模式下,深海机器人受极端恶劣海洋环境的限制,多采用遥控方式,通过光电复合脐带缆与水面作业平台连接。人在船上,信号经光缆传输至水下机器人,实现作业闭环。

目前,深海智人已通过引入虚拟仿真系统,将装备研发,从需要去海上做实验的物理试错模式升级为数字孪生的验证码。通过在数字世界中高逼真度地模拟海洋环境,对机器人的流体动力学、结构强度、控制系统、水下感知,乃至整个作业流程进行仿真。让机器人在成型前即能发现大部分潜在问题,迭代周期从数年缩短到数月,降低研发风险和成本,实现可靠性与效率的双重提升。

工作级深海机器人虚拟仿真开发平台

但他也直言,由于海洋生态环境结构的复杂多变,在信息不全、传感器受限的情况下,未来要让机器人实现自主化运作,还需要提高其对实时环境的认知与决策,强化其规划任务及处理异常情况的能力。

“我们想做的不是造一个更好用的锤子,而是要造一个能自己找钉子、建房子的智能体。”马亦鸣强调,深海智人四个字,从一开始就诠释着公司的目标——深海具身智能。

目前,深海智人在布局更前沿的战场——深海采矿。创始团队在9年前就参与了全世界第一套、也是唯一一套全商业用途的深海采矿机器人,出厂价高达15亿元。随着电动汽车产业的爆发,海底的多金属结核(富含铜、镍、钴、锰、稀土等)成为了兵家必争之地。这需要更强壮、更智能的采矿机器人。深海智人凭借其在深海重载作业机器人上的技术积累,提前卡位这个万亿级的潜在市场。

深海智人产品矩阵

“我们看到未来更大的机会,并不只是现有的油气开发、海底通信,深海采矿更依赖机器人,体量将会是数十倍。深海智人在国内和中东的市场已经打开,与欧洲客户的合作也在进行中,我相信3-5年后他们会在行业主流市场占据重要位置。”对于公司的未来,蔡伟信心满满。

翟浩苇至今仍对第一次到访深海智人的情景记忆犹新,在公司一幅巨大的深海场景图前,马亦鸣逐一指着每一处有机会涉足的场景以及对应的机器人产品,讲述着公司未来的前景。

“那一刻,我能够感受到他们的野心远不止眼前,他们有具备成为海洋科技平台型公司的潜质。”翟浩苇笃信。

2012年3月,好莱坞导演詹姆斯·卡梅隆曾驾驶其单人深潜器“深海挑战者”号成功下潜至大洋最深处——马里亚纳海沟。在万米海底,他停留了6个小时,用高清3D摄像机拍下了大洋最深处的奇观。1年后,这部3D纪录片《深海挑战》制作完成。

作为多年潜水深度爱好者并持证PADI Rescue Diver的蔡伟对这部影片印象深刻。“深海里没有光线,在一片黑暗里,探索未知本身就是一件很酷的事。而深海智人,就是那把打开深海新世界的钥匙。”蔡伟表示。

属于深海智人的时代,才刚开始。

海底重载作业机器人金牛座1600

腾讯小龙虾的背后:海外游戏狂奔,AI低调发力,云服务开始挣钱

作者丨卷耳

编辑丨吴岩

图源丨Midjourney

2025 年,腾讯控股交出了一份加速增长的答卷 。全年总收入达到 7,517.66 亿元,同比增长 14%,毛利增速达到21% 。非国际财务报告准则盈利 2596亿元,同比增长17%。

在这份财报中,我们看到了腾讯增长动力的结构性变化:从过去的稳健复苏,正式转向由国际游戏、AI 赋能的广告,以及扭亏为盈的云服务共同构成的“高质量增长”模式 。

01游戏业务:国际市场跨入“30% 增长时代”

2025 年腾讯游戏业务的表现堪称“强势回归”,全年增值服务收入达到 3,693 亿元,增速从 2024 年的 7% 大幅跳升至 16% 。

国际游戏成头号引擎:收入同比增长达 33%(774 亿元),相较于 2024 年 9% 的增速实现了爆发式飞跃 。这主要归功于 Supercell 旗下产品(如《皇室战争》)的运营复苏、新游《鸣潮》的贡献以及《PUBG MOBILE》的持续稳健 。

本土市场稳中求进:收入 1,642 亿元,增长 18% 。除了《王者荣耀》等长青游戏的平台化进化外,自研射击大作《三角洲行动》的成功为本土市场注入了关键增量 。

02营销服务:AI 赋能下的“闭环增效”

在 2024 年高增长的基础上,腾讯广告业务在 2025 年依然保持了 19% 的强劲增速,总收入达 1,450 亿元 。

首先是技术红利:AI 驱动的广告定向优化和 AI 创作素材工具的普及,显著提升了投放效率 。

其次是生态闭环:视频号、微信搜一搜等闭环交易场景占比提升,直接拉动了广告价格(eCPM)的上涨 。

03企业服务:腾讯云迈过盈利拐点

金融科技及企业服务业务年度收入同比增长8%至2,294亿元。金融科技服务收入同比以高个位数百分比增长,由于理财服务、消费贷款服务及商业支付活动的收入增加。企业服务收入同比增长接近20%。本次财报中最令市场振奋的信号:腾讯云在 2025 年实现了规模化盈利 。

这主要是由于AI 云需求爆发,核心驱动力来自国内外市场对 AI 云服务的旺盛需求 。此外,微信小店交易额上升带动的商家技术服务费也贡献了重要增量 。

从财报数据看,腾讯云的盈利并非单纯靠削减开支,而是因为 AI 投入开始产生明显的业务回报 。特别是国内外市场对 AI 原生云服务 的渴求,直接拉动了利润率更高的业务占比 。

此外, 微信生态带来“降本增效”奇效: 微信小店和视频号的爆发,让腾讯云拥有了极低成本的获客渠道 。这种“内生性增长”是腾讯区别于其他云厂商的核心护城河。

未来可以确定的是,随着混元大模型的持续升级,腾讯将 AI 深入嵌入广告定向和企业服务中,这种“AI + 云 + 生态”的组合拳,让 2025 年腾讯云的盈利拐点显得非常有含金量。

04微信生态:从“流量池”到“商业雨林”

2025 年,微信生态的商业化进一步深化,视频号受益于升级的内容推荐算法及更丰富的内容生态,总用户使用时长同比增长超过20%。通过提升微信的交易体验和内容生态,微信小店、小游戏及其他内容小程序的用户参与度同比快速增长。

视频号、微信小店、小游戏等高参与度业务,正在通过内生逻辑不断推高腾讯的增长天花板 。

05战略投入:重金砸向未来

腾讯兑现了 2025 年回购至少 800 亿港元股份的承诺,显示出极强的现金流创造能力 。

在回馈股东的同时,腾讯并未放慢对未来的投资:

研发与资本开支:2025 年资本开支达 792 亿元,研发开支增加。混元大模型能力持续升级,AI 原生应用“腾讯元宝”也在稳步推进,WorkBuddy及QClaw等AI产品产生实际效用,这些迹象表明AI投入将为腾讯带来新的机遇。

在发布业绩公告的3月18日,腾讯宣布“龙虾”产品QClaw版本更新,将微信入口升级为小程序,支持上传或接收电脑端文件,用户可以直接在小程序接收QClaw发送的电脑文件。

这是腾讯将 AI 技术在 C 端场景的一次成功落地,体现了其一直以来对用户需求的精准把握,更让市场看到腾讯在 AI 原生应用领域 “轻量、实用、普惠” 的布局思路。

可以看到,腾讯的 2025 年是一个“质变”的节点。AI 不再只是实验室里的技术概念,而是实实在在转化为了广告的转化率、云服务的订单和游戏的体验。

06投资:账面价值超万亿元

2025年底,腾讯对上市投资公司(不包括附属公司)权益的账面价值6,727亿元,对非上市投资公司(不包括附属公司)权益的账面价值为3,631亿元,合计10,360亿元。

根据财报披露,2025年腾讯完成收购一间游戏公司 100% 的股权,现金代价约为 12 亿美元(约等于人民币 88 亿元)。

整体来看,腾讯是个稳重且聪明的“狙击手”。聪明体现在“借力”:腾讯从不盲目烧钱,而是把 AI 深度嵌入到微信、视频号和腾讯会议这些已有护城河的场景里。2025 年企业服务收入增长接近 20% 并实现盈利,就是这种“借力”的成果。稳重体现在“现金流”:在重投 AI 的同时,还能兑现 800 亿港元的回购承诺,这种财务上的克制和稳健,让它在面对不确定性时更有底气。

本文为创业邦原创,未经授权不得转载,否则创业邦将保留向其追究法律责任的权利。如需转载或有任何疑问,请联系editor@cyzone.cn。

以安全为底线、以真实为核心,今日头条2025治理白皮书正式发布

3月18日,今日头条举办2025 年度平台治理媒体开放日,发布《今日头条2025年度平台治理白皮书》。

白皮书围绕网络诈骗、暴力、水军、谣言、低质AI内容等核心议题,公布平台治理行动和成效。数据显示,2025年全年,今日头条共向用户推送300余万条涉诈风险提醒、处置网暴相关违规评论3.6亿条,为70万账号启用了一键防网暴功能。

活动现场,今日头条安全运营和内容治理运营相关负责人,分别做了业务分享 ,对外传递“以安全为底线,以真实为核心”的治理理念。

推送风险提醒 300 余万条,打击网骗、网暴、水军内容

今日头条安全运营负责人闫梦茹表示,安全是平台不可逾越的底线,2025 年平台聚焦反诈、网暴、水军三大领域,以务实举措守护用户安全感。在反诈治理上,平台构建注册登录、行为特征、内容识别、团伙打击四维全链路体系,全年处置涉诈内容 135 万条、封禁涉诈账号 18 万个,推送风险提醒 300 余万次。此外,平台通过创新动画、短剧等科普形式,加大反诈宣传,提高用户防范意识。

今日头条安全运营负责人 闫梦茹

针对网络暴力与体育 “饭圈” 乱象,平台建立内容与账号双线治理机制,精准识别辱骂攻击、拉踩引战内容,分级处置违规账号,主动为用户开启防护功能,全年处置违规评论 3.6 亿余条,为 70 余万个账号启用一键防网暴。平台同时对网络水军坚持零容忍,对团伙化行为特征进行总结、实施阶梯式处罚,全年封禁账号13.9万个。

中国政法大学网络法学研究所所长李怀胜在现场指出,网络诈骗已形成系统化犯罪链条,治理需坚持法律引领、多元共治、公众参与。其中,提高公众参与度是反诈的重要一环。“今日头条的平台治理报告中有两组数据值得深思:一是平台通过私信对高危风险进行了300余万条提醒,二是部分用户对反诈提示存在抵触情绪。这两组数据恰恰说明,没有公众的主动参与,再严密的技术防线、再完善的法律制度都可能被突破。”李怀胜表示。

中国政法大学网络法学研究所所长李怀胜

实现1小时内存量谣言回扫,持续提升平台生态健康

今日头条内容治理运营负责人郑子龙介绍,AIGC 技术普及带来内容生产便利,也催生低质 AI内容 、虚假谣言批量传播等问题。过去一年,平台以 “守护真实” 为核心,强化技术与规则双重治理。

内容层面,平台通过敏捷监控聚类发文和用户负评等方式不断挖掘新的低质AI内容特征,持续迭代管控标准,并反哺模型训练增强对低质AI问题的识别与处置;在账号层面,对持续发布低质AI内容的作者打压甚至禁言处罚,同时通过发布治理公告,引导创作者自觉抵制低质 AI 内容,提升内容创作质量,共同维护健康的网络生态。针对低质 AIGC 内容,全年处置相关内容超 260 万条,对违规账号实施流量限制、禁言等处罚。

在网络谣言治理方面,平台搭建全链路处置体系,依托权威信源比对、大模型识别能力,实现 1 小时内存量谣言回扫清理,全年清理虚假内容 700 余万条,处置违规账号 3.3 万个。同时,平台通过 “头条治序” 科普栏目,持续提升用户辨识能力。

今日头条内容治理运营负责人 郑子龙

同时,平台展开创作者认知治理、低成本创作者治理等专项,清退2万多低质认证作者,严厉打击套路化低质内容和短时高密度发文行为,处置60多万投机账号。

中国社会科学院大学互联网法治研究中心主任刘晓春认为,低质 AI 内容治理需明确标准、技术赋能、多方协同。平台应完善 AI 内容标识与审核机制,强化技术检测与创作者引导,推动形成监管、平台、用户共治格局,从源头遏制虚假误导内容蔓延。

中国社会科学院大学互联网法治研究中心主任刘晓春

持续打击网络黑灰产,保护用户权益、推动生态向好

作为通用信息分发与创作平台,内容安全与内容生态是今日头条的核心组成部分。活动现场,今日头条安全运营负责人闫梦茹、内容治理运营负责人郑子龙,就如何提升用户防范意识、虚假谣言治理核心机制等关键问题作出详细解答。

闫梦茹介绍,当平台监测到网络诈骗等相关风险时,会通过私信提醒方式警示用户,“若平台在对话框中提示‘该对话可能涉及交易转账、个人隐私等敏感信息,谨防诈骗、遵守国家法律法规’等内容,请用户务必高度关注相关风险,提高警惕。”

“生态治理同样也离不开公众的参与,提高用户对于生态治理的认知对构建一个健康、多元、清朗的平台生态非常重要。”郑子龙表示。

2025 年,今日头条通过系列专项行动、技术升级、规则完善和生态治理,持续打击网络黑灰产、清理不良信息、保护用户权益,推动平台生态不断向好。治理没有终点,用户的安全感与对优质内容的期待,是平台持续前行的动力。

佳能推出imageFORCE赢系列和imageRUNNER系列新品,驱动企业文印生产效能跃升

2026年3月17日,佳能(中国)有限公司正式发布佳能imageFORCE赢系列与佳能imageRUNNER系列共4款数码复合机新品,以覆盖多元办公场景的产品矩阵,赋能企业应对办公挑战。其中包含面向中大型企业,以专业级性能满足其高效率、高品质集中文印需求的imageFORCE赢系列A3彩色数码复合机imageFORCE C3150;为高流量分布式商业网点、外资企业、工厂等企业打造的A4彩色数码复合机imageFORCE C431;以及面向初创公司及小微企业推出的imageRUNNER系列两款黑白数码复合机imageRUNNER 2224N II/2425 II,凭借高性价比、易操作的特性,助力企业高效管控文印成本,适配灵活多变的日常办公场景。

佳能全球副总裁执行董事、佳能(中国)有限公司董事长兼首席执行官小泽秀树(左)和佳能(中国)有限公司高级副总裁江原大成(右)共同发布佳能数码复合机imageFORCE赢系列与佳能彩色激光打印机新品

佳能imageFORCE赢系列产品,赋能多元企业文印场景

佳能*1始终紧跟时代步伐并深度洞察用户需求,深耕中高端企业文印市场,于去年推出佳能数码复合机子品牌imageFORCE赢系列,为追求丰富表现力和高效能的人士注入办公室文印新“力量”。 全新佳能imageFORCE C3150兼具高效稳健的性能、轻巧紧凑的机身和优化的成本控制,为注重预算、同时不妥协性能与功能的中大型企业客户提供了精准适配的解决方案。通过差异化性能与成本优势,进一步完善了佳能中高端文印产品矩阵,灵活应对不同规模企业的多元化需求,助力企业实现降本增效与业务升级的双重目标。新推出的imageFORCE C431作为一款聚焦办公所需“核心性能”的A4高速彩色多功能一体机,适配办公场景的高频文印需求。

在已上市的佳能数码复合机imageFORCE赢系列的产品矩阵中,imageFORCE C7165凭借多元复合能力与稳定高效的生产力,被定位为办公室文印中心;imageFORCE C5100系列以其智能、高速及出众的色彩表现,成为办公室彩色打印理想之选;黑白数码复合机imageFORCE 6100系列,专注成为办公室黑白打印的核心力量;新机imageFORCE C3150以“强劲轻量”的核心优势,在保障强大性能的同时,高效满足高速生产需求; 

佳能A3彩色数码复合机imageFORCE C3150

佳能imageFORCE C3150性能稳定高效,配置灵活应手

全新佳能imageFORCE C3150继承佳能imageFORCE赢系列的高品质输出与可靠性能的核心基因,搭载新型D²曝光技术,实现4800×2400dpi分辨率高品质输出。该技术能有效防止色偏、改善图像颗粒感,从而显著提升精细文本的打印质量,确保如医疗诊断影像、设计图纸等文档的清晰锐利、色彩真实。佳能imageFORCE C3150可多方位提升文印质量与效率,助力工作流程的高效数字化,精准解决各行业企业文印的关键难题。医疗领域,针对急诊场景下病历与检验报告需快速处理的需求,以及彩色影像打印质量对诊断准确性产生的直接影响,它可实现高速高精打印;教育领域,它可突破跨校区协作效率低的壁垒,解决文档管理困难等难题,助力实现高效协同与集中管控;新能源汽车领域,面对复杂设计图纸打印时,对色彩还原度与细节清晰度的严苛要求,它可避免细微色偏与模糊,避免导致设计误读、质检偏差,护航生产安全。

佳能imageFORCE C3150精准解决不同行业企业文印的关键难题

佳能imageFORCE C3150首次配置新型双面自动输稿器,可高速处理如双面病历、作业等文件,简化归档流程并大幅提升批量文档处理效率。两种不同的输稿器供用户选配,以满足不同需求。其中,双面同步输稿器E1支持包括发票在内的小尺寸文档扫描,双面同步输稿器F1可实现名片等更小纸张尺寸的扫描,处理文档类型更加广泛。

佳能imageFORCE C3150提供两种双面同步输稿器(E1/F1)可供选择,配置更灵活

在装订工艺方面,用户可根据需求选配新型内置装订处理器,该组件搭载佳能专利的空中对齐技术,在半空中捕捉弹出的纸张,确保装订对齐精度,同时能显著降低运行噪音,创造更舒适的办公环境。用户还可通过选配分页装订处理器,实现骑马钉、C型折页,以及角钉、双钉、无钉装订等各类装订需求,为专业文印带来更多可能。

采用佳能专利空中对齐技术的新型内置装订处理器有效提升对齐精度和生产效率

AI深度赋能,智能服务与安全并重

佳能imageFORCE C3150搭载E2 Analysis(分析)技术,借助机器学习AI,不仅能预测零件寿命与潜在故障,实现远程前瞻性维护,还能减少不必要的服务呼叫和意外停机的情况,优化使用体验,保障业务连续性。在安全防护方面实现了创新升级。该产品利用先进的AI技术,实现从文件处理、设备管理到网络及云端服务等360度的安全防护,可做到硬盘数据彻底清除,防止信息残留与泄露的风险。同时,通过AI辅助的“安全环境评估”,它可自动分析网络环境并推荐合适的安全设置、实时监测风险,有效保护企业信息安全的同时,大幅降低安全配置门槛,即使非IT专业人员也能快速轻松完成整机安全策略的部署工作,尤其适合高度重视安全但缺乏内部专业技术支持的企业。

佳能imageFORCE C3150可根据用户选择的使用环境推荐安全设置

值得一提的是佳能imageFORCE C3150已通过FIPS 140-3(联邦信息处理标准140-3)认证。该认证表明产品符合国际权威的密码模块安全标准,能够为政府及金融、医疗等对法规遵从性有更高要求的行业客户提供‌可靠的数据加密保护‌,并满足企业合规、市场准入等多重安全要求。

体验升级,人机交互操作便捷

佳能imageFORCE C3150采用全新的10.1英寸触摸屏,与佳能其它打印产品的UI界面设计统一,图标清晰、操作简单,降低学习成本,提升操作效率。机身设计经过细节优化带来更自然的人机交互体验。操作面板与手送托盘的颜色更新,提升了视觉辨识度;阅读器下部结构经过重新设计,取纸操作更为便捷;第一纸盒及其内部颜色的优化调整,增强了纸张的视觉可识别性,让办公效率提升变得更轻松。

佳能打印产品UI设计统一,与移动端操作一致

佳能imageFORCE C3150将可持续发展理念深度融入产品全生命周期管理。在材料应用上,‌30%以上的机身主体采用再生塑料,并选用使用耐久性更强的零部件,有效延长设备使用寿命,减少服务频次。在运输阶段,使用更小、更轻的产品及纸板包装,大幅降低运输过程中的碳排放与资源浪费。

佳能imageFORCE C431简单高效,智享无忧

全新佳能A4彩色数码复合机imageFORCE C431,通过集高效输出、高质量的彩色效果、智能化安全与统一易用的设计于一身,瞄准连锁企业、多网点机构、外资公司及工厂流水线等对打印速度、可靠性、文档安全有较高要求的办公市场。佳能imageFORCE C431支持‌A4文档43页/分钟,A5文档69页/分钟‌的高速输出,确保A5尺寸打印不减速,应对工厂工单、连锁业务文件等高频、多样化打印需求。其标配双面同步输稿器‌,双面扫描速度高达190页/分钟,可自动对文档双面进行高速扫描处理。此外,imageFORCE C431首次支持Wi-Fi 6,相比上一代无线技术,连接更快、更稳定,方便移动端设备进行快速、流畅的文件传输与打印。

佳能A4彩色数码复合机imageFORCE C431

此外,佳能imageRUNNER系列推出的两款A3黑白数码复合机imageRUNNER 2224N II/2425 II,专为印量小、办公空间紧凑、希望在有限预算内优化功能的企业而设计,带来更智能稳定、简单便捷的办公打印体验。两款新品均采用全新触摸显示屏,使打印操作直观便捷。其中,imageRUNNER 2224N II配备3.5英寸黑白触摸屏‌,imageRUNNER 2425 II则升级至7英寸彩色触摸屏‌,并搭载用户友好型新界面,图标清晰且可视性强。imageRUNNER 2224N II/2425 II打印分辨率提升至1200×1200dpi‌,确保文本即使在缩印(如4合1)时也依然非常清晰。标配‌的全新双面同步输稿器‌容量达100页,‌双面扫描速度高达70页/分钟‌,并能支持名片等小尺寸纸张扫描。它还配备加热纸盒和检测环境湿度的特殊打印模式,避免纸张卷曲或卡纸;并提供30秒无工具更换感光鼓及两种容量墨粉的选择,为客户提供更灵活多变的办公打印解决方案。

佳能imageRUNNER 2224N II(左)和佳能imageRUNNER 2425 II(右)有效节省办公空间

基于已验证的创新技术与成功实践,佳能imageFORCE赢系列彩色数码复合机和佳能imageRUNNER系列黑白数码复合机的新品推出,精准契合办公市场需求,提供全面的企业文印多功能产品组合,助力企业实现未来运营效能升级,并持续推动生产力向前发展。

极氪8X正式预售,成首款直面BBA的中国高性能旗舰SUV,37.68万元起售

3月16日,豪华新能源品牌极氪正式推出全新高性能大五座旗舰SUV极氪8X,并同步开启预售,预售价37.68万元起。作为与极氪9X同源打造的旗舰车型,极氪8X搭载SEP浩瀚超级电混、浩瀚AI数字底盘、浩瀚安全盔甲、千里浩瀚G-ASD辅助驾驶系统四大核心能力,以硬核技术实力直面BBA高性能阵营。

极氪8X不仅填补了中国品牌在高端性能SUV领域的短板,更重塑了新能源时代豪华高性能旗舰的价值标准。因兼顾顶级性能、极致操控、高端舒适与前沿智能,极氪8X全面超越宝马 M、奔驰 AMG、奥迪 RS 等传统性能标杆,被网友誉为“新公路之王”。

四大核心能力,铸就新能源时代的“新公路之王”

极氪8X的全能实力,源自极氪全域自研的核心技术体系,更是极氪“从不妥协、从不让步”造车理念的具象化体现。底层架构方面,极氪8X搭载浩瀚-S超级电混架构,量身打造的混动技术最优解,更有“杭州湾卡宴”的称呼。其拥有的SEP浩瀚超级电混、浩瀚AI数字底盘、浩瀚安全盔甲、千里浩瀚G-ASD辅助驾驶系统四大核心能力,使极氪8X成为一台兼顾动力与能耗平衡,适配动静全路况的智能化“公路坦氪“。

极氪8X搭载全栈900V高压架构,配备混动领域首个三电机兆瓦级电驱、配合支持6C超快充的70度大电池、145W行业超高功率P1发电机、2.0T超级电混专用发动机,既实现超越同级的纯电驾驶质感,又根除续航与能耗困扰,达成性能与节能双重极致,使其能够真正成为新能源时代的高性能旗舰SUV。

另外,极氪8X还拥有行业首发AI智慧能源管理系统、行业首创“十源热泵”全域热管理系统,其包含了纯电驱动、混动串联、混动并联、燃油直驱、动能回收、五大类12种动力模式,全面覆盖用户使用场景,补足混动车型体验短板。

运动操控上,极氪8X搭载行业首个4S级认证浩瀚AI数字底盘,安全、舒适、驾控、便捷四大维度均达S级标准,定海智能中枢可实时调整车辆姿态与动态响应,让底盘实现“一车千面”。同时,极氪8X搭配同级唯一闭式双腔空气悬架、双阀CCD电磁减振器和主动稳定杆,赋予车辆高操控上限与充足安全冗余,从容应对全场景驾驶。

安全防护上,极氪8X以高强度车身打造浩瀚安全盔甲,采用行业首发双门环+双金箍棒设计、电池“985”防护,打造“混动公路坦氪”。智能体验方面,新车首搭新一代千里浩瀚G-ASD辅助驾驶系统,凭借超高含模量、超大数据集与超强硬件平台,实现全场景真无图等顶级体验,补齐传统高性能 SUV 智能化短板。

值得一提的是,此次极氪还特别推出8X曜影,搭载三电机兆瓦电驱,配备专属的曜影格栅设计,搭配22英寸凌波锻造轮毂,还有同级唯一的6活塞布雷博高性能卡钳、倍耐力315mm宽胎,搭载500毫米深度的涉水模式,兼具极致性能美学和巅峰运动实力。

据悉,本次预售中,极氪8X共推出两款车型,其中Max、Ultra、Ultra+预售价分别为37.68万元起、39.68万元起、44.68万元起,曜影预售价为51.68万元起。据悉,极氪8X对标宝马X5、保时捷卡宴,极氪8X曜影对标宝马X5M、保时捷卡宴Turbo GT,以硬核实力直面BBA高性能SUV,成为首款对BBA形成威胁的中国性能旗舰。

此前业内根据性能配置,普遍预计极氪8X起售价不低于43万元,市场普遍认为该定价极具吸引力,准车主反馈积极。官方还同步推出多重预售权益,包括至高价值98000元的「豪华进阶礼」、六项「限时选装礼」、3000元「意向金膨胀礼」。用户可通过极氪APP及全国官方线下门店锁定名额,新车计划于2026年第二季度正式上市,目前全国门店已开放实车体验。

全矩阵协同发力,极氪跻身高端豪华市场第一阵营

长期以来,全球高性能SUV市场话语权被宝马、奔驰、保时捷等海外品牌掌控,X5M、GLE AMG等性能车型构成BBA豪华市场的核心护城河。尽管中国新能源汽车在市场份额上已对BBA形成冲击,但此前尚未有产品能在核心性能维度实现全面超越,极氪8X的推出,推动中国品牌在高端性能领域实现阶段性突破。

作为首款直面硬刚BBA的中国性能旗舰,极氪8X从全栈900V高压架构、浩瀚AI数字底盘、到新一代千里浩瀚G-ASD辅助驾驶系统等,均实现全面超越,打破“豪华性能即高能耗、高端定位即高溢价”的固有认知,将中国高性能旗舰标准提升到全新高度。其“高性能豪华大五座”的精准定位,既区别于主流六座产品,也弥补了传统豪华品牌新能源转型不足,精准切入高端市场空白。

与此同时,极氪8X与极氪9X形成双旗舰格局,进一步完善品牌高端产品布局。截至目前,极氪9X已连续4个月蝉联50万级大型SUV销冠,近4个月累计销量取得50万以上全品类销冠,每卖出10台50万以上车型就有3台是极氪9X,单车成交均价超过53万元,超过80%用户来自BBA、保时捷、路虎等传统豪华品牌,甚至在海外被加价求购。极氪9X和极氪8X精准互补,持续强化极氪在高端豪华市场话语权。

此外,极氪已构筑起极致豪华9系、运动豪华8系、科技豪华7系、个性豪华猎装四大产品矩阵,覆盖多元高端圈层、定位互补。随着极氪8X二季度正式上市,极氪将完成四大矩阵闭环,进一步稳固产品力、体系力与品牌力,提升长期发展潜力,助力中国高端汽车品牌全球化。

行业分析指出,当前中国汽车市场正发生深刻变革,高端用户消费决策回归产品价值本身。极氪8X的预售开启,不仅为高端用户提供多维选择,更标志着中国品牌已具备与海外顶级性能车型正面抗衡的实力。随着极氪全矩阵协同发力,中国汽车高端化之路也稳步迈向全球核心舞台,极氪为中国汽车工业高质量发展注入强劲动能,彰显中国汽车产业的全球竞争力。

从IDE到Terminal:适合后端宝宝体质的Claude Code工作流|得物技术

一、背景

事情是这样的,之前对 AI 编程一直是观望态度,但是部门最近在做 AI 辅助编程 POC,有幸成为 POC 用户,用上了自己舍不得买的高级编程模型 (感谢公司)。尽管我自认为是一个在代码上很挑剔的人,但是试了下感觉居然还可以 (Go、React)!只能说还得是谷歌,调整重心略微发力,Gemini 3 表现确实很不错。既然尝到甜头了,觉得自己是时候好好地琢磨琢磨,研究研究,沉淀一套自己的工作流、方法论,解放自己的生产力,顺应潮流努力成为 AI 时代的受益者,而不是被淘汰的人!

新的开发范式需要搭建新的开发环境和匹配自己开发习惯的工作流,这就像刚学编程那会,需要挑一个自己喜欢的 IDE、熟悉 IDE 快捷键和优化 IDE 设置一样。过程中间肯定有阵痛,Java 开发者们回忆一下多年之前从 Eclipse 转 IDEA 那会的阵痛吧,但是磨刀不误砍柴工,阵痛之后一定是生产力提升。借本文分享下我摸索后的方案,供大家参考。

二、工具选型

目前 AI 辅助编程领域热火朝天,各种 GUI 工具、TUI 工具如雨后春笋让人目不暇接,这对于花心的强迫症选手(比如我)来说选型很困难。但是我觉得有两个基础认知可以帮助我们更好地做决定:

(一)AI 辅助编程工具由脑和手两部分组成。脑是外接的大模型 API,手是各个产品调教的提示词和内部工作流。按我理解,【脑】决定了工具的上限,【手】决定了工具的下限。在这个场景里,大模型就像是汽车里的发动机,而且所有型号的汽车支持的【发动机】规格都是通用的、统一的、标准化的。有了这个基础,我们可以随便选一个趁手的工具,然后自行按场景选配【合适】的【发动机】。

(二)AI 辅助编程当前是一个【千帆竞发】的热门领域,而且单纯就【工具】来说,这个领域【没有技术壁垒】。A 产品抛出的杀手级特性,不出半个月一定会有 B 产品跟进。毕竟现在软件迭代的速度借助 AI 提升了很多,A 产品验证过的想法,B 产品可以很快地跟进和实现。Claude Code CLI 的开发者就使用 Claude Code CLI 迭代 Claude Code CLI,有点绕口,大概就是【工具自举】的意思吧。

Claude Code CLI

综上,其实没啥纠结的,我们照着这两点来选型就好:1. 这个工具一定得便捷地支持模型插拔,就是我随时可以根据场景换一个更适合的、更便宜的、表现更好的大模型。而且这种插拔一定要简单。 2. 这个工具一定要有积极的维护者,不断地迭代、优化它的工作流、提示词。最好是一个商业化产品,因为商业化产品出于其商业目标,一定会投入资源积极进行迭代。 

当前满足这两个条件的,我想也就是 Claude Code CLI 了: 1. Claude Code CLI 是一个商业化产品,有专门的技术团队在不停地更新、迭代。 2. Claude Code CLI 可以非常便捷地支持大模型插拔,我可以随时根据成本、效率、体验来切换合适的大模型。因此,这个环节我选 【Claude Code CLI】。

后文以CC代指Claude Code CLI。

快速切换模型

我通过自定义 Shell 函数来实现便捷的模型切换,不同的场景、不同的任务使用不同的模型。基本原理就是,CC 支持环境变量注入 LLM 配置信息,因此我只需要按场景注入【行内临时环境变量】即可。

详见:Bash - 行内环境变量,Bash 是标准的 Shell 实现,其他 Shell 如 Zsh 都兼容其行为。

Shell配置

我到处弄了一堆免费的、收费的模型用,然后给他们取了我记得住的别名:

使用效果

为了兼容,设置了一个 claude 别名:

这样输入claude 时,默认使用智谱 GLM 模型。

脚本源码

Shell 脚本大概这样,可以修改后配置到自己的 ~/.zshrc 中。如果不熟悉 Shell,嫌麻烦也可以试试这个开源工具:farion1231/cc-switch。

# claude 默认
alias claude='zcc'
# Kimi
function kcc(){
    echo Kimi Claude Code...
    local model="kimi-k2.5"
    ANTHROPIC_BASE_URL="https://api.moonshot.cn/anthropic" \
    ANTHROPIC_AUTH_TOKEN="sk-xxxxxxxxx" \
    ANTHROPIC_SMALL_FAST_MODEL="$model" \
    ANTHROPIC_DEFAULT_OPUS_MODEL="$model" \
    ANTHROPIC_DEFAULT_SONNET_MODEL="$model" \
    ANTHROPIC_DEFAULT_HAIKU_MODEL="$model" \
    CLAUDE_CODE_SUBAGENT_MODEL="$model" \
    launch_claude_code $@
}
# 智谱GLM
function zcc(){
    echo GLM Claude Code...
    ANTHROPIC_BASE_URL="https://open.bigmodel.cn/api/anthropic" \
    ANTHROPIC_AUTH_TOKEN="sk-xxxxxxxxx" \
    launch_claude_code $@
}
# 七牛
function qcc(){
    echo QiNiu Claude Code...
    local model="minimax/minimax-m2.1"
    ANTHROPIC_BASE_URL="https://api.qnaigc.com" \
    ANTHROPIC_AUTH_TOKEN="sk-xxxxxxxxx" \
    ANTHROPIC_SMALL_FAST_MODEL="$model" \
    ANTHROPIC_DEFAULT_OPUS_MODEL="$model" \
    ANTHROPIC_DEFAULT_SONNET_MODEL="$model" \
    ANTHROPIC_DEFAULT_HAIKU_MODEL="$model" \
    CLAUDE_CODE_SUBAGENT_MODEL="$model" \
    launch_claude_code $@
}
function launch_claude_code(){
    CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC=1 \
#    clear
    command claude $@
}

三、开发环境

在当前的气氛下,我想我算是一个【古板】的开发者,我做不到【fire and forget】,或者说完全靠黑盒的自然语言对话来完成代码开发。

我还是只将 AI 当助手,还是想要白盒的掌控 AI 写的代码,还是希望最终交付的代码有我的风格、我的审美、我的品味。毕竟 AI 也只能帮我写代码,并不能帮我背锅。尽管我选择了 TUI 工具 Claude Code CLI,但是我还做不到全程只在终端操作,我还是习惯 JetBrains 特色的双栏 diff。

因此,当前我开发流程的起点还是传统的 IDE,比如我最喜欢的 JetBrains。每天上班第一件事是接水,第二件事就是打开 IDE。所以我需要想办法来将 GUI 工具和 TUI 工具流畅的衔接起来,减少代码开发时的频繁切换产生的割裂感!

多屏协作

如上图,我有 3 个显示器,我的构想是这样的:

  1. MacBook 内置显示器 —— 常驻两个空间:一个用来打开浏览器,还有 VPN、网易云音乐、Finder 软件,用来承接各种临时的操作。一个用来打开飞书,用来沟通、协作。

  1. 中间主屏 —— 常驻两个空间:一个用来打开浏览器,用来做各种【输出】。一个用来打开 IDE,专注于写代码、看代码,用标签页打开多个 Project。

  1. 左边竖屏 —— 常驻两个空间:一个用来打开浏览器,用于看文档、查资料等各种【输入】。一个用来打开 TUI 工具,进行辅助编程!

GUI/TUI衔接

现在问题来了,我希望我的开发工作的【主轴】是 IDE,流程的起点是 IDE。但是我的 IDE 在中间屏幕,终端在左边屏幕,它俩是独立软件,没法协作、自动跟随切换 Project 的工作目录。我希望有个【自动化流程】,当我在 IDE 里切换项目的时候,CC 自动跟随切换!

衔接流程

我期待的流程是这样的:

因为某个原因,我在 IDE 里打开了一个项目 A  准备写代码了,点击 IDE 里的某个【按钮】,左边屏幕自动【新建】一个项目 A 的 CC 会话终端并激活到前台显示   我跟左边的 CC 对话,让他干活  我在中间的 IDE 里评审、调试、诊断  因为某些原因我又要在 IDE 打开一个别的项目 B  我再次点击那个【按钮】,左边屏幕自动【新建】一个项目 B 的 CC 会话终端并激活到前台显示  我在 IDE 里又切回了项目 A,我又点击了那个【按钮】,左边屏幕自动【切换】到 A 的 CC 会话终端并激活到前台显示。

好的想法已经有了,AI 时代就怕你没有想法,有想法就一定有办法实现!

代码实现

  1. macOS 上的原生软件,大部分支持 AppleScript 自动化,也就是说我们可以写脚本驱动软件的行为、模拟人机交互,比如打开软件、新建 tab、点击按钮等。

  2. JetBrains IDE 支持集成外部命令,也就是说:可以在 IDE 里点击一个按钮,自动执行一个 Shell 脚本或者别的可执行文件。

产品需求清晰了,接下来开始让 AI 干活!一顿沟通和调试之后,我们有了一个【自动化】创建 iTerm2 新标签的可执行脚本!

这是给大模型的需求提示词,大家可以按需选用,做个性化的调整:

## 📌 工具功能说明
请帮我创建一个 macOS 上的 iTerm2 自动化工具,主要功能包括:
### 核心需求
1. **智能窗口管理**:自动使用或创建 iTerm2 窗口
2. **项目标签管理**:为每个项目目录维护独立的标签页,支持标签复用
3. **三面板布局**:自动创建固定的三面板布局(上方一个全宽面板,下方两个并排面板)
4. **命令自动执行**:在每个面板中自动切换到项目目录并执行预定义的命令
### 使用场景
```bash
# 基本用法:在当前目录打开
./open-claude-in-iterm.sh
# 指定项目目录
./open-claude-in-iterm.sh /path/to/project
```
---
## 🎯 技术架构要求
### 技术栈
- **Shell 脚本** (open-claude-in-iterm.sh):参数处理、路径规范化、日志管理
- **AppleScript** (open-claude-in-iterm.applescript):iTerm2 自动化核心逻辑
**依赖**:macOS、iTerm2、Bash
---
## 📋 详细功能规格
### 1. Shell 脚本 (open-claude-in-iterm.sh)
#### 参数处理
- **参数1**:项目目录(可选,默认当前目录)
- **自动处理**:相对路径转绝对路径
#### 面板命令配置
```bash
PAN1_CMD="claude"     # 上方面板命令
PAN2_CMD="claude"     # 左下面板命令
PAN3_CMD="claude"     # 右下面板命令
```
### 2. AppleScript (open-claude-in-iterm.applescript)
#### 主要流程
**步骤1:窗口管理**
- 检查 iTerm2 是否运行(未运行则自动启动)
- 使用当前激活的 iTerm2 窗口,如果没有则创建新窗口
**步骤2:标签管理(关键逻辑)**
- 在找到的窗口中,查找 `session.path` 变量等于项目目录的标签
- **复用逻辑**:如果找到现有标签 且 窗口不是新创建的 → 直接切换标签并返回
- **创建逻辑**:如果未找到标签 或 窗口是新创建的 → 创建新标签和布局
**步骤3:三面板布局创建**
```
布局示意图:
┌─────────────────────────┐
│   上方面板 (全宽)         │
│   执行: PAN1_CMD         │
├──────────────┬──────────┤
│  左下面板    │  右下面板 │
│  PAN2_CMD   │  PAN3_CMD │
└──────────────┴──────────┘
```
**分割顺序(重要)**:
1. 初始状态:一个全屏 session(上方面板)
2. 第一次分割:对上方 session 执行**水平分割**,创建下方面板
3. 第二次分割:对下方 session 执行**垂直分割**,创建右下面板
**步骤4:命令执行**
在每个面板中依次执行:
1. 切换到项目目录:`cd "/path/to/project"`
2. 清屏:`clear`
3. 等待 0.3 秒(确保目录切换完成)
4. 执行命令:`PAN_CMD`
5. 等待 0.5 秒(确保命令启动)
## ⚠️ 常见错误
- ❌ 符号链接未处理,导致找不到 AppleScript 文件
- ❌ 分割顺序错误,导致布局不正确
- ❌ 缺少 delay,导致命令执行失败或在错误目录执行
- ❌ 新窗口处理错误,导致多余空白标签
- ❌ 标签复用逻辑错误,导致同一项目创建多个标签
- ❌ 路径未引用,导致包含空格的路径失败

IDE配置

创建外部工具

添加到工具栏

使用效果

点击工具栏按钮后,自动在全屏的 iTerm2 窗口新建或激活项目目录下的 CC 会话,下图里就是 3 个项目。

四、多Agent协作

会的越多,让你干的就越多。既然 AI 那么牛,一个 CC 会话已经满足不了我膨胀的想法和需求了。我希望我可以同时支配多个 AI 开发工程师,而我变成 PM!所以参考酒米的思路,我给每个项目的终端,自动化的划分了 3 个子窗口,每个子窗口都是一个 CC 会话。效果大概这样:

主从架构

每个项目自动打开 3 个常驻的 AI 会话,我设想的工作流是这样的:

【架构师】上面的大屏,用贵的模型!专门用来跟我聊需求、对方案、产出任务列表。

【开发者】下面的两个小屏,用领域特定的模型,专门用来落地大屏架构师产出的方案和任务。比如前端需求用前端效果好的模型,后端需求用后端效果好的模型。

知人善用才是好 PM!这个模式也很匹配现实中的组织架构和成本取舍,现实中每个需求一般也都是由一个架构师和多个中高级开发者来协作完成!感谢热心市民无声雨,给我们小组共享了自己采购的纯血 Claude 模型,所以目前我用 Claude 模型来对方案,用 GLM 或者 MiniMax 来实施方案!

规范驱动开发(SDD)

主从智能体的协作很重要,我跟【架构师】聊了半天确定的方案和设计,需要有一个清晰的、对大模型友好的方案和任务文档作为【开发者】的输入。这就很巧,刚好最近在流行 SDD,规范驱动开发。大致就是模拟现实中的软件开发流程将开发生命周期拆分为 3 个阶段:

  • 【proposal】需求对齐、方案设计、【任务细化】;
  • 【apply】开发任务实施;
  • 【archive】功能验收、文档沉淀

围绕这个流程,开源社区设计和研发了一系列对大模型非常友好的工具和提示词(比如 OpenSpec),【阶段 1】和【阶段 2】中间通过格式设计良好的【设计文档和任务文档】来进行上下文交接。

也就是说,我可以在上述的 3 窗口环境中,按照 SDD 流程来:【proposal】跟【架构师】交互,对齐需求、设计和任务 A  【apply】让【开发者 1】着手完成任务 A  【proposal】继续跟【架构师】交互,对齐需求、设计和任务 B  【apply】让【开发者 2】着手完成任务 B  【proposal】继续跟【架构师】交互,对齐需求、设计和任务 C  【apply】让【开发者 1】着手完成任务 C  ……

五、CC拓展

CC 当然很厉害,但它本质上也就是一个朴素的 ReAct 模式智能体。

ReAct 这么火,大家肯定也都耳熟能详了,我们也就不说太多。当然 CC 团队围绕编程这个课题做了很多细致的提示词调优和内置工作流设计,这个我们黑盒的用就好了,也没必要关注太多。我们最需要关注的,是 CC 提供给我们使用者的【拓展点】,那些允许我们个性化设置的东西。

命令(command)

命令的本质就是预定义的提示词模板。目的是为了省事,不用每次都重复的输入类似的提示词。比如想让 CC 帮我提交代码,每次我们可能都要交代一大堆字,比如:

请调用 git diff --cached 获取当前暂存区的代码变动。
忽略所有的 node_modules 或二进制文件。
基于变动内容,判断这是一个 feat (新功能), fix (修复) 还是 chore (杂务)。
生成一个不超过 50 字符的标题,并在正文详细列出影响的文件。
由我确认后执行 git commit。”

就像写代码的时候将重复代码提取为一个独立方法一样,我们可以把这些可以复用的提示词固定成一个【命令】,后续使用的时候,直接输入命令名字就好。斜杠命令是一段提示词的快捷方式。

技能(skill)

技能和命令最大的差别就是:命令是用户主动提交的提示词,而技能是 Agent 自己决策后自动导入的提示词。当然技能包里除了提示词,一般还会携带一些配套的工具、脚本、命令或者文档。

比如,我安装了一个【html 转 pdf 的技能包】,这只能提示 CC 可以使用这个技能,但是具体用不用、什么时候用、怎么用都是 CC 自己规划、决策的。

子代理(subAgent)

SubAgents 是可以并行处理任务的独立 AI 代理,每个子代理拥有独立的上下文窗口,可以分配不同任务以提高效率。【主代理】的上下文窗口中包含有【子代理】的【简短】描述信息,可以基于这个描述信息规划、决策使用哪个子代理。

{
  "agents":{
    "code-reviewer":{
      "description":"专门负责代码审查的子代理",
      "model":"claude-opus-4-5",
      "instructions":"你是一个专业的代码审查专家,专注于检查代码质量、安全漏洞和性能问题。",
      "tools":["read","search","git"],
      "permissions":{
        "allowWrite":false
      }
    },
    "test-writer":{
      "description":"专门负责编写测试的子代理",
      "model":"claude-sonnet-4-5",
      "instructions":"你是一个测试工程师,专注于编写全面的单元测试和集成测试。",
      "tools":["read","write","bash"]
    },
    "doc-generator":{
      "description":"专门负责生成文档的子代理",
      "model":"claude-sonnet-4-5",
      "instructions":"你是一个技术文档专家,专注于生成清晰、准确的技术文档。",
      "tools":["read","write"]
    }
  }
}

独立上下文窗口的好处是:避免上下文污染和占用。比如我要在代码里找一个接口的所有实现类,这个就很适合子代理来做。主代理只需要交代给子代理接口名,然后就等子代理返回实现类列表。

这样在主代理的上下文窗口里,只会有子代理的输入和输出(几个类文件路径),而子代理在搜索过程中遍历文件、目录、读取文件内容产生的临时 token,不会对主代理产生影响。我目前认为 SubAgent 和 Skill 差不太多。不过我不确认 Skill 是不是在独立的上下文中执行。

MCP

MCP 和技能一样,都是由 CC 自主规划、决策使用的。差别有两个:

  1. MCP 工具的说明信息占用的上下文太多了!不管是否被使用,每次都需要一口气提交所有工具的完整元信息(使用说明 + 出入参 Schema)供大模型规划、决策,占用大量上下文。而【技能】选择了【渐进式披露】,先向大模型提供少量关键信息,只有在大模型选择了使用技能时,才告诉大模型更多关于技能的补充说明信息,让大模型进一步推理、决策。

  2. MCP 工具更多的偏向【远程 RPC】,基于网络来实现原子化的远程能力调用。而【技能】更多的偏向【本地 IPC】,具体能力更多通过【编排】本地脚本、本地命令来实现,有点像 stdio 模式下的 MCP。

钩子(hook)

hook 是在特定事件触发时自动执行的脚本,用于自定义工作流、拦截危险操作、自动格式化代码等。就类似 Linux NetFilter,CC 在很多地方植入了流程执行的劫持点,将流程上下文交给用户开发的脚本或者命令。

插件(plugin)

plugin 就是上述各种拓展打包、分发、安装的一种格式。你可以把它想象成 npm 包、pip 包、apk 包等我们比较熟悉的概念。然后我们可以按流程和格式建设插件市场,类似 pip-index、npm-index 等。

我没有细看流程和格式,但是大概也就是一个特定文件布局的 zip 文件包,里面有插件描述信息和各类拓展,比如可以包含:

  • 5 个 Skills;
  • 10 个斜杠命令;
  • 3 个 MCP 服务器配置;
  • 2 个 SubAgent 定义;
  • 若干 Hooks。

六、CC技巧

飞书MCP

飞书官方提供了 MCP,我主要用它来读写飞书文档,蛮好用的,大家可以试试。比如我每周都要在固定目录下创建固定标题格式的【系统巡检文档】,所以我借助飞书 MCP 整了个自定义 Command 帮我自动创建这些文档去除重复劳动,感觉真香!之前每次都要手动建 3 个文档、选目录、改名字!

@模糊搜索

有时候我们需要精确的告诉 CC,哪个文件需要读或者改,其实不用从 IDE 里复制文件路径,直接在终端里模糊搜索就好了。

WebFetch

CC 默认集成了 WebFetch 命令,就是指定 URL 读取网页内容,这个理论上就是一个本地执行的 curl 命令,没有云端成本,不需要云端协作。但是有个问题:(一)CC 在访问地址之前,会先调用 anthropic.com 的一个风控接口,判断这个网络地址是否有安全风险。(二)政策原因,anthropic.com 会拒绝所有来自中国大陆、香港的请求,风控接口返回 404 或者其他。(三)风控不通过,WebFetch 失败。

在 ~/.claude/settings.json 中添加如下配置,禁用 WebFetch 工具前置的风控检查就好了。

{
  "skipWebFetchPreflight":true,
}

详见:linux.do/t/topic/114…

WebSearch

WebSearch 是需要云端协作的,需要有个搜索引擎服务提供能力。因为我们没有用官方的付费订阅,所以默认的 WebSearch 工具我们用不了,调用 WebSearch 工具得到的结果都是 0。

办法是去找一个免费或者收费的 MCP 服务。免费的我看大家都推荐 Brave<brave.com>,大家也可以找找别的。收费的也有很多,我看智谱的套餐里限量提供了 <联网搜索 MCP - 智谱 AI 开放文档>。也有很多按量付费的,大概几分钱一次,有需要的可以找找。

添加了 MCP 搜索工具后,建议禁用 CC 自带的 WebSearch 工具,不然每次跟大模型交互时,工具信息还会带给大模型,产生额外的 token 开销和推理误判。在 ~/.claude/settings.json 中添加如下配置:

{
  "permissions":{
    "deny":[
      "WebSearch"
    ]
  }
}

iTerm2通知

终端上的任务需要我们输入的时候,可以配置下,让 iTerm2 发出声音和通知。这样我们就不会因为忘记确认操作而阻塞进度。

详见:Optimize your terminal setup - Claude Code Docs

清空上下文

因为我们每个项目都复用一屏内的 3 个子窗口,一般不会重开。为了避免上下文溢出或者之前对话对新任务产生干扰,当我们完成一个任务时,需要及时的执行 /clear 命令,清空上下文,从 0 开始新对话。

如果任务没有完成,但是又不得不 clear,那么可以维护一个自定义命令,在 clear 后提示大模型根据 git status 看到的文件变更快速找回上下文。把 git 状态当作 AI 的 “短期记忆快照”,/clear 只清上下文,不清工作进度。

# Context Catch-up
当前对话已被 `/clear`,请通过 git 状态恢复上下文。
使用方式:
1. 阅读 `git status`(必要时结合 `git diff`2. 仅基于文件变更推断正在进行的任务
3. 延续现有实现思路,不要假设额外背景
4. 在未收到明确指令前,先给出你对当前上下文的判断
目标:
- 快速找回任务状态
- 避免旧对话或错误假设干扰新任务

注意力哨兵

在记忆文件里要求大模型扮演一个特别的角色,如果聊着聊着角色行为丢失了,说明大模型注意力失焦了,已经丢掉了你最开始的要求。这时候就该 clear 一下重开会话了。

拓展市场

为了便于相关个性化拓展物料的分发、便于大家搜索、安装,市面上已经有了相关的分发平台和便捷安装命令了。

  1. skills.sh

  1. www.aitmpl.com

状态行个性化

状态行显示在 Claude Code 会话界面底部,可以自定义显示的内容,比如git分支名、目录名、模型名等。推荐使github开源项目:claude-code-statusline-pro-aicodeditor,效果如下:

详见:github.com/HorizonWing…

七、总结

差生文具多,尽管我暂时还没有使用 CC 产出啥说得上来的东西,但是确实花了很多时间琢磨怎么让它用起来更顺手。一些不成熟的想法,希望可以给到大家启发。

参考:

  1. www.ginonotes.com/posts/how-i…
  2. www.cnblogs.com/knqiufan/p/…

往期回顾

1.AI编程能力边界探索:基于 Claude Code 的 Spec Coding 项目实战|得物技术

2.搜索 C++ 引擎回归能力建设:从自测到工程化准出|得物技术 

3.得物社区搜推公式融合调参框架-加乘树3.0实战

4.深入剖析Spark UI界面:参数与界面详解|得物技术

5.Sentinel Java客户端限流原理解析|得物技术

文 /羊羽

关注得物技术,每周更新技术干货

要是觉得文章对你有帮助的话,欢迎评论转发点赞~

未经得物技术许可严禁转载,否则依法追究法律责任。

❌