阅读视图

发现新文章,点击刷新页面。

VC投资人 : “我们正在找寻这类公司”

作者丨黎曼

今年5月,金沙江创投主管合伙人朱啸虎的新动向引发关注——当时“宣称不看好人形机器人”的他,在批量退出人形机器人项目后,转身又投了一家水下机器人项目——世航智能(下称世航)。

当时,外界已经解读过朱啸虎的操作。朱啸虎退出人形机器人是因为商业前景不明,并公开宣称人形机器人“客户仅用于研究或展示,未创造持续价值”。而他转身投资的公司则属于“务实投资”,具备深度场景力、能快速商业化。

世航成立于2023年,是国内最早研究,且最先完成水下清洗机器人商业化的企业。其以水下通用机器人为主线,产品“虎鲸”系列构建了水下0-1万米海洋生产力,目前主要应用在洗船领域。

“你们的产品是不是水下面有个人在推着跑?”起初,世航团队也收到了不少质疑,创始班子只能不厌其烦地解释“完全不是”。最近,世航联创兼COO曹颖告诉我:“今年公司开启商业化,收入呈十倍级增长,预计明年盈利。”

曹颖透露,水下场景的研发费用其实会高于其他场景的人形机器人。这放在整个机器人赛道来看,在大量研发烧钱后,能够在一年多时间完成盈利的并不多见。

大家可能不知道,世航快速商业化的背后,和它颇具前沿的商业模式——“AI为结果付费”颇为相关。

具体解释一下就是,它每清洗一艘船,船东就付一次的清洁费。船东愿意为其付费的动力在于,清洗完的大船,不仅能取代无法检验的人工清洗,还能节省油费。“经过我们清洗完的轮船,每天能节省10万元油费。”

这对世航来说有两大好处:一是,产品能够更精准的解决客户需求。二,能够打开收入规模天花板。这颠覆了行业以往卖硬件、SaaS、或者集成方案的收入模式。

其实不止是世航,国内外很多明星企业已经开启了“AI为结果付费”的商业模式时代,且这已经成为了当前全球AI巨头及资本巨擘的共识。

在今年5月闭幕的第三届红杉资本AI峰会的闭门会议上,包括红杉资本合伙人Pat Grady、OpenAI首席执行官Sam Altman、谷歌首席科学家Jeff Dean等在内的全球150位顶尖AI创始人,经过6小时的深入探讨,众多前沿观点和共识浮出水面。其中,Outcome-based Pricing(基于结果定价),Outcome-as-a-Service(结果即服务)成为最为核心的观点之一,这意味着:“下一轮AI,卖的不是工具,而是收益。”Pat Grady把这称为“万亿美元机会”。

在国内,同频共振的机构也已出现。“我们正在找寻这类商业模式的公司,也会推动一些有潜力的企业朝这个方向转型。”盛景嘉成创投管理合伙人王湘云表示,这一收费模式让一些被投企业实现了收入和利润十倍级的增长。

在“AI泡沫”论断不断警醒着创投界的当下,一条更加明晰的商业化路径出现了。这就像混沌中出现的一道曙光。

因何提出?

在中国,盛景是较早提议该商业模式的机构。

2025年3月,盛景提出AI RaaS(Result-as-a-Service,结果即服务),即极致化结果导向模式,敢于以结果作为定价、收费或盈利的依据,并将其形象地比喻为“AI业主或AI甲方”,主张只有端到端服务并深度嵌入物理世界,才能真正创造价值。

实际上,世航的商业模式便是盛景促成的。在一次商业组织上,世航创始人陈晓博认识了盛景网联董事长、盛景嘉成创投创始合伙人彭志强,彼此观念和价值观一致,刚起步世航就听从了彭志强的建议,以结果付费为商业模式,并由盛景投资其天使轮。

到底是提供设备,还是提供结果,团队进行过财务测算。“最终,我们发现提供结果是最优方案,因为次数可以无限次拉大,最终结果也将无限大。而对于客户来说,10万洗一次船和花上百万买机器,哪一个决策成本高?显然是后者。”曹颖回忆。

这件事发生在2023年,一个无限机遇和资本环境寒冷相叠加的一个年份。当时30岁左右的年轻科学家陈晓博已经在水下机器人世界探索了18年。商业模式得到验证后,才有了今年年初朱啸虎投资的手笔。据悉,朱啸虎的资源和能力帮助世航打开了局面,朱啸虎则上车了中国最具潜力的水下世界机器人项目。

为什么盛景的响应如此快速?

王湘云告诉我,是SaaS模式的瓶颈推动了这一变革。“我们在上一轮SaaS投资周期的过程中发现,美国SaaS行业发展如火如荼,企业拥有很高的估值,而国内的SaaS产业,无论从收入、估值还是退出,整个链条都面临着巨大的压力和挑战。”总之,一句话:“算不过来账了。”

所以团队得出结论:单纯仿照美国模式在中国不一定行得通,应该将软件逻辑放在产业互联网和更长业务链条中考虑。顺着这个逻辑,盛景也成功投资出了一些企业。

时间来到2022年,ChatGPT推出后,进入AI驱动的新一轮产业周期。盛景观察到,随着AI基础模型的迭代,一些“简单套壳”应用的路会越走越窄,所以,简单的套壳项目长期、可持续的资本价值面临挑战,那需要增强何种能力才能不被吃掉?

于是,盛景的思考结果是:要有强大的场景能力,并以结果来收费。通过投资案例发现,以结果为导向的收费模式能让收入和利润有十倍级增长。盛景在此的投资案例除了世航外,还包括凌云智矿——一家AI矿产勘探公司。

为此,盛景研究院还不断发文,推出“AI RaaS全球案例30”系列,系统拆解标杆企业,为本土创业者提供可借鉴的范式。

这一思路已经得到了不少投资人的认同。资深投资人云客也告诉我:SaaS模式,极有可能在AI时代终结,这背后逻辑包括两点:

一是付费逻辑变化了。SaaS的本质是让用户为工具付费,但工具只是手段,解决不了最终结果。但AI可以直接替代劳动力,所以这是一个远比SaaS大得多的市场。

二是AI最优质的模型都是闭源的,掌握在巨头手中,套了壳的新一代SaaS几乎无法构建护城河。

目前,云客也在找寻这类有商业潜力的企业。

有何标准?

或许不少人会困惑,AI agent按照结果付费,这个衡量标准是什么?

以世航为例。曹颖坦言,公司需要通过实际作业效果,如为客户省油来逐步证明价值,教育市场。这个过程具有挑战性。

曹颖总结,最终能够实现“为结果付费”这一商业模式,核心依赖于以下三大能力:

一是,断崖式领先的硬件与系统集成能力;二,持续迭代与构建壁垒的“燃料”,通过清洗“上千条船”,积累了在不同船型(散货船、集装箱船等)、不同海域(北海、东海、南海)、不同水质、不同季节下的作业数据。这是任何只卖设备或不直接面对终端客户的公司无法获得的;三,服务结果可量化、可验证。

目前,世航已经成为国内拥有最多水下场景数据的公司。“后来者很难追上。”不过,曹颖也介绍,公司在跑通商业模式的过程中基本是“在国内卷,在海外赚钱。”

一方面,国内船东对价格非常敏感,更倾向于选择成本最低的方案,即使服务质量参差不齐。如日本、新加坡等海外市场,人工成本更高,且更认可技术的价值,并愿意为此支付更高的价格,海外客单价能达到国内的“三倍以上”,所以公司目前正积极开拓海外市场。

在国际上,RaaS模式正在多个领域得到实践。Clay、Sierra、11X等公司已从传统软件订阅模式,发展到按任务收费或基于任务与结果的混合定价模式。

由OpenAI董事会主席Bret Taylor创办的AI客服独角兽Sierra尤为激进。它不是一个简单的客服系统,而是一个闭环成交的销售Agent平台,帮助品牌从首问到下单全流程完成销售。

它不光接触客户,更负责转化结果,真正走上“你给我一笔预算,我给你带来多少GMV”的路线。

其中有一个细节更直观:当AI智能体独立解决了来电或在线咨询的需求时,Sierra会收取一次费用;如果最后必须转人工,那这次就是免费的。

“我们很喜欢这种模式,我也认为这会成为智能体的标准商业模式。”Bret Taylor如此表示。Sierra成立于2023年,现已化身为百亿美元估值的独角兽。

Ramp则将这一思路推向极致。这是一家在2019年成立于美国纽约的金融科技公司,它从一张企业信用卡起步,旨在用技术手段颠覆传统企业支出管理方式,帮助企业省时省钱。它不卖企业一个财务系统,而是直接承诺节省多少费用。它的AI能自动识别冗余订阅、谈判降价、预测风险,把“用这个工具的收益”变成KPI。

要总结一个更普适的“结果型产品”的衡量指标的话,在红杉的闭门峰会上,红杉给了三大判断标准:是否能跑完一个完整任务流程;是否具备任务执行中的持久性;是否能交付可衡量的业务价值。

在盛景团队看来,这一模式的普及是一个渐进的过程,按智能度可以分为L1-L4四个等级:

L1代表以线上数字应用为主、偏高度重复、流程清晰、标准化程度较高的短流程业务,比如目前在法律、客服等行业会率先实现应用。L2往往是需要复杂推理和工具调用和整合的长运营流程、并且很多时候会需要调用硬件工具参与落地。L3更偏重帮助客户实现产品和服务的销售闭环,并最终实现销售收入的结果分成,这意味着AI服务的外向型链接能力得到质的提升;L4则跃升为“AI业主”,不仅具备AI服务能力,更借助AI优势成为核心资产或公司价值的主要或部分的“所有者”。

王湘云认为,智能等级更高的业务相当时间内需要AI和高专业能力人进行高质量的协作配合,这是一个更为健康的AI产业化模式。未来随着技术成熟,AI占的比例会逐步提高;在整体推进速度上,市场化程度越高的供应链和价值链,AI RaaS的推进速度会越快。

AI蓝海和泡沫可以同时为真

AI agent产生在AI大模型落地应用之际,也置身于“AI泡沫”的大讨论之中。

2025年下半年,AI资本市场创今年4月份以来最差表现,纳斯达克指数单周跌幅超3%,更加引发了关于AI泡沫的更广泛讨论。

主要在于,OpenAI等头部企业面临巨额研发投入与商业化收入之间的鲜明反差:2024年其研发投入超过150亿美元,但商业化收入却不足30亿美元。

即使能够如Altman预期在2025年底的年收入年化率将超过200亿美元,到2030年增长到数千亿美元,也难以形成正向现金流。

与此同时,AI成本问题也日益凸显。大模型成本每年降10倍的预期,并未能挽救众多AI企业的付费订阅模式。

麻省理工学院的一项研究也引发了大面积的讨论,该研究指出:尽管企业在生成式AI上已经投入了300–400亿美元,但95%的组织尚未取得任何业务回报。

不过,云客强调,这里面有一个逻辑不能搞混了:“通用大模型本身和利用大模型能力赚钱是两件事。前者投入巨大,短期内必定是看不到回报的,它们的目的也并非快速盈利,而是抢占下一代技术革命的战略制高点。前者是属于少数国家队和科技巨头才能玩得起的游戏。而后者才是普通创业者去发力的地方。”

他认为,今年被高估的方向是人形机器人。“这个领域还在快速发展,在未来几年可能会看到突破,但如果期待快速大规模落地,我觉得是大大高估了。技术的发展必须经历几个阶段,没法快速跳过。可以看到,特斯拉也在今年下调了对Optimus的生产预期。”

那么,该如何看待当前的泡沫?

我想或许可以引用Sierra联合创始人兼CEO Bret Taylor在一次访谈里给出的一个明确但复杂的答案:

AI将重塑经济、创造巨大价值;同时,泡沫的确存在,也会有人亏很多钱。两者可以同时为真。

他认为当前的AI泡沫像极了互联网泡沫:确实互联网泡沫时期有很多失败案例,但把时间拉长到30年,我们看到Amazon、Google等巨头诞生,也看到Microsoft的云业务成为市值的重��支柱,更能直观看到互联网对全球GDP的深远影响——1999年的“乐观”,很多其实是方向正确。甚至像当年的Webvan(网上生鲜配送),也在智能手机普及、互联网规模成熟后,以Instacart、DoorDash等健康业务的形态“再现”。很多想法并不糟,只是来得太早。

此外,AI agent为结果付费的探索,会慢慢成为AI创收的新趋势。

总的来说,2025年AI Agent已在多个行业告别概念验证,进入价值兑现的阶段。在AI泡沫的讨论声中,RaaS模式的出现,为行业指明了一条务实的发展路径——AI技术必须回归商业本质,为客户创造可衡量的价值。这条路或许不像无限量融资、堆算力追求SOTA那样引人注目,但却可能更持久,更坚实。

本文来自微信公众号“东四十条资本”,作者:黎曼,36氪经授权发布。

中铁工业将盾构机价格打到原来的三分之一到四分之一

中国是盾构机最大的消费市场,也是盾构机最大的生产国。在《金牌新字号》节目中,中铁智能装备盾构机总装车间相关负责人表示,截止到目前,中铁工业的盾构机已经出口到海外34个国家和地区。20多年前1台盾构机价格7亿元,如今中铁工业成功将盾构机的价格打到了原来的三分之一到四分之一。(央视财经)

Meta收购AI可穿戴公司Limitless

当地时间12月5日,人工智能可穿戴设备初创公司Limitless宣布,公司已被Meta收购。Limitless制造一种小型AI驱动吊坠,可执行记录对话、生成摘要等任务。(界面)

吴清:对于加密资产等新业态要审慎对待,看不清管不住的坚决不展业

12月6日,在中国证券业协会第八次会员大会上,证监会主席吴清围绕证券行业高质量发展发表致辞。吴清指出,证券公司要牢牢抓住提升治理有效性这个关键,把公司治理和股权管理的刚性要求真正落到实处,健全关联交易管理等利益冲突防范机制,坚决防范股东违规干预经营,坚决出清不适格的股东。吴清表示,要进一步加强交易管理,增强穿透管理的能力和针对性,提升不同类型投资者交易服务的公平性,维护好中小投资者合法权益,严防非法套利和扰乱交易秩序。要强化重点领域的风险防范,对融资融券、场外衍生品、私募资管等需要重点关注的业务,异地总部子公司等需要重点关注的机构,信用、流动性以及合规性等重点风险,必须“瞪大眼睛”、做到防患未然;对于加密资产等新业态要深入研判、审慎对待,看不清管不住的坚决不展业,违法违规的坚决不做。(证券时报)

吴清:对少数问题券商要依法从严监管

12月6日,在中国证券业协会第八次会员大会上,证监会主席吴清围绕证券行业高质量发展发表致辞。吴清指出,对中小券商、外资券商,在分类评价准入方面,探索实施差异化监管,促进特色化发展,首先是保障公平。对少数问题券商要依法从严监管,违法要依法从严惩治。(证券时报)

国家网信办就《网络数据安全风险评估办法(征求意见稿)》公开征求意见

36氪获悉,为规范网络数据安全风险评估活动,保障网络数据安全,促进网络数据依法合理有效利用,国家互联网信息办公室起草了《网络数据安全风险评估办法(征求意见稿)》,现向社会公开征求意见。征求意见稿提出,处理重要数据的网络数据处理者应当每年度对其网络数据处理活动开展风险评估。重要数据安全状态发生重大变化可能对数据安全造成不利影响的,应及时对发生变化及其影响的部分开展风险评估。鼓励处理一般数据的网络数据处理者至少每3年开展一次风险评估。

青海油田2025年新能源发电量突破10亿千瓦时

12月5日,从中国石油天然气集团公司青海油田分公司(下称“青海油田”)获悉,青海油田2025年新能源发电量达10.007亿千瓦时。青海油田生产区域位于柴达木盆地,平均海拔超3000米,是世界上海拔最高的油田,油气勘探开发始于1954年,风光资源丰富,但同时也面临生态保护红线与传统业务转型的双重挑战。(中新网)

吴清:证券公司要扛起“看门人”责任 从把好IPO的入口关到全程护航

12月6日,在中国证券业协会第八次会员大会上,证监会主席吴清围绕证券行业高质量发展发表致辞。吴清指出,证券行业要扛起“看门人”责任,从把好IPO的入口关到全程护航,引导上市公司规范经营,提升价值。要提升价值发现培育能力,强化业务协同,提升IPO、并购重组的专业性和影响力,深入参与企业价值创造,注重加强承销保荐和定价的统一建设,促进一二级市场平衡协调发展。要提升财务管理能力,加快与投资者的利益绑定,加快建成以投资者回报为核心的评价体系,推动经纪业务、综合财富管理的转型发展,对各类中长期资金要做好产品、交易、做市、风险管理等全方位支持,完善长钱长投生态,坚持高水平走出去和高水平引进来。(证券时报)

融了20亿的超级独角兽,停工了

作者丨张雪

一则突如其来的通知,为这家自动驾驶超级独角兽按下了暂停键。

11月22日,毫末智行全体在岗员工突然收到主题为“停工放假通知”的内部邮件:基于公司当前的经营现状,决定自11月24日起,公司及分公司全部在职员工进入停工放假状态,具体复工时间将另行通知。

多名员工在媒体和社交软件证实,该通知内容属实,公司已全面进入停摆状态,账户也被冻结。员工最为关心的具体赔偿方案及后续安排尚未明确。

曾几何时,毫末智行曾被看做是美国明星自动驾驶公司Cruise在国内的翻版,没想到,几年之后两家公司的命运也如写好的一般走向了相同的结局——今年2月,Cruise已经退出了历史舞台,其技术遗产被整合进了通用汽车。

从“亲儿子”到“弃子”

成立于2019年的毫末智行,属于自动驾驶赛道的后来者。成立之时,全球自动驾驶行业正处在从盲目狂热到理性追逐的关键期,第一批创业公司也开始进入到落地量产的大考中。所以,无论是行业水温还是资本投入上,毫末智行来的有点晚。

可这些并未成为毫末智行起步的阻力,它甚至以黑马之姿成为了行业焦点。

当然,这主要还是由于其出生便自带光环。与大多数自动驾驶公司不同,毫末智行脱胎于传统车企长城汽车,其前身为长城汽车技术中心智能驾驶前瞻分部。

据报道,2018年,长城汽车董事长魏建军担心在行业转型中掉队,于是开始进行战略和组织架构的调整,其核心之一就是做减法,剥离零部件业务,成立独立的零部件公司并谋求独立上市。

其中自动驾驶是未来竞争的核心,魏建军希望长城汽车也能做到全栈自研,但人才、资金有限,几番权衡下,决定成立毫末智行。

同时毫末智行的高管阵容也堪称豪华,董事长和CIO分别是长城的嫡系老将张凯与甄龙豹,其中张凯曾任长城汽车技术副总工程师、长城汽车智能驾驶系统开发部部长。此外,其CEO是曾任前百度智能汽车事业部总经理顾维灏,有着16年自动驾驶研发经验。这种人员配置也暗含着长城汽车对毫末智行的期待与厚望。

不止如此,毫末智行成立的第二年,长城就针对其发布了咖啡智驾“331战略”,即用三年时间,实现用户规模行业第一、用户体验评价最好、场景功能覆盖最多三个领先,打造智能时代自动驾驶的领导者。与此同时,长城汽车还宣布,旗下子品牌所有的车型都将搭载毫末智行的智驾产品。

至此,长城汽车成为继特斯拉、小鹏汽车之后,全球第三家正式推出全栈自研领航辅助驾驶系统NOH的车企。

背靠大树好乘凉,在技术研发和量产落地方面,毫末智行也做到了后来者居上,成为了中国智驾赛道最被看好的企业之一。

比如构建了自动驾驶数据智能体系MANA,并发布了自动驾驶认知大模型DriveGPT。再比如其HPilot系统成功落地魏牌、哈弗等超过20款车型,2021年底,毫末智行即实现营收上亿元,也成为了中国短期营收增速最快的自动驾驶公司。截至2024年,毫末智行用户智驾总里程已突破2.5亿公里。

但让人没想到的是,短暂的高光之后,毫末智行开始走向了下坡路:新产品交付延迟、长城汽车寻找“备胎”,一系列的危机接踵而至。

在外界看来,毫末智行跌落的直接原因在于城市NOH的迟迟不能落地。这一功能上,毫末智行算是起大早,赶晚集。在2022年,毫末智行就推出了城市NOH,并宣称首搭车型将会是长城魏牌摩卡DHT-PHEV激光雷达版,预计将在当年第四季度上车交付,年底在10个城市落地,2023年使用范围计划扩大到100城。

然而,结果却是魏牌摩卡DHT-PHEV如期上市,但城市NOH功能未如约上线,这也为毫末智行从亲儿子成为弃子埋下了伏笔。

对此,自媒体赛博汽车从接近长城汽车人士处获悉,“毫末给集团保证后,长城汽车一直等着,迟迟无法落地,这让一向要求守信的(长城汽车总裁)穆峰不高兴了,开始对外寻摸,元戎启行主要是穆峰定下来的”。

2024年3月,元戎启行开始为长城汽车提供端到端的智能驾驶方案,并获得了长城汽车的独家投资。不止元戎启行,近两年,长城汽车还与大疆车载(卓驭)展开了深度合作。而随着长城将资源与业务更多向外部供应商倾斜,毫末智行逐渐被边缘化。

高瓴、美团押注,曾计划2025年上市

毫末智行的命运引人唏嘘,回顾其短短的即将满六年的发展历程,也出现了不少投资机构的身影,其背后不仅有长城汽车、美团、高通这样的产业方,还有高瓴、九智、首程控股等财务投资者,以及成都、湖州、张家港这类地方国资。

根据投中嘉川CVsource显示,成立至今,毫末智行共完成了7轮融资,累计融资金额在20亿元左右。其中金额最大的为2021年底官宣的A轮融资,金额为10亿元人民币,投资方为美团、高瓴创投、高通创投、首程控股、九智资本等。这笔融资在当时赚足了眼球,该轮融资后,毫末智行正式迈入独角兽行列,投后估值超10亿美元。

来源:投中嘉川CVSource

同样,这一年也是毫末智行高频率融资的一年,除了A轮融资外,还在2月先后完成了天使轮融资和Pre-A轮融资,其中Pre-A轮融资,由首钢基金领投,美团、高瓴创投等资本跟投。

或许是由于2021年的营收足够亮眼,亦或者,在2021年获得的融资足够多,此后的两年,除了2022年的一次融资外,毫末智行在资本上鲜有动作。

转折发生在2024年,逐步被长城汽车边缘化的毫末智行开始引入外界的资金和订单。2024年初,自动驾驶赛道开年第一笔融资就发生在毫末智行身上,毫末智行官方称这一轮融资为B1轮,总金额过亿元,由成都武发基金投资。两个月后,毫末智行又获得了老股东九智资本和湖州的注资。

可以看到,从B轮开始,毫末智行有意识地在获得地方国资的支持,而这背后与地方的布局与喜好不无关系,更深层的可能是其已经有了IPO时间表。

据公开资料显示,毫末智行最早在2020年就提出了登陆科创板进行IPO的计划,并期望2023年成功IPO,不过碍于科创板上市审核收紧,这一计划未能如愿。2023年,市场又传出毫末智行考虑2024年在香港上市的消息,当时预期募资3亿至4亿美元,不过很快就没有了下文。

2024年10月,有消息指出魏建军在内部叫停了毫末智行赴港IPO的计划,对此,毫末智行董事长张凯予以否认,并明确给出了上市时间表,“应该是2025年”。而最终结果显而易见,毫末智行没等来IPO,也没等来融资的救命钱。

在股权方面,透过层层穿透,毫末智行的实控人,仍为长城汽车股份有限公司董事长魏建军,除了长城系,第二大股东为张家港,持股12.19%,而高瓴创投、美团、高通分别持股约5.28%、3.61%和持股0.90%。

动荡已持续近一年

虽然毫末智行陷入停摆,在外界看来是突然的,但内部动荡早已浮现。

早在去年,就有爆料指出毫末智行启动了裁员计划,那次裁员的规模虽不小,不过没到伤筋动骨的局面,毕竟还按照“N+1”的标准向被裁员工进行补偿,毫末智行也回应称是“公司正进行正常的组织架构调整”。

时间进入2025年,毫末智行开始频现高层出走的戏码。4月,毫末智行技术副总裁艾锐、产品副总裁蔡娜、智行品牌官王佳先后选择离开,不久后甚至传出了董事长张凯也要离职的消息。尽管这一消息很快得到了张凯本人的否认,可这依旧不能安抚人心。

据员工反映,今年十月份公司现金流已十分紧张,高层此前安抚大家所说的“正在融资”迟迟未能兑现。原定于10月25日发放的9月工资,直至10月底仍未到账,且公司未给任何说法。

在业务层面,毫末智行的两大主力业务——乘用车辅助驾驶和末端物流低速无人驾驶,均面临严峻挑战。前者业务上,毫末智行仅有两款车型项目,计划于2025年交付。而后者在2025年销售目标骤降,业务似乎已进入“清库存阶段”。

去年11月29日,在成立五周年之际,毫末高层在内部信中曾预判,行业将进入“你死我活”的竞争期,号召全员保持危机意识,要咬紧牙关。

现在想来,这一预判的确有前瞻性,不久前投中网在《一家企业融到C13轮了》中提到,自动驾驶的投资热度正在回归,不仅一个月内融资金额超100亿,资金流向也更加向巨头收敛,马太效应明显。

不幸的是,即便提前预判到了行业走向,毫末高层也未能将公司救出水火,未来毫末智行是走向更糟的境地,还是像Cruise一样被整车厂收编,现在主动权已经交给了长城汽车。它的遭遇,也为所有依附于单一巨头的“创二代”公司敲响了警钟。

本文来自微信公众号“投中网”,作者:张雪,36氪经授权发布。

特朗普称美式橄榄球应改名:这个才是足球,我们应该给NFL想个别的名字

当地时间12月5日,美国总统特朗普出席了在美国首都华盛顿举行的2026年美加墨世界杯决赛阶段抽签仪式。特朗普在抽签仪式上表示,应该给美式橄榄球(American football)改名,以免和“真正的足球(football)”相混淆。 在大多数国家,足球都被称为“football”,然而,这项运动在同样广泛使用英语的美国却长期有着“soccer”的名称。(环球网)

吴清:证券公司要提供有利于长期投资、价值投资的产品

12月6日,在中国证券业协会第八次会员大会上,证监会主席吴清围绕证券行业高质量发展发表致辞。吴清指出,在新的经济社会结构变化下,证券公司和投资机构在权益投资、价格发现、风险管理等方面专业优势明显,要对接投资者不同的风险偏好、不同规模、不同期限的多元化需求,提供更加丰富、更加精准、更有利于长期投资、价值投资的产品,与投资者共进共赢。(证券时报)

吴清:证券行业要更好服务实体经济和新质生产力

12月6日,在中国证券业协会第八次会员大会上,证监会主席吴清围绕证券行业高质量发展发表致辞。吴清指出,以人工智能、生物医药、绿色能源等为代表的新一代科技革命加速突破,在此过程中,企业创新主体的地位更加突出,证券公司连接资本市场和实体企业,具有扎实完备的研究体系、专业化的价值评估和风险定价能力,证券公司在发现企业创新潜力、匹配投融资发展需要、支持产业并购整合等方面发挥着不可替代的作用,构成了资本市场价格发展、资源配置和功能发挥的微观基础,服务实体经济和新质生产力是时代赋予证券行业的使命。(证券时报)

A股投资者总数已超过2.4亿

从中国证券业协会第八次会员大会了解到,证券行业规模持续扩容,107家证券公司总资产达14.5万亿元、净资产3.3万亿元,4年多来分别增长超50%、40%,客户数量超2.4亿,同比增长26%。(财联社)

吴清:证券公司要强化四方面使命担当

12月6日,在中国证券业协会第八次会员大会上,证监会主席吴清围绕证券行业高质量发展发表致辞。吴清指出,要把握“十五五”时期证券行业的使命责任,投资银行、证券公司应该发挥重要作用:一是服务实体经济和新质生产力发展方面强化使命担当;二是更好服务投资者,在服务居民资产优化配置方面强化使命担当;三是在加快建设金融强化方面强化使命担当;四是在促进高水平制度性开放方面强化使命担当。(证券时报)

吴清:不断提升证券行业的适应性和竞争力

12月6日,在中国证券业协会第八次会员大会上,证监会主席吴清围绕证券行业高质量发展发表致辞。吴清指出,只有坚持防风险、强监管、促高质量发展的主线,只有始终守正创新,与时俱进,不断提升证券行业的适应性和竞争力,才能在纷繁复杂的环境和变化中平稳致远。吴清指出,对照经济社会高质量发展的内在要求,证券行业的整体实力有待提升,专业水平和创新能力存在短板,合规风控体系有待完善,行业文化建设有待加强,要正视不足,久久为功,奋发有为。(证券时报)

吴清:A股实现了量的合理增长和质的有效提升

12月6日,在中国证券业协会第八次会员大会上,证监会主席吴清围绕证券行业高质量发展发表致辞。吴清指出,今年以来,A股市场总体活跃,市值从8月份开始超过100万亿,实现了量的合理增长和质的有效提升。吴清表示,证券机构是资本市场链接投融资各方最重要的桥梁,对市场功能和生态完善发挥至关重要。证券公司总资产达到14.5万亿元,净资产约3.3万亿元,四年多来,增长分别超过60%和40%,服务1200多家科技创新企业上市。证券行业结构不断优化,包括国泰海通合并等标志性案例平稳的推动,1+1>2的效果初步实现。中小机构聚焦细分赛道取得突破,向差异化、特色化发展转变。外资机构在境内业务加快布局,对外开放进一步推进,有11家外资独资或控股的公司在华开展业务,展业兴业。(证券时报)

刚刚,英伟达CUDA迎来史上最大更新!

几个小时前,NVIDIA CUDA Toolkit 13.1 正式发布,英伟达官方表示:「这是 20 年来最大的一次更新。」

英伟达社媒

这个自 2006 年 CUDA 平台诞生以来规模最大、最全面的更新包括:

NVIDIA CUDA Tile 的发布,这是英伟达基于 tile 的编程模型,可用于抽象化专用硬件,包括张量核心。

Runtime API exposure of green contexts(是指把所谓的 Green Context「指轻量级的、可并发调度的上下文或执行环境」暴露给外部调用者使用。)

NVIDIA cuBLAS 中的双精度和单精度仿真。

一本完全重写的 CUDA 编程指南 ,专为 CUDA 新手和高级程序员设计。

下面我们就来具体看看。

CUDA Tile

CUDA Tile 是 NVIDIA CUDA Toolkit 13.1 最核心的更新。它是一种基于 tile 的编程模型,能够以更高的层次编写算法,并抽象化专用硬件(例如张量核心)的细节。

英伟达社媒

解读 CUDA Tile 的核心概念

英伟达博客解释说:CUDA Tile 可让开发者在高于 SIMT(单指令多线程)的层级编写 GPU 核函数。

在目前的 SIMT 编程中,开发者通常通过划分数据并定义每个线程的执行路径来指定核函数。

而借助 CUDA Tile,开发者可以提升代码的抽象层级,直接指定被称为「Tile」的数据块。只需指定要在这些 Tile 上执行的数学运算,编译器和运行时环境会自动决定将工作负载分发到各个线程的最佳方式。

这种 Tile 模型屏蔽了调用 Tensor Core 等专用硬件的底层细节,并且 Tile 代码将能够兼容未来的 GPU 架构。

CUDA 13.1 包含两个用于 Tile 编程的组件:

CUDA Tile IR:一种用于 NVIDIA GPU 编程的全新虚拟指令集架构(ISA)。

cuTile Python:一种新的领域特定语言(DSL),用于在 Python 中编写基于数组和 Tile 的核函数。

底层细节

编译的 Tile 路径可以融入完整的软件栈,与 SIMT 路径对应。

这是该软件的首个版本,其包含以下注意事项:

CUDA Tile 仅支持 NVIDIA Blackwell(计算能力 10.x 和 12.x)系列产品。未来的 CUDA 版本将扩展对更多架构的支持。

目前的开发重点聚焦于 AI 算法的 Tile 编程。英伟达表示在未来的 CUDA 版本中将持续增加更多特性、功能并提升性能。

英伟达计划在即将发布的 CUDA 版本中引入 C++ 实现。

为什么要为 GPU 引入 Tile 编程?

CUDA 向开发者提供了单指令多线程(SIMT)硬件和编程模型。这种模式要求(同时也允许)开发者以最大的灵活性和针对性,对代码的执行方式进行细粒度控制。然而,编写高性能代码往往需要付出巨大的心力,尤其是在需要适配多种 GPU 架构的情况下。

尽管已有许多库(如 NVIDIA CUDA-X 和 NVIDIA CUTLASS)旨在帮助开发者挖掘性能,但CUDA Tile 引入了一种比 SIMT 层级更高的新型 GPU 编程方式。

随着计算工作负载的演进,特别是在 AI 领域,张量已成为一种基础数据类型。NVIDIA 开发了专门用于处理张量的硬件,例如 NVIDIA Tensor Core(TC)和 NVIDIA Tensor Memory Accelerator(TMA),它们现已成为每个新 GPU 架构中不可或缺的组成部分。

硬件越复杂,就越需要软件来帮助驾驭这些能力。CUDA Tile 对 Tensor Core 及其编程模型进行了抽象,使得使用 CUDA Tile 编写的代码能够兼容当前及未来的 Tensor Core 架构。

基于 Tile 的编程方式允许开发者通过指定数据块(即 Tile),然后定义在这些 Tile 上执行的计算来编写算法。开发者无需在逐元素的层面上设定算法的执行细节:编译器和运行时将处理这些工作。

下图展示了随 CUDA Tile 推出的 Tile 模型与 CUDA SIMT 模型之间的概念差异。

Tile 模型与 CUDA SIMT 模型之间的概念差异

Tile 模型(左)将数据划分为多个块,编译器将其映射到线程。单指令多线程(SIMT)模型(右)将数据同时映射到块和线程

这种编程范式在 Python 等语言中很常见,在这些语言中,像 NumPy 这样的库可以让开发者指定矩阵等数据类型,然后用简单的代码指定并执行批量操作。

CUDA 软件更新

以下是本次 CUDA 版本更新中包含的其他重要软件改进:

运行时对 Green Context(绿色上下文)的支持

CUDA 中的 Green Context 是一种轻量级的上下文形式,可作为传统 CUDA 上下文的替代方案,为开发者提供更细粒度的 GPU 空间划分与资源分配能力。

自 CUDA 12.4 起,它们已在驱动 API 中提供;而从本版本开始,Green Context 也正式在运行时 API 中开放使用。

Green Context 使用户能够定义和管理 GPU 资源的独立分区,主要是 Streaming Multiprocessors(SM)。你可以将特定数量的 SM 分配给某个特定的 Green Context ,然后在该 context 所拥有的资源范围内启动 CUDA kernel 并管理只在此 context 内运行的 stream。

一个典型的应用场景是:你的程序中有部分代码对延迟极为敏感,并且需要优先于其他所有 GPU 工作执行。通过为这段代码单独创建一个 Green Context 并分配 SM 资源,而将剩余的 SM 分配给另一个 Green Context 处理其他任务,你就能确保始终有可用的 SM 供高优先级计算使用。

CUDA 13.1 还引入了更加可定制的 split () API。开发者可以通过这一接口构建此前需要多次 API 调用才能完成的 SM 分区,并且可以配置工作队列,从而减少不同 Green Context 之间提交任务时产生的伪依赖(false dependencies)。

有关这些功能及 Green Context 的更多信息,请参见 CUDA Programming Guide。

CUDA 编程指南地址:https://docs.nvidia.com/cuda/cuda-programming-guide/04-special-topics/green-contexts.html

CUDA 多进程服务(MPS)更新

CUDA 13.1 为多进程服务带来了多项新特性和功能。有关这些新功能的完整信息,请参阅 MPS 文档。以下是部分亮点内容:

内存局部性优化分区

内存局部性优化分区(Memory locality optimization partition,MLOPart)是 NVIDIA Blackwell 系列(计算能力 10.0 和 10.3,为架构版本号)及更新 GPU 上提供的一项特性。

该功能允许用户创建专门优化内存局部性的 CUDA 设备。MLOPart 设备基于同一块物理 GPU 派生而来,但呈现为多个独立设备,每个设备拥有更少的计算资源和更小的可用内存。

在计算能力 10.0 和 10.3 的 GPU 上,每块 GPU 都包含两个分区。

当在 GPU 上启用 MLOPart 时,每个分区都会作为一个独立的 CUDA 设备出现,并具有其对应的计算与内存资源。

目前,MLOPart 仅支持 NVIDIA B200 与 NVIDIA B300 系列产品。未来的 CUDA 发布版本将加入对 NVIDIA GB200 与 NVIDIA GB300 系列的支持。

静态流式多处理器(SM)分区

作为 MPS 中现有的动态执行资源供给(provisioning)的一种替代方案,静态流式多处理器(SM)分区是针对 NVIDIA Ampere 架构(计算能力 8.0)及更新 GPU 的一项特性,它为 MPS 客户端提供了一种创建独占 SM 分区的方法。

该模式通过使用 -S 或 --static-partitioning 标志启动 MPS 控制守护进程来启用,其主要目的是提供确定性的资源分配,并改善 MPS 客户端之间的隔离性。分区的基本单位是一个「Chunk」(块),其大小根据 GPU 架构而异 —— 例如,在 Hopper(计算能力 9.0)及更新的独立 GPU 上,一个 Chunk 包含 8 个 SM。

cuBLAS 中的双精度和单精度模拟

虽然严格来说这不属于 CUDA 13.1 的更新,但 NVIDIA CUDA Toolkit 13.0 中的 cuBLAS 更新引入了新的 API 和实现,旨在提升双精度(FP64)矩阵乘法(matmul)的性能。

这是通过在 NVIDIA GB200 NVL72 和 NVIDIA RTX PRO 6000 Blackwell Server Edition 等 GPU 架构的 Tensor Core 上进行浮点(FP)模拟来实现的。

开发者工具

开发者工具是 CUDA 平台的重要组成部分。此次发布带来了多项创新和功能增强,包括:

CUDA Tile 核函数性能分析工具

在摘要页新增「Result Type」(结果类型)列,用于区分 Tile 核函数与 SIMT 核函数。

详情页新增「Tile Statistics」(Tile 统计)部分,总结 Tile 维度和重要管线(pipeline)的利用率。

源码页支持将指标映射到高层级的 cuTile 核函数源码。

源码页

Nsight Compute 分析,重点展示了分析输出中的 Tile Statistics 部分

此次发布的 Nsight Compute 还增加了对设备端启动的图(device-launched graphs)中 CUDA 图节点的分析支持,并改进了源码页导航,为编译器生成和用户生成的标签提供了可点击的链接。

编译时修补

NVIDIA Compute Sanitizer 2025.4 通过 -fdevice-sanitize=memcheck 编译器标志,增加了对 NVIDIA CUDA 编译器(NVCC)编译时修补(patching)的支持。这种修补增强了内存错误检测能力,并提升了 Compute Sanitizer 的性能。

编译时插桩(instrumentation)可将错误检测直接集成到 NVCC 中,从而实现更快的运行速度,并通过高级的基址 - 边界分析(base-and-bounds analysis)捕捉更隐蔽的内存问题(如相邻分配间的非法访问)。这意味着开发者可以在不牺牲速度的情况下调试内存问题,运行更多测试并保持生产力。目前,该功能仅支持 memcheck 工具。

要使用此新功能,请使用如下 NVCC 标志编译代码:

nvcc -fdevice-sanitize=memcheck -o myapp myapp.cu

然后使用 memcheck 工具运行你的应用:

compute-sanitizer --tool memcheck myapp

NVIDIA Nsight Systems

NVIDIA Nsight Systems 2025.6.1 与 CUDA Toolkit 13.1 同步发布,带来了多项新的追踪功能:

系统级 CUDA 追踪:--cuda-trace-scope 可开启跨进程树或整个系统的追踪。

CUDA 主机函数追踪:增加了对 CUDA Graph 主机函数节点和 cudaLaunchHostFunc () 的追踪支持,这些函数在主机上执行并会阻塞流(stream)。

CUDA 硬件追踪:在支持的情况下,基于硬件的追踪现在成为默认模式;使用 --trace=cuda-sw 可恢复为软件模式。

Green Context 时间轴行现在会在工具提示中显示 SM 分配情况,帮助用户理解 GPU 资源利用率。

数学库

核心 CUDA 工具包数学库的新功能包括:

NVIDIA cuBLAS:一项全新的实验性 API,支持 Blackwell GPU 的分组 GEMM 功能,并兼容 FP8 和 BF16/FP16 数据类型。针对上述数据类型,支持 CUDA 图的分组 GEMM 提供了一种无需主机同步的实现方式,其设备端形状可实现最高 4 倍的加速,优于 MoE 用例中的多流 GEMM 实现。

NVIDIA cuSPARSE:一种新的稀疏矩阵向量乘法 (SpMVOp) API,与 CsrMV API 相比性能有所提升。该 API 支持 CSR 格式、32 位索引、双精度以及用户自定义的后缀。

NVIDIA cuFFT:一套名为 cuFFT 设备 API 的全新 API,提供主机函数,用于在 C++ 头文件中查询或生成设备功能代码和数据库元数据。该 API 专为 cuFFTDx 库设计,可通过查询 cuFFT 来生成 cuFFTDx 代码块,这些代码块可以与 cuFFTDx 应用程序链接,从而提升性能。

针对新的 Blackwell 架构,现已推出性能更新。用户可选择关键 API 进行更新,并查看性能更新详情。

cuBLAS Blackwell 性能

CUDA Toolkit 12.9 在 NVIDIA Blackwell 平台上引入了块缩放的 FP4 和 FP8 矩阵乘法。CUDA 13.1 增加了对这些数据类型和 BF16 的性能支持。图 2 显示了在 NVIDIA Blackwell 和 Hopper 平台上的加速比。

在 NVIDIA Blackwell 和 Hopper 平台上的加速比

cuSOLVER Blackwell 性能

CUDA 13.1 继续优化用于特征分解的批处理 SYEVD 与 GEEV API,并带来了显著的性能增强。

其中,批处理 SYEV(cusolverDnXsyevBatched) 是 cuSOLVER 中 SYEV 例程的统一批处理版本,用于计算对称/Hermitian 矩阵的特征值与特征向量,非常适合对大量小矩阵进行并行求解的场景。

图 3 展示了在批大小为 5,000(矩阵行数 24–256)的测试结果。与 NVIDIA L40S 相比,NVIDIA Blackwell RTX Pro 6000 Server Edition 实现了约 2 倍的加速,这与预期的内存带宽提升相吻合。

在批大小为 5000(矩阵行数 24–256)的测试结果

对于复数单精度和实数单精度两类矩阵,当行数N = 5时,加速比约为1.5×,并随着行数增大逐渐提升,在N = 250 时达到 2.0×。

图 4 显示了 cusolverDnXgeev (GEEV) 的性能加速比,该函数用于计算一般(非对称)稠密矩阵的特征值和特征向量。GEEV 是一种混合 CPU/GPU 算法。单个 CPU 线程负责在 QR 算法中执行高效的早期降阶处理,而 GPU 则处理其余部分。图中显示了矩阵大小从 1,024 到 32,768 的相对性能加速比。

cusolverDnXgeev (GEEV) 的性能加速比

当矩阵行数n = 5000时,加速比约为1.0,并随着矩阵规模增大逐渐提升,在n = 30000 时达到约 1.7。

NVIDIA CUDA 核心计算库

NVIDIA CUDA Core 计算库 (CCCL) 为 CUB 带来了多项创新和增强功能。

确定性浮点运算简化

由于浮点加法不具备结合律,cub::DeviceReduce 历史上只能保证在同一 GPU 上每次运行得到位上完全相同的结果。这被实现为一个两遍算法。

作为 CUDA 13.1 的一部分, NVIDIA CCCL 3.1 提供了两个额外的浮点确定性选项,您可以根据这些选项在确定性和性能之间进行权衡。

不保证:使用原子操作进行单次归约。这不能保证提供位上完全相同的结果。

GPU 间:基于 Kate Clark 在 NVIDIA GTC 2024 大会上演讲中可复现的降维结果。结果始终逐位相同。

可以通过标志位设置确定性选项,如下面的代码所示。

演示代码

数据对比

更便捷的单相 CUB API

几乎所有 CUB 算法都需要临时存储空间作为中间暂存空间。过去,用户必须通过两阶段调用模式来查询和分配必要的临时存储空间,如果两次调用之间传递的参数不一致,这种模式既繁琐又容易出错。

CCCL 3.1 为一些接受内存资源的 CUB 算法添加了新的重载,从而用户可以跳过临时存储查询 / 分配 / 释放模式。

演示代码

CUDA Tile 资源链接:https://developer.nvidia.com/cuda/tile

CUDA Toolkit 13.1 下载地址:https://developer.nvidia.com/cuda-downloads

参考链接

https://developer.nvidia.com/blog/focus-on-your-algorithm-nvidia-cuda-tile-handles-the-hardware

https://developer.nvidia.com/blog/nvidia-cuda-13-1-powers-next-gen-gpu-programming-with-nvidia-cuda-tile-and-performance-gains

https://x.com/NVIDIAAIDev/status/1996976702732620271

https://developer.nvidia.com/blog/simplify-gpu-programming-with-nvidia-cuda-tile-in-python

© THE END

本文来自微信公众号“机器之心”,36氪经授权发布。

天顺风能:射阳二期及德国基地建设在推进中,尚未投产

36氪获悉,天顺风能在互动平台表示,目前阳江基地处于试投产阶段、射阳二期及德国基地建设推进中,尚未投产。当海工营收业绩提升、产能利用率达较高水平时,有望迎来盈利拐点。但受订单获取、项目交付节奏等影响,暂无法明确具体营收规模、产能利用率及时间表,后续将依各基地进展及市场情况披露。
❌