普通视图

发现新文章,点击刷新页面。
今天 — 2026年1月18日首页

猎头黄仁勋的2025:高管从巨头挖,干活钟爱华人创业团队

2026年1月18日 14:30

henry 发自 凹非寺量子位

已经是全球市值第一了,还怎么继续往上走?

英伟达给出的答案很简单:挖人,挖更多的人。

过去的2025年,黄仁勋一边扩编管理层,一边掏钱收团队——

从挖角市场、政策、人力资源高管,到收购初创公司“打包”引入技术负责人,一套典型的“黄氏挖人+黄氏收购”正在成型。

不止芯片,用挖人重塑“第二增长曲线”

2025财年,英伟达营收1305亿美元,较前一财年增长逾一倍,成为科技史上的增长奇迹。

与此同时,英伟达正在用挖人重塑自己的“第二增长曲线”:

一方面系统性“挖人”,补齐市场、政策、研究与组织管理等关键能力。

另一方面则通过收购初创公司,直接将核心技术负责人和软件骨干纳入体系。

在挖人方面,英伟达过去一年新引入的多位高管,覆盖了全球市场与品牌人力资源量子计算研究,以及网络安全与政策等关键位置。

Alison Wagonfeld

在今年最新的人事动作中,英伟达把“挖人”的铲子伸向了谷歌。

据悉,英伟达将聘请谷歌云老将Alison Wagonfeld出任公司首位首席营销官(Chief Marketing Officer,CMO)

Alison Wagonfeld

Wagonfeld于今年2月正式履新,将此前分散在多位高管手中的相关职责,统一整合,全面负责英伟达的市场与传播工作。

(注:英伟达此前从未设立过专职的首席营销官(CMO),相关团队负责人通常向市场营销副总裁汇报,而非由一位CMO统一管理)

履新后,英伟达市场与传播团队的所有成员,将统一向Wagonfeld汇报,而她则直接向黄仁勋汇报。

在加入英伟达之前,Wagonfeld曾担任谷歌集团的营销副总裁以及谷歌云(Google Cloud)这一核心业务线的首席营销官。

在谷歌的十年间,她一手将谷歌云从2016年一个充满潜力的初创项目,建设成为如今年化收入运行率达600亿美元的成熟业务。

Alison Wagonfeld工作经历

这段经历,也完美契合了英伟达当前从“卖芯片”走向“卖系统、卖平台”的发展阶段。

据相关报道,此次加入英伟达,Wagonfeld的任务不只是对外传播,分担黄仁勋皮衣的压力,更是在下一阶段竞争的叙事中(由训练转向推理),帮助公司在各级客户中,建立更清晰、可持续的市场叙事。

Kristin Major

在人力资源这条线上,英伟达选择了一位传统科技公司体系中走出来的老将。

慧与老将Kristin Major于去年2月加入英伟达,出任人力资源高级副总裁,进入黄仁勋直接主导的执行领导团队。

Kristin Major

在人力资源这一块,Kristin Major是正儿八经的老资历。

在加入英伟达之前,她在慧与科技(HPE)任职超过13年,先后负责人力资源与人才管理相关事务,最终做到执行副总裁兼首席人才官。

Kristin Major工作经历

在慧与,她长期负责人力资源管理的多个核心业务单元,包括GreenLake、Aruba Networking以及HPE转型办公室。

Krysta Svore

在量子计算方向,英伟达同样把“挖人”的目光投向了微软

去年11月,英伟达从微软挖来量子计算领域核心人物Krysta Svore,出任应用研究副总裁(量子计算方向)

Krysta Svore

据Krysta领英介绍,她将负责覆盖整个量子技术栈的应用研究与工程工作,重点推进量子纠错、系统架构以及 AI 加速的量子工作流,加速量子计算生态的成熟。

在加入英伟达前,她在微软工作近20年,曾任Technical Fellow高级量子研发副总裁,是微软量子计算战略的关键负责人之一。

她主导的工作包括:

将首批量子计算机接入Azure平台

推动量子软件与算法的前沿发展

打造开源量子软件技术栈

设计可扩展的量子体系架构

不仅如此,她还曾在2024年与Quantinuum、Atom Computing的合作中,首次展示了错误率优于物理比特的逻辑量子比特。

可以说,这次从微软挖来Krysta Svore,也正好踩在英伟达量子布局加速期。

一方面,英伟达正在建设量子研究中心;另一方面,其开始推动开源CUDA-Q平台在全球量子项目中落地,并与多家量子创新机构展开合作,试图打通经典计算与量子计算的融合路径。

Mark Weatherford

Mark Weatherford于2025年8月加入英伟达,担任网络安全政策与战略合作负责人。

Mark Weatherford

在加入英伟达之前,他曾在多个公共和私营部门担任网络安全高管。

他先后出任科罗拉多州、加利福尼亚州的首席信息安全官,并在北美电力可靠性公司(NERC)担任副总裁兼首席安全官,直接参与电力行业关键基础设施网络安全标准的制定与落地。

在私营领域,他还在Booking Holdings、Coalfire、The Chertoff Group等公司负责网络安全战略与政策工作,近年还在Gretel担任AI政策与标准相关职务。

当然了,也没有只准老黄挖别人,不准别人挖老黄的道理。

在2025年,英伟达也有多位重要高管流出。

其中,英伟达前机器人研究高级总监、西雅图实验室负责人Dieter Fox离职,加入Allen Institute for AI(Ai2),出任高级研究总监。

该岗位目前由英伟达机器人研究经理Yash Narang接任。

而在自动驾驶方向,原负责自动驾驶软件与 AI 的副总裁Minwoo Park则转投现代汽车集团,出任高级车辆平台(AVP)部门负责人兼公司总裁,同时担任自动驾驶子公司42dot CEO。

老黄的收购式招聘

除去从谷歌、微软等巨头挖来的资深高管,黄仁勋在2025年的另一条人事主线是收购式招聘

所谓“收购式招聘”,就是通过并购初创公司,直接吸纳其核心团队与关键技术,把人才、产品和路线全部打包带回英伟达。

在这一策略下,老黄更青睐那些技术已跑通、工程能落地,但还没来得及规模化的团队,其中相当一部分来自华人创业者。

焦建涛(Jiantao Jiao)

首先来看一例典型的“收购式招聘”——

为强化在AI Agent、企业生成式AI和高效推理领域的布局,英伟达于去年6月完成对Nexusflow的收购。

随交易一并加入的,还有创始人、CEO焦建涛、联合创始人朱邦华、CTOJian Zhang等核心成员。

黄仁勋与焦建涛

收购完成后,清华校友、2011年本科特奖得主焦建涛,出任英伟达研究总监,负责AI后训练(post-training)、评测、智能体(agents)以及相关基础设施。

同为清华出身的朱邦华担任Principal Research Scientist,CTO Jian Zhang则出任应用研究总监,Nexusflow的原班技术核心被整体并入英伟达。

在并入英伟达前,Nexusflow于2023年9月完成1060万美元种子轮融资,投后估值5300万美元,投资者包括Point72 Ventures和Fusion Fund,英伟达曾通过Together AI等生态联系加强合作。

王尚

与Nexusflow同期被收购的还有CentML,这一收购旨在补强CUDA工具链与模型部署效率,让开发者用更低成本、更高效率,把模型真正跑起来。

CentML最终被黄仁勋以超过4亿美元的总价收入麾下,和Nexusflow一样,这同样是一笔典型的“收购式招聘”:

包括95后华人CTO王尚在内的4位联合创始人,以及15余名工程师整体并入英伟达体系,直接进入其AI软件与系统团队。

王尚

具体来看,前CentML CEOGennady Pekhimenko出任英伟达AI软件高级总监,前 COOAkbar Nurlybayev担任AI软件高级经理

王尚负责AI系统软件管理,首席架构师Anand Jayarajan也同步担任工程经理。此外,至少还有18名技术人员完成派遣转入。

CentML成立于2022年,总部位于多伦多,专注于AI模型优化软件,帮助提升GPU利用率并降低训练/推理成本。

其核心技术是Hidet编译器(张量编译器),能自动融合算子、优化调度,利用CUDA Graph释放GPU潜能,最高可将推理速度提升8倍,支持PyTorch 2.0集成。

贾扬清

此外,为强化在云算力租赁、AI平台和垂直一体化上的布局,英伟达还于去年4月以数亿美元完成对云服务平台LeptonAI的收购。

收购后,LeptonAI创始人、前阿里VP贾扬清加入英伟达,担任系统软件副总裁(VP, System Software),负责统筹公司底层系统软件和开发者平台建设,联合创始人白俊杰也同步加入。

贾扬清

Lepton AI成立于2023年,种子轮融资1100万美元,致力于为企业提供高效、可扩展的AI应用平台,使普通开发者仅用2~3行命令就能部署AI模型。

该公司曾在2023年12月推出对话式搜索引擎,代码量不到500行;2024年6月上线的云GPU解决方案,则主打经济高效和可靠性。

Rochan Sankar

AI硬件初创公司Enfabrica的收购式招聘同样值得关注。

Rochan Sankar

去年9月,英伟达以超过9亿美元的价格,通过一笔acqui-hire交易,引入Enfabrica创始人兼 CEORochan Sankar及其核心团队,并同步获得相关技术授权。

Enfabrica成立于2019年,其技术可将超过10万块GPU连接成统一计算系统,而这项能力,正好补在英伟达从“卖芯片”迈向“卖整机、卖系统”的关键一环。

在被收购前,Enfabrica已完成多轮融资,背靠Arm、三星、思科等产业资本,是一支技术与工程路径均已被验证的成熟团队。

Danny Auble

开源工作负载管理领域,英伟达去年通过收购Slurm的主要开发方SchedMD,再一次完成了典型的“收购式招聘”。

Danny Auble

Slurm是一款面向高性能计算(HPC)与AI的开源工作负载管理与作业调度系统,长期用于管理大规模计算集群中的任务排队、调度与资源分配,是当前超算与AI训练基础设施中的核心软件之一。

(Slurm已支持最新的英伟达硬件,同时也是生成式 AI 所依赖的关键基础设施之一,被基础模型开发者和AI构建者广泛用于管理模型训练与推理任务)

通过此次收购,SchedMD创始人Danny Auble加入英伟达,现任系统软件高级总监(Senior Director of System Software),继续负责Slurm相关方向的系统软件工作。

Jonathan Ross和Sunny Madra

最近的一笔“收购招聘”(准确来说是技术授权)刚发生不久,来自去年年底,英伟达与Groq的一笔交易。

详见良心老黄不搞硅谷资本家那套!Groq人均套现500万美元

英伟达于12月聘请了Groq创始人、TPU之父Jonathan Ross以及COOSunny Madra,并带走了大约90%的工程团队。

Jonathan Ross

Sunny Madra

此前,英伟达与其完成了一笔200亿美元交易,不仅获得Groq的推理技术授权,还将核心团队纳入麾下。

这笔交易被视为AI市场从“训练”向“推理”阶段转移的重要信号。

Groq官方表示,尽管核心团队加入英伟达,公司仍将保持独立运营,原CFOSimon Edwards担任CEO,云服务平台GroqCloud继续对外提供服务。

这笔交易也体现了英伟达的 “收购式招聘”策略:

既拿下关键技术,又顺带吸纳顶尖人才,同时以体面的方式兑现员工和股东利益。员工平均套现约500万美元,股东按200亿美元估值获得分红。

截至目前,以色列明星模型公司AI21 Labs的收购招聘也仍在进行中,预计这笔收购将高达20-30亿美金。

与此同时,也有消息称,英伟达正洽谈收购国内仿真合成数据龙头光轮智能,以补齐其Physical AI战略中的关键环节——

从芯片到平台,再到数据与服务,形成更完整的生态闭环。

综合来看,这些频繁的人事变动清晰地勾勒出英伟达的战略版图:

通过吸纳顶级人才与并购高成长初创团队,英伟达正迅速超越单一的GPU硬件供应商身份,构建起一套“软硬一体”的系统级全栈平台。

其在AI推理优化、Agent智能体落地及算力调度上的精准发力,不仅巩固了存量市场的统治力,更通过在量子计算、数据服务与网络安全、物理AI等领域的提前布局,为下一波AI红利的爆发预留了接口。

这正呼应了黄仁勋在CES 2026上的“舵手”宣言:

英伟达是AI产业的“船长”,引领着全球的供应链和合作伙伴。

参考链接

[1]https://www.businessinsider.com/nvidia-leaders-gained-lost-staff-tech-2026-1

[2]https://onpartners.com/news/nvidia-names-former-hewlett-packard-enterprise-svp-human-resources-and-chief-talent-officer-as-senior-vice-president-human-resources/

[3]https://www.cnbc.com/2025/09/18/nvidia-spent-over-900-million-on-enfabrica-ceo-ai-startup-technology.html

[4]https://blogs.nvidia.com/blog/nvidia-acquires-schedmd/

本文来自微信公众号“量子位”,作者:关注前沿科技,36氪经授权发布。

大面积取消航班,印度最大航司被罚245万美元

2026年1月18日 14:28
印度民航总局17日宣布对印度靛蓝航空公司处以创纪录的245万美元罚款,作为对该航司2025年12月大面积取消航班的处罚。这一监管机构还向靛蓝航空多名高管发出警告,并要求撤换运营控制部门负责人。(新华社)

80后最爱喝的啤酒 , 要破产了?

2026年1月18日 14:00

一个老牌啤酒厂商,也开始了破产重整的自救之路。

近日,山东泰山啤酒股份有限公司被泰安市泰山区人民法院依法裁定受理破产重整申请,正式进入司法重整程序。

公司管理层强调,泰山啤酒的困境不在于产品,也不在于市场,而是历史积压的沉重债务包袱,进入重整程序后,公司将暂时摆脱债务困扰,将有限的资金和全部管理精力,重新聚焦于生产经营,更好地为消费者服务。

泰山啤酒的处境,折射出众多区域性传统酒企在行业深度调整中的共同挑战:当啤酒消费从“量”转向“质”,从工业拉格迈向精酿、原浆与高端化,老品牌若不能同步完成产品革新、渠道重构与治理升级,即便拥有忠实用户和优质产能,也可能被沉重的历史负担拖入困局。它的重整,不仅是一次财务修复,更是一场关乎转型路径的深度实验。

在中国啤酒产业迈向高质量发展的新阶段,老牌厂商究竟该如何破茧重生?

宣布破产重整

泰山啤酒,启动破产重整。

近日,山东省泰安市泰山区人民法院作出《民事裁定书》,依法受理山东泰山啤酒股份有限公司的破产重整申请,企业正式进入司法重整程序。

据法院审理查明,截至2025年10月31日,经审计确认,泰山啤酒资产总计约6.22亿元,负债总额约6.63亿元,资产负债率达106.63%。泰山区人民法院经审查认为,泰山啤酒已不能清偿到期债务,且资产不足以清偿全部债务,明显缺乏清偿能力,具备破产原因,同时具备重整价值与可能性,故依照《中华人民共和国企业破产法》相关规定,裁定受理泰山啤酒的破产重整申请。

对此泰山原浆啤酒总经理张开利表示,泰山啤酒的困境不在于产品,也不在于市场,而是历史积压的沉重债务包袱,进入重整程序后,公司将暂时摆脱债务困扰,将有限的资金和全部管理精力,重新聚焦于生产经营,更好地为消费者服务。

这一裁定标志着这家拥有近70年历史、曾被誉为“山东啤酒名片”的老牌企业,正式步入以法律手段化解债务危机、谋求重生的关键阶段。值得注意的是,此次进入重整程序的主体为“山东泰山啤酒股份有限公司”,而非其近年来在市场上广受关注的子品牌“泰山原浆啤酒”。尽管两者在品牌渊源和供应链上高度关联,但在法律和财务结构上已有所区隔——这也反映出企业在近年发展中可能已尝试通过业务分拆、品牌独立运营等方式隔离风险。

事实上,泰山啤酒并非首次面临经营压力。早在2020年前后,随着国内啤酒市场整体进入存量竞争阶段,叠加消费升级趋势,传统工业拉格啤酒增长乏力,而精酿、鲜啤、原浆等细分赛道迅速崛起。泰山原浆凭借“7天短保”“当日酿造、当日配送”的差异化策略,在华东乃至全国部分城市打开了高端鲜啤市场,一度成为区域酒企转型的成功案例。然而,母公司的历史债务问题却如影随形,持续侵蚀着企业的现金流与融资能力。

法院此次裁定受理重整申请,具有明确的法律意义与现实价值。一方面,依据《企业破产法》第七十五条,在重整期间,对债务人的特定财产享有的担保权暂停行使;所有针对企业的诉讼和执行程序依法中止。这意味着泰山啤酒将获得一段宝贵的“保护期”,在此期间可避免资产被强制查封、账户被冻结、生产线被中断,从而维持基本运营。另一方面,重整程序允许企业在法院监督下制定债务清偿与业务重组方案,并引入战略投资者或债权人转股等市场化手段,实现“削债+注资+改革”三位一体的系统性修复。

泰山啤酒启动破产重整,既是对其长期积累的财务风险的一次集中出清,也是借助司法机制实现“刮骨疗毒、轻装上阵”的战略选择。它不再是一场简单的债务清算,而是一场关乎品牌存续、产业转型与地方经济生态的深度重构。接下来的六个月至一年,将是决定这家老字号能否真正涅槃重生的关键窗口期。

从地方酒厂到鲜啤先锋

泰山啤酒的故事要从1952年说起。彼时,新中国成立初期百废待兴,泰安市酿酒厂(泰山啤酒前身)在泰山脚下应运而生。依托当地优质水源与传统酿造工艺,早期产品以清爽醇和的拉格啤酒为主,迅速成为山东百姓餐桌上的“国民饮品”。改革开放后,企业更名为山东泰山啤酒股份有限公司,并于1990年代完成现代化改造,引进德国先进生产线,产能与品质同步提升。在那个啤酒还是“大众刚需”的年代,泰山啤酒凭借稳定的口感和扎实的渠道,稳居省内市场前列,成为一代山东人的味觉记忆。

真正让泰山啤酒焕发新生的,是2010年之后对消费升级趋势的精准把握。彼时,国内啤酒行业整体进入存量竞争阶段,巨头们纷纷转向高端化布局,而中小酒企则面临被挤压出局的风险。就在这一关键节点,泰山啤酒没有选择盲目跟随大厂打价格战或贴牌代工,而是另辟蹊径,将目光投向一个尚未被充分开发的细分领域——原浆鲜啤。

2013年,泰山原浆啤酒正式推出“7天短保”系列产品,主打“不过滤、不稀释、不杀菌”,强调“当日酿造、当日配送、7天内饮用完毕”的极致新鲜体验。这一理念在当时堪称大胆:既挑战了消费者对啤酒保质期的认知,也对供应链提出了极高要求。但正是这份“敢为人先”的勇气,让泰山原浆迅速在济南、泰安等核心城市打开局面。消费者发现,原来啤酒也可以有麦香浓郁、泡沫绵密、口感鲜活的“高级感”。

更难得的是,泰山啤酒并未止步于概念营销,而是持续夯实产品力。公司投资建设了全程冷链仓储与配送体系,在核心城市实现“24小时直达终端”;同时坚持使用进口澳麦、捷克萨兹酒花等优质原料,确保风味一致性。到2018年,泰山原浆已在华东地区建立超过2000家直营店和社区网点,形成“前店后仓、即饮即售”的独特模式,复购率长期保持在60%以上。这种深度绑定消费者的运营策略,使其在电商冲击下仍能保持稳健增长。

2020年由于不可抗力,餐饮渠道普遍受挫,但泰山原浆却逆势突围。凭借成熟的社区配送网络和“家庭鲜啤”消费场景的培育,其线上订单激增,甚至一度出现“一箱难求”的局面。这一年,泰山原浆销售额同比增长超40%,被业内誉为“疫情中的黑马”。此后几年,品牌逐步向北京、成都、西安等新一线城市扩张,门店数量突破3000家,成为国产原浆啤酒当之无愧的代表。

值得一提的是,泰山啤酒的成功并非仅靠产品创新,更源于其对“本地文化”的深度融入。品牌始终以“泰山”为精神图腾,将“稳如泰山、鲜如泉涌”的理念贯穿于包装设计、门店体验与用户沟通中。每年举办的“泰山鲜啤节”吸引数万游客参与,不仅强化了地域认同,也构建起独特的品牌护城河。这种“在地化+高品质”的双轮驱动,让泰山原浆在众多精酿品牌中脱颖而出,走出了一条不同于国际巨头的差异化路径。

当然,高速扩张也带来了资金与管理的压力。但必须看到,泰山啤酒的核心资产——品牌认知、产品配方、冷链网络、忠实用户群——依然坚实且具有高度稀缺性。正如总经理张开利所言,企业的困境不在产品,不在市场,而在于历史债务的拖累。这恰恰说明,其商业模式本身是成立的,消费者是认可的,只是需要一次“财务减负”来释放被束缚的增长潜力。

从一家地方国营酒厂,到全国鲜啤赛道的领跑者,泰山啤酒用半个多世纪的时间证明:只要坚持品质、敢于创新、贴近用户,区域品牌同样可以讲出世界级的故事。如今站在重整的起点,它所积累的产业基础与市场信任,正是未来重生最宝贵的资本。

传统啤酒厂商的转型突围之道

泰山啤酒启动破产重整,固然是一次危机应对,但若将其置于中国啤酒产业转型升级的大背景下审视,这一举措更可视为传统酒企主动“断腕求生”、谋求系统性重塑的关键一步。

事实上,近年来众多区域性啤酒品牌都面临着相似的命题:在行业总量见顶、消费结构剧变、巨头挤压加剧的三重压力下,如何摆脱“低毛利、高库存、弱品牌”的旧模式,找到属于自己的新赛道?泰山啤酒的探索,恰恰为传统厂商提供了一条可借鉴的转型样本。

产品高端化与品类创新是破局的核心。过去,地方啤酒厂多以低价工业拉格为主打,依赖餐饮渠道走量,利润微薄且同质化严重。而泰山啤酒敏锐捕捉到消费者对“新鲜”“天然”“有风味”的需求升级,果断切入原浆鲜啤这一高附加值细分市场。不同于普通啤酒经过高温杀菌和长期储存,原浆保留了酵母活性与原始风味,口感更丰富,也更契合健康化、个性化的消费趋势。这种从“卖便宜酒”到“卖好酒”的转变,不仅提升了毛利率,更重塑了品牌形象——让消费者愿意为品质买单,而非仅仅为解渴付费。

渠道重构是支撑新品类落地的关键。传统啤酒依赖经销商层层分销,终端掌控力弱,价格体系混乱。而泰山原浆自建“直营+社区前置仓”模式,将门店开进居民区、写字楼周边,实现“最后一公里”的高效触达。这种DTC(Direct-to-Consumer)思维,让企业能直接获取用户反馈、快速迭代产品、精准营销推广。更重要的是,通过会员体系与社群运营,泰山原浆构建了高黏性的私域流量池,使复购成为增长引擎。这种“以用户为中心”的渠道革命,正是传统厂商摆脱渠道绑架、掌握市场主动权的有效路径。

除此之外,供应链能力的现代化是转型的底层保障。鲜啤对冷链、时效、品控的要求极高,稍有不慎便会导致口感劣化或客诉激增。为此,泰山啤酒持续投入建设智能化酿造车间、温控物流车队和数字化仓储系统,实现了从生产到配送的全链路可视化管理。这种重资产投入虽短期承压,却构筑了竞争壁垒——不是所有酒厂都能做到“7天短保全国配送”。未来,随着物联网与AI技术的应用,传统酿造工艺还可与智能制造深度融合,进一步提升效率与一致性。

当然,转型不能仅靠单点突破,更需组织机制与资本结构的同步进化。许多老酒厂受限于僵化的管理体制、模糊的产权关系或过度依赖地方政府支持,难以吸引市场化人才与资本。泰山啤酒此次通过司法重整,有望在法院监督下厘清股权、优化治理、引入战略投资者——无论是产业资本还是专业消费基金,都可能为其注入资金、管理经验与资源网络。这不仅是“减债”,更是“换血”,为建立现代企业制度铺平道路。

放眼全国,类似探索正在多地展开:燕京啤酒推出“狮王”精酿系列试水高端,珠江啤酒深耕华南打造文化IP,重庆啤酒借力嘉士伯体系加速全国化……这些案例共同指向一个趋势:传统啤酒厂商的未来,不在于规模扩张,而在于价值深耕;不在于模仿巨头,而在于找准自身基因与区域优势,做深做透细分场景。

对泰山啤酒而言,重整不是终点,而是转型的新起点。一旦卸下历史债务包袱,其已验证的产品力、成熟的鲜啤模型、深厚的地域情感连接,都将转化为轻装上阵后的加速器。未来,它或许可以进一步拓展“鲜啤+”场景——如搭配烧烤、海鲜、露营等生活方式,开发季节限定款、联名款;也可探索B端合作,为高端餐厅、酒吧定制专属原浆;甚至借助山东文旅资源,打造“啤酒+泰山文化”的体验式消费空间。

本文来自微信公众号“融中财经”,作者:吕敬之,36氪经授权发布。

白宫经济顾问:调查鲍威尔“不会有啥结果”

2026年1月18日 13:27
英国《卫报》日前报道,美国白宫国家经济委员会主任凯文·哈西特表示,他预期司法部对美国联邦储备委员会主席鲍威尔的刑事调查“不会有实质性结果”,因为他相信鲍威尔先前就美联储办公楼翻新项目所作证词属实。(新华社)

8300亿美金独角兽不得不试水“广告”,AI讲不出新故事?

2026年1月18日 13:20

示意图

文|晓静

编辑|徐青阳

山姆·奥特曼曾在接受采访时说:“广告加AI让我感到特别不安。我认为广告是我们商业模式的最后手段。”

但是,在 2026 年刚刚开年,北京时间1月17日凌晨,OpenAI 就宣布了正式开始试水最令奥特曼不安的“广告加 AI”。

未来几周内,将率先于美国市场启动ChatGPT广告测试,同时在全球核心市场推出月费8美元的低价订阅套餐ChatGPT Go。这个时间距OpenAI 内部启动“红色警报”(Code Red)仅一个月。

面对新一轮融资目标直指8300亿美金估值的资本厚望,OpenAI必须抢在AGI落地之前,为身后那笔以万亿计的巨额算力开销,在现实市场中找到真正的买单者。

01

“克制”的广告

刚刚试水广告的 OpenAI,还是保持这相当的克制,也借助 AI 的优势,做了一些微创新,毕竟按照奥特曼的说法,这是商业模式“最后的手段”。

OpenAI试水广告

ChatGPT以底部“对话节点”的形式呈现广告

广告不在回答中,而在文尾

测试阶段,广告不会生硬植入回答文本,而是以底部“对话节点”的形式呈现,且仅在模型判定其与用户当前需求高度匹配时才会触发。比如,当用户咨询墨西哥风味晚餐的烹饪方案,ChatGPT在给出详尽菜谱后,会在页面底部附上赞助商的食材一键选购提示。

OpenAI试水广告

广告支持用户“追问”

用户可以直接针对广告内容向平台咨询细节,甚至在对话界面内,完成与购买决策相关的各类问询。

先不打扰“高阶用户”

此次广告测试,主要面向美国地区的免费用户,以及新推出的ChatGPT Go(月费8美元)订阅群体。

而ChatGPT Plus、Pro及企业级用户,将继续享有100%无广告的纯净使用环境。OpenAI 希望通过这样的分层运营,在保障高端用户体验的前提下,为更广泛的用户群体,提供可持续的免费服务。

02

成为“平台”的野心

ChatGPT 订阅收入占据了营收的六成,自2022年面世以来,ChatGPT的周活跃用户数已迅速增长至近9亿,根据OpenAI测算,预计到2030年用户数量有望达到26亿。

然而,截至2025年10月,仅有约5%的周活跃用户付费,每月贡献20美元或200美元的订阅服务付费,绝大多数用户并未贡献直接收入。

如何从剩余的 95%用户身上获得实际的商业价值?OpenAI 的解法就是更低的价格和广告策略。OpenAI 的用户结构也被精准切分成了“四层金字塔”。

8美元的ChatGPT Go

这一档位锚定了“觉得20美元订阅价过高,又无���容忍免费版功能限制”的中间用户群体。ChatGPT Go提供10倍于免费版的使用额度,还开放GPT-5.2 Instant等核心功能,同时保留广告服务。这种“付费+广告”的混合变现模式,本质上复刻了流媒体行业的成熟盈利路径。

月费20美元的ChatGPT Plus

当低阶版本被广告覆盖,Plus版的价值感反而被进一步凸显。它被塑造成一个搭载GPT-5.2 Thinking深度推理引擎与Codex编程智能体的专业级纯净空间。通过人为制造“广告干扰”与“推理深度”的双重差异,OpenAI成功将高价值用户引流至这一付费层级。

月费200美元的ChatGPT Pro

这是产品金字塔的塔尖,提供GPT-5.2 Pro的超大上下文窗口(196K及以上)与新功能优先体验权。它的定位早已超越工具范畴,成为面向高端用户的生产力特权入口。

如果 8美元的月费都难以转换,还有金字塔最底层的免费用户,以广告的方式覆盖一切。

这种分层策略,早已跳出单纯的工具定价范畴,而是典型的平台级流量运营思路。

除了面向普通用户的ChatGPT客户端,OpenAI还有传统的API业务,面对开发者,及推出企业定制化部署(Enterprise/Team版),深度渗透代码开发、医疗健康、金融服务、法律咨询等高价值垂直领域。

这部分业务被视作OpenAI的核心“护城河”,虽然客户决策周期较长,却具备极高的用户粘性与客单价。开发者生态的持续繁荣,本质上是让全球的程序员与企业,共同分摊其算力研发的边际成本。

至此,占收入六成的订阅业务、传统的 B端 API业务、新增广告业务,也成为构成OpenAI收入结构的新三级。

03

广告能创造多少增量?

作为当下资本市场最为看重的“第二增长曲线”,究竟能挣多少钱?据OpenAI内部预测,预计2027年,仅广告这一项新增业务的收入,就将突破100亿美元大关。到2030年,从非付费用户群体(通过广告投放及交易分成)获取的收入目标,将高达1100亿美元。

通过与沃尔玛、Shopify、塔吉特等零售巨头的早期接口合作,OpenAI希望能推动自身从一个 “智能问答工具”,向 AI时代的新平台转型。

根据媒体公开信息,OpenAI正筹备新一轮融资,目标金额高达1000亿美元,有望将估值从2025年底的5000亿美元,进一步推升至8300 亿美元。

显然,一个AI效率工具完全撑不起8300亿美元的估值,但是一个具有完善用户生态,和流量分发能力的平台有能力够到“8300亿”美元。

有评论说,OpenAI向广告的“打脸式”急转向背后,是巨大财务之下的无奈。即便在2025年年底时OpenAI的年化营收已超过200亿美元大关,但OpenAI的资金消耗速度达到了令人咋舌的水平。

2025年上半年,运营亏损已高达80亿美元;更有市场传闻称,仅2025年第三季度,单季亏损就可能突破120亿美元。对于一家尚处成长期的科技企业而言,这样的“烧钱”速率,几乎刷新了行业纪录。

与此同时,作为点燃生成式AI浪潮的独角兽企业,它不得不在Scaling Law的路线上继续豪赌。

OpenAI已明确承诺,2025至2029年间,仅在算力搭建与数据中心建设上,就将投入约 1150 亿美元。而从长远规划来看,奥特曼勾勒的AI基础设施投资蓝图,规模更是高达1万亿至1.4万亿美元。

但是,广告真的只是无奈之举吗?

04

无广告,完全不可能实现的“初心”故事?

谷歌和Meta走过的路证明,“无广告”仅仅是科技大佬在创业初期无法实现的“乌托邦故事”,奥特曼仅仅是将这条路又走了一遍。

早期的 Google 是一家有着工程师洁癖的公司。联合创始人佩奇和布林曾公开宣称,搜索引擎不应该被广告驱动,否则会失去中立。

最初的 AdWords 广告被小心翼翼地放在右侧,甚至不被允许使用图片,只允许纯文字,生怕破坏了那张洁白的搜索页面。

然而,2000 年代末的一场商业转折点改变了这一切。当 Google 意识到移动端的屏幕只有巴掌大,右侧侧边栏根本无处安放时,原本的“克制”被迫让位于“生存”。

为了提升点击率,Google 开始进行一系列温水煮青蛙的实验:先是取消了广告位的背景底色,让它看起来更像自然搜索;接着,广告位从 1 个增加到 3 个,甚至 4 个。到了 2016 年,Google 彻底移除右侧广告,将所有火力集中在用户视线的中心。

现在的商业化故事则更进一步——如果你在 Google 搜索“最好的床垫”,前三屏几乎看不到真正的评测网站,全是付费买断位置的厂家。曾经的“指路人”,最终在资本压力下,变成了最强势的“带货导购”。

Meta 的故事,上演了相似的剧本。

扎克伯格最初在哈佛校园创建 Facebook 时,曾经也是一片拒绝广告的社交净土。当第一笔广告订单进入时,为了不破坏用户体验,他甚至坚持广告必须是“社交性”的。早期的 Meta 广告只是安静地躺在页面角落,像是一个礼貌的旁观者。

真正的转折发生在 2012 年上市前夕。面临营收压力的 Meta 决定将广告塞进用户最核心的“信息流”中。这是一个极具争议的决定:广告开始伪装成你朋友的状态,混迹在婴儿照片和聚会通知之间。

随着 Instagram 被收购并引入算法逻辑,这种激进演变成了一场“数据收割”。最著名的商业事例是 Meta 的“微定向”技术——它甚至能根据你当下的情绪状态(比如你是刚失恋还是刚升职)来投放广告。

在一次内部会议中,Meta 的高管曾提出要让广告“无缝”到用户分不清这是广告还是生活。

在流量红利耗尽的下半场,谁能更激进地挤压用户注意力,谁就能在财报中给出更漂亮的曲线。这是所有科技公司必须面对的增长现实。

反观OpenAI,这场“克制”的广告试水,未来很可能会演变为OpenAI收入结构中的绝对支柱。

当然,这应该也是OpenAI最想看到的结果。毕竟,广告可以在金字塔最宽广的基座上做转换漏斗,这才是看起来最没有天花板的商业模式。

PC互联网时代如此、移动互联网时代也是如此,到了 AI时代,故事会不一样吗?

大哥谷歌在前方看着曾经慷慨激昂的“倔强小弟”,笑笑说,欢迎回到凡间。

特约编译无忌对本文亦有贡献

本文来自微信公众号“腾讯科技”,作者:值得关注的,36氪经授权发布。

贵州茅台:谨防飞天茅台虚假申购

2026年1月18日 13:16
36氪获悉,贵州茅台发文提示:近期,线上平台再次出现冒用茅台名义,发布“开放企业直供通道”“企业1499飞天申购,点击链接获取详情”“飞天茅台官方申请入口”“无需搭售、点击链接立即申请”“1499元企业申购通道”等虚假招商信息,有关内容均属不实宣传,存在误导消费者、甚至诈骗风险。公司从未授权或委托任何主体,发布以上信息。目前,公司各省区自营店正在与原有企业团购客户签订2026年销售合同,通过线下对接,进行资质审核、合同签约,未通过公开链接或社交媒体直接受理申请。

华泰资产资产管理规模突破1万亿元

2026年1月18日 13:10
36氪获悉,1月18日,华泰保险官方微信公众号发布消息显示,2025年华泰资产资产管理规模、管理费收入、利润总额均创历史新高,其中资产管理规模突破1万亿元。

新能源车的“硬核”战事,2026年卷向何处?

2026年1月18日 12:53

 

示意图

「核心提示」

政策潮水慢慢退去,电车行业正面临着从“政策输血”到“市场造血”的转向。 

作者 | 娜娜

编辑 | 邢昀 

2025年,中国新能源车渗透率首次突破50%,这个数字背后,是“油电倒挂”时代的真正到来。

随着充电桩遍布街头巷尾,续航轻松突破500公里,“续航焦虑”几乎不成为购车困扰。国产力量的集体崛起与激烈的内部竞争,彻底改写了赛场规则。

热闹的销量背后,是“电动化”的逐渐完善,这也意味着“智能化”竞争正式开始,各家车企把“智能化”的概念炒得火热,噱头层出不穷。可当消费者真正坐进车里,却发现城区智驾还得时刻盯着,系统急刹、误判时有发生。

技术在进步,体验却没跟上营销节奏。

更关键的转折点出现在2026年,购置税减半、补贴政策调整,电车行业面临着从“政策输血”到“自我造血”的转向。除了比智驾这项硬实力,用户体验这个软实力也不容忽视。

2025:格局重塑、内卷与反内卷

2025年,电车成了真正的“C位”。

中国新能源汽车市场的渗透率首次突破了50%这道关口。11月,甚至冲到了59.5%。也就是说,每卖出去100辆车,接近60辆都是新能源车。

这种“油电倒挂”的背后,一方面是补能系统的完善,到2025年11月底,全国电动汽车充电基础设施(枪)总数达到1932.2万个,同比增长52%。换电站数量到2025年底超过5000座,全国高速公路服务区充电桩覆盖率超过98%。

另一方面则是续航能力的持续增加,新能源车型续航普遍能跑500公里到700公里,一些高端车型甚至能突破1000公里。

更深刻的变革在于市场格局。2025年,特斯拉在中国市场的零售销量同比下滑4.8%,至62.59万辆,电车市场特斯拉“一枝独秀”的时代已然终结。取而代之的,是国产力量的全面崛起与内部排位的激烈更迭。

目前,国产新能源呈现“一超多强”的态势,其中比亚迪是无人能撼动的超级霸主。

根据乘联会公布的2025年1-12月新能源厂商零售销量排行榜,比亚迪汽车以348.45万辆的累计销量稳居榜首,虽然同比下滑6.3%,但市场份额依然高达27.2%,是唯一一家销量超300万辆的车企。

榜首之外的座次排列在2025年迎来重新洗牌。部分传统车企转型见效,在新能源赛道快速增长。吉利汽车以156.46万辆位居第二,同比暴涨81.3%,市场份额达到12.2%,主要靠吉利银河等多个新能源品牌拉动。长安汽车以78.91万辆排名第三,同比增长26.8%。

值得注意的是,新势力品牌中“黑马”频出。零跑汽车以52.95万辆排名第八,同比暴涨86.3%,成为新势力中的最强黑马。小米汽车则以41.18万辆的成绩首次进入新能源厂商销量榜,排名第十,同比暴涨200.9%。而2024年还在榜上的理想等则不见身影。

图片来源:乘联会

 

在国产阵营高速迭代与内卷的背景下,反应稍慢的品牌面临巨大压力。整个2025年,特斯拉在中国市场基本没什么新车,Model 3和Model Y这两款车新鲜感消磨殆尽。反观国产品牌,零跑2025年推出了多款新车,小鹏的MONA M03和P7+成了爆款,小米在SU7成功后又推出YU7接力。

这些变化揭示了一个核心事实:2025年的市场,不仅是电车对油车的胜利,更是中国产业链、快速迭代理念,与用户中心思维对传统造车模式的深度冲击。国产品牌通过更密集的新车投放、更敏捷的产能爬坡和更深入的本土化创新,开始掌握市场主导权。

激烈的份额争夺,也让2025年成了“价格战”与“反内卷”并存的矛盾之年。

年初由特斯拉官降引发的价格战贯穿全年,众多品牌被迫跟进,以价换量,部分车型的成交价屡破底线,内卷之下,成本压力传导至全产业链。这也推动“反内卷”成为共识,部分车企将供应商付款周期缩短至60天,以修复产业链生态。

更为关键的是,激烈的竞争在推动行业分化,一部分玩家深陷价格红海,另一部分则开始探索以技术和生态构建护城河,为2026年“后补贴时代”的更高维度竞争埋下伏笔。

 

智能化演进,技术与体验的落差

“智能化才是电车的下半场”,这句话在2025年快被说烂了。

从2025年初比亚迪喊出“全民智驾元年”开始,过去一整年智能化营销你方唱罢我登场,概念一个比一个酷炫,发布会一场比一场热闹。

比亚迪主打安全平权与技术下放,构建天神之眼技术矩阵,宣布全系车型搭载高阶智驾系统;蔚来2025年推送世界模型(NWM)首个版本,同时自研5nm智驾芯片“神玑”量产上车;理想在7月发布i8时同步上线了VLA(视觉-语言-动作模型)司机大模型,要带来“ChatGPT时刻”;小鹏在11月的科技日上把企业定位升级为“物理AI世界的出行探索者”,并发布了全球首个量产级物理世界大模型“第二代VLA”。

从技术路径看,VLM(视觉语言模型)/VLA是2025年的前沿焦点,试图通过大语言模型来补充社会规则并且补充corner case,而VLA模型则更进一步,在理解的基础上直接生成控制,让智驾更拟人。

但是VLA本质上还是基于视觉-语言-行动的线性映射,在处理一些极端场景时,模型的泛化能力仍然存在瓶颈。于是,世界模型开始进入车企的视野。世界模型的核心思路是让AI不仅仅学习“看到什么就做什么”,而是建立对物理世界的理解和预测能力,从而做出更合理的决策。

同时,不管是全栈自研的“垂直整合”派,还是生态赋能的“开放合作”派,汽车厂商们在追求智驾技术演进的同时,也开始推动数据闭环能力建设。

不过从技术演化到稳定普及,智能化仍有长路要走。

被寄予厚望的“L3元年”直至年底才有实质进展,工信部批准了长安深蓝SL03和北汽极狐阿尔法S两款L3车型准入,且仅限于特定路段和速度。即使如此,L3的进展与很多车企年初所宣传的L3量产上路还有很大差距。

更关键的是,在智驾疯狂营销中,几次事故的出现,让消费者对智驾的信任度大打折扣。

在北京工作的30岁白领Linda,2025年换了一台搭载城市NOA功能的国产电车。她表示,高速上用智驾确实挺省心,长途开车轻松很多。“但城区就不太敢开了,有几次遇到加塞或者突然变道,系统会突然急刹。”

这反映了当前智驾技术的真实境遇:作为辅助价值已被认可,但距真正的“自动驾驶”或无忧体验,仍有相当距离。

一位电车行业观察员对此评价道:车企目前在技术突破上主要集中在L2级和L3级的自动驾驶技术,但业内普遍认为,目前更像是无限接近L3级自动驾驶的状态。消费者对L1至L3级自动驾驶技术其实没有明确的边界认知,更关注应用场景如高速自动跟车、城市穿梭等。

目前厂家的营销宣传倾向于强调技术的进步,而消费者的态度已由过去的尝鲜体验转变为希望更安全、更好的驾驶体验。

 

2026年:告别输血,直面市场

到了2026年,政策端落下了一记重锤。

从今年1月1日起,实施了十年的新能源汽车购置税全额免征政策,正式切换到减半征收模式,税率调整为5%,单车最高减税额由3万元减少至1.5万元。换句话说,一辆售价20多万元的电车,今年买要比2025年多掏一万多元,相当于多出买一台高端笔记本电脑的钱。

同时,以旧换新补贴进行了调整,从2025年的定额补贴改成了与新车售价挂钩的比例补贴。

政策变化,导致2025年年底出现了一波“末班车”抢购潮。这也暗示着,电车行业必须从“政策输血”转向“市场造血”。在渗透率已经逼近60%的当下,电车已经过了需要靠补贴“扶上马”的阶段,接下来就是“裸泳比赛”。

除了技术迭代、成本控制这两项硬实力,用户体验这样的软实力也不容忽视。其中,多元化补能方式,是软实力中重要一环。

2025年,超充、换电飞速演进。超充这边,华为发布了1.5兆瓦超充解决方案,可以实现每分钟补电20千瓦时,15分钟完成一次完整充电;比亚迪推出了自研的全球首款全液冷兆瓦闪充终端系统,计划未来建设超过4000座“闪充站”;极氪的V4极充兆瓦桩已实现量产,率先在行业内投入实际运营。800V高压平台和5C超充正在成为主流配置。

换电这边,竞争格局从蔚来“一枝独秀”演变成多方混战,加速落地。

宁德时代成为换电行业最重要的参与者之一。2025年,宁德时代的巧克力换电与骐骥换电分别建成1020座、305座换电站,超额完成年度目标。2026年,巧克力换电计划在140多座城市累计建成超3000座换电站,同步启动高速公路网络建设,长期目标为3万座,并将开放加盟计划。

蔚来在深耕县域市场的同时,也在推动技术标准统一,实现跨品牌生态共建。目前蔚来在全国累计建成近3700座换电站。此外,奥动新能源也递交了港交所招股书,冲击港股“换电第一股”。

除了补能方式的多元化,动力形式的多元化也是2026年的一大看点。

和初期的“纯电崇拜”不同,现在的电车圈是增程、混动、纯电大混战。2026年,不仅小鹏、小米等新势力开始进军增程赛道,福特、通用、丰田、大众都在规划增程车型,2026年将迎来跨国车企增程车型的扎堆上市。

这背后其实是市场成熟与用户需求分化的结果。2025年末,车百会理事长张永伟表示,“汽车消费已经进入了新阶段,过去是‘拿钱买辆车’就实现了购买目标,现在要千挑万选,买到消费者真正认可的产品。”

电车行业正在进入一个更务实,以真实使用场景和产品力为导向的新阶段。这也正是对“价格战”的一种超越,企业需要更精细地识别细分市场,并提供真正匹配价值的产品与服务。

同时,在国内竞争激励的态势下,出海也成为车企2026年的重点方向。

2025年,是电车在销量与认知上全面超越油车的转折年。步入2026年,竞争进入新赛道,将是技术深度、成本效率、生态布局、品牌价值与用户忠诚度的综合比拼。真正的“裸泳”开始了。

本文来自微信公众号“豹变”,作者:娜娜,36氪经授权发布。

本地大模型主流部署工具指南

2026年1月18日 12:46

1. 前言

1.1 为什么现在必试本地部署?

想象一下:你的所有对话都留在电脑里,不用担心数据泄露;不用每句话都付费;地铁、野外等无网环境也能秒响应。这就是本地部署大模型的魅力 —— 工具链已成熟,新手也能 10 分钟上手!

1.2 本地部署的核心优势

优势 说明
[+] 隐私绝对安全 数据全程存储本地,无云端上传风险(适合商业机密、个人隐私)
[+] 零使用成本 一次性部署,无限次使用,避免 API 按调用量计费
[+] 无网络依赖 断网也能正常使用,响应延迟低至 80ms
[+] 定制化自由 可选择中文优化、轻量型、专业级等不同模型
[+] 硬件适配多元 6GB 显存即可运行 7B 模型,老电脑也能盘活

2. 五大主流工具深度对比(实测版)

工具 定位 难度 适合人群 核心优势 显存要求(7B模型) 最新特性
Ollama 命令行部署神器 [][] 开发者、技术爱好者 一行命令部署、API兼容OpenAI、模型丰富 4GB+(INT4量化) 修复高危漏洞、支持OpenWebUI可视化、国内镜像
LM Studio 图形界面王者 [*] 普通用户、Mac用户 即开即用、内置模型市场、中文优化 6GB+ MLX 2.0加速、ModelScope国内镜像、文档对话
Jan 免费跨平台桌面应用 [*] 个人用户、预算有限者 完全免费、无广告、本地+云端混合部署 5GB+ 支持RPU/NPU硬件加速、模型热切换
GPT4All 低配电脑救星 [*] 老电脑用户、入门新手 资源占用极低、CPU/GPU双支持、安装包小巧 3GB+(INT4量化) 新增中文轻量模型库、离线缓存优化
LocalAI 企业级API替代方案 [][][*] 企业、开发者、团队 1:1兼容OpenAI API、权限管理、分布式部署 8GB+ 支持千亿参数模型、国产化芯片适配、监控告警

3. 五大主流工具详解

3.1 Ollama - 开发者首选・安全增强版

3.1.1 定位

最简单的命令行部署工具,开发者效率神器

3.1.2 核心优势

优势 说明
极速部署 一行命令完成安装 + 模型启动,无需复杂配置
API无缝兼容 自带 OpenAI 格式 API,现有项目可直接迁移
全平台覆盖 Mac(M1/M2/M3)、Linux、Windows 10+ 全支持
模型生态丰富 内置 Qwen2.5、DeepSeek-V3、Llama 3 等上百款模型
安全升级 修复未授权访问漏洞,支持 API 密钥认证

3.1.3 实操教程(含国内加速 + 安全配置)

3.1.3.1 安装步骤
# macOS / Linux 一键安装
curl -fsSL https://ollama.com/install.sh | sh

# Windows 安装
# 1. 官网下载:https://ollama.com/,勾选「Add to PATH」
# 2. 终端验证:ollama --version(显示v0.12.0+即成功)
3.1.3.2 国内加速配置(必做)
# 新建bat文件(Windows管理员运行)/ 终端执行(Mac/Linux)
export OLLAMA_MODEL_SERVER=https://mirror.ollama.com  # 国内镜像
export OLLAMA_API_KEY=your_strong_password123  # 设置访问密钥(防泄露)
export OLLAMA_HOST=127.0.0.1:11434  # 仅本地访问
ollama serve
3.1.3.3 常用命令(中文优先)
# 拉取中文最优模型(Qwen2.5-7B INT4量化版)
ollama pull qwen2.5:7b-chat-q4_0

# 启动对话(秒级响应)
ollama run qwen2.5:7b-chat-q4_0

# 开启API服务(支持编程调用)
ollama serve

# 模型管理
ollama list  # 查看已安装模型
ollama rm qwen2.5  # 删除无用模型
ollama update  # 更新Ollama到最新版
3.1.3.4 编程调用示例

浏览器环境(原生 Fetch + 流式响应)

// 流式响应(实时输出结果)
async function callOllamaStream() {
  const apiKey = "your_strong_password123";
  const prompt = "写Python数据可视化代码";

  try {
    const response = await fetch("http://localhost:11434/v1/chat/completions", {
      method: "POST",
      headers: {
        "Content-Type": "application/json",
        "Authorization": `Bearer ${apiKey}`
      },
      body: JSON.stringify({
        model: "qwen2.5:7b-chat-q4_0",
        messages: [{ role: "user", content: prompt }],
        stream: true
      })
    });

    if (!response.ok) throw new Error(`HTTP错误! 状态码: ${response.status}`);
    if (!response.body) throw new Error("流式响应不支持");

    const reader = response.body.getReader();
    const decoder = new TextDecoder("utf-8");
    let result = "";

    while (true) {
      const { done, value } = await reader.read();
      if (done) break;

      const chunk = decoder.decode(value);
      // 解析SSE格式响应
      const lines = chunk.split("\n").filter(line => line.trim() !== "");
      for (const line of lines) {
        if (line.startsWith("data: ")) {
          const data = line.slice(6);
          if (data === "[DONE]") continue;
          try {
            const json = JSON.parse(data);
            if (json.choices?.[0]?.delta?.content) {
              const content = json.choices[0].delta.content;
              result += content;
              console.log(content); // 实时输出
              // 可在这里更新DOM显示
            }
          } catch (e) {
            console.error("解析响应失败:", e);
          }
        }
      }
    }
    return result;
  } catch (error) {
    console.error("调用失败:", error);
  }
}

// 执行调用
callOllamaStream();

Node.js 环境(axios + 流式响应)

// 先安装依赖:npm install axios
const axios = require("axios");

async function callOllamaNodeStream() {
  const apiKey = "your_strong_password123";
  const prompt = "写Python数据可视化代码";

  try {
    const response = await axios.post(
      "http://localhost:11434/v1/chat/completions",
      {
        model: "qwen2.5:7b-chat-q4_0",
        messages: [{ role: "user", content: prompt }],
        stream: true
      },
      {
        headers: {
          "Content-Type": "application/json",
          "Authorization": `Bearer ${apiKey}`
        },
        responseType: "stream"
      }
    );

    let result = "";
    response.data.on("data", (chunk) => {
      const lines = chunk.toString("utf-8").split("\n").filter(line => line.trim() !== "");
      for (const line of lines) {
        if (line.startsWith("data: ")) {
          const data = line.slice(6);
          if (data === "[DONE]") return;
          try {
            const json = JSON.parse(data);
            if (json.choices?.[0]?.delta?.content) {
              const content = json.choices[0].delta.content;
              result += content;
              process.stdout.write(content); // 实时输出
            }
          } catch (e) {
            console.error("解析响应失败:", e);
          }
        }
      }
    });

    return new Promise((resolve) => {
      response.data.on("end", () => resolve(result));
    });
  } catch (error) {
    console.error("调用失败:", error);
  }
}

// 执行调用
callOllamaNodeStream();

3.1.4 适合场景

  • 开发者集成 AI 能力到项目中
  • 快速测试不同模型效果
  • 小团队搭建本地 API 服务
  • 习惯命令行操作的技术用户

3.1.5 避坑指南

[x] 不要 [+] 建议
直接暴露公网 必须设置 API 密钥 + 限制本地访问(防范 CNVD-2025-04094 漏洞)
- 显存不够:优先选择 INT4 量化模型(命令后加 -q4_0)
- 启动失败:Windows 用户需安装 Microsoft C++ 生成工具

3.2 LM Studio - 普通用户最佳选择・图形界面王者

3.2.1 定位

像用 ChatGPT 一样简单,零代码门槛

3.2.2 核心优势

优势 说明
现代化 UI 拖拽操作,可视化管理模型,新手无压力
内置模型市场 搜索「中文」即可筛选最优模型,自动推荐硬件适配版本
国内优化 内置 ModelScope 镜像,10GB 模型 5 分钟下载完成
文档对话 上传 PDF/Word 自动解析,支持 10 万 Token 长文本问答
硬件加速 Apple Silicon/M3 芯片启用 MLX 2.0,性能超 RTX 4090 2.2 倍

3.2.3 安装使用(Windows/Mac 通用)

  1. 官网下载:lmstudio.ai/(支持 M3 / 锐龙 AI 处理器)
  2. 安装后打开,点击左侧「Model Hub」,搜索「qwen2.5」「deepseek-r1」
  3. 选择「适合本机的版本」(如 INT4/FP8),点击「Download」
  4. 下载完成后,点击「Chat」即可开始对话
  5. 进阶功能:「Settings」→「Hardware」启用「MLX Acceleration」(Mac 用户)

3.2.4 适合场景

  • 不想碰命令行的普通用户
  • Mac 用户(硬件加速优化最佳)
  • 需要可视化管理多模型
  • 文档分析、日常聊天、办公辅助

3.2.5 避坑指南

[x] 不要 [+] 建议
盲目选大模型 根据硬件自动推荐的版本最优,避免显存不足
- 卡顿解决:关闭节能模式,启用「硬件加速」,关闭后台占用 GPU 的程序
- 中文优化:优先选择「Qwen2.5」「DeepSeek-R1」等原生中文模型

3.3 Jan - 完全免费・跨平台桌面应用

3.3.1 定位

零费用、无广告的本地 + 云端混合部署工具

3.3.2 核心优势

优势 说明
100% 免费 所有功能不限流,无付费墙
混合部署 一键切换本地模型(隐私优先)/ 云端模型(性能优先)
极简设计 界面清爽无广告,操作逻辑简单
全平台支持 Mac、Windows、Linux 无缝适配
新特性 支持锐龙 AI NPU、清微 RPU 硬件加速,显存占用降低 40%

3.3.3 安装使用

  1. 官网下载:jan.ai/(安装包仅 20MB)
  2. 首次启动引导:选择「Local」(本地模式)→ 点击「Model Library」
  3. 搜索「qwen2.5-mini」(轻量中文模型),点击「Download」
  4. 下载完成后,直接在聊天框输入指令即可使用
  5. 混合模式切换:点击顶部「Cloud」,登录后可使用云端大模型(免费额度)

3.3.4 适合场景

  • 预算有限的个人用户
  • 需要灵活切换本地 / 云端模型
  • 注重隐私又想兼顾高性能
  • 学生、职场新人日常办公

3.3.5 避坑指南

[+] 建议
本地模型选择:低配电脑优先选「3B/7B INT4」版本
下载慢:在「Settings」→「Model Sources」选择「ModelScope」镜像
启动慢:关闭「自动更新模型」,手动更新更省资源

3.4 GPT4All - 低配电脑救星・轻量之王

3.4.1 定位

专为老电脑 / 低配置设备优化,CPU 也能流畅运行

3.4.2 核心优势

优势 说明
资源占用极低 无需 GPU,4GB 内存即可运行 3B 中文模型
轻量高效 安装包仅 15MB,模型自动量化优化
零门槛操作 图形界面,双击启动,无需任何配置
一体化功能 集成聊天、文档分析、代码生成,无需额外插件
中文升级 新增 ChatGLM-3B、Qwen-2B-mini 等中文轻量模型

3.4.3 安装使用

  1. 官网下载:gpt4all.io/(Windows/Ma… 通用)
  2. 安装后打开,点击「Model Explorer」,筛选「Chinese」
  3. 选择「Qwen-2B-mini-INT4」(仅需 3GB 内存),点击「Download」
  4. 下载完成后,切换到「Chat」标签即可开始使用
  5. 性能优化:「Settings」→「Performance」选择「CPU+GPU 混合模式」

3.4.4 适合场景

  • 老电脑(5 年前配置)、无独立显卡用户
  • 显存不足 4GB 的设备
  • 仅需要基础对话、简单文档处理
  • 临时使用、快速演示场景

3.4.5 避坑指南

[x] 不要 [+] 建议
选择 13B+ 大模型 低配置设备会卡顿甚至崩溃
- 中文效果:优先选「Qwen-2B-mini」「ChatGLM-3B」,避免原生英文模型
- 加载慢:将模型文件放在 SSD 硬盘,加载速度提升 3 倍

3.5 LocalAI - 企业级 API 替代方案・生产环境首选

3.5.1 定位

1:1 兼容 OpenAI API,企业内网部署神器

3.5.2 核心优势

优势 说明
API 完全兼容 无需修改代码,直接替换 OpenAI 接口地址
企业级特性 支持权限管理、用户认证、监控告警、日志审计
高性能部署 支持分布式集群、张量并行,吞吐量提升 10 倍
数据安全 完全本地化部署,符合等保三级、GDPR 合规要求
国产化适配 支持华为昇腾、清微 RPU、海光 CPU 等国产硬件

3.5.3 企业级部署实操(Docker 版)

3.5.3.1 环境要求
项目 要求
系统 Ubuntu 22.04 LTS(推荐)/ CentOS 8
硬件 GPU 24GB 显存(A10G/H100)或 RPU TX81 加速卡
依赖 Docker 24.0+、Docker Compose
3.5.3.2 部署命令
# 1. 创建挂载目录(存储模型和配置)
mkdir -p /localai/models /localai/config

# 2. 编写docker-compose.yml
cat > docker-compose.yml <<'EOF'
version: "3"
services:
  localai:
    image: localai/localai:latest
    ports:
      - "8080:8080"
    volumes:
      - /localai/models:/models
      - /localai/config:/etc/localai
    environment:
      - MODELS_PATH=/models
      - API_KEY=your_enterprise_api_key  # 企业级API密钥
      - LOG_LEVEL=info
    deploy:
      resources:
        reservations:
          devices:
            - driver: nvidia
              count: 2  # 2张GPU并行
              capabilities: [gpu]
EOF

# 3. 启动服务
docker-compose up -d

# 4. 下载模型(以Qwen2.5-13B为例)
curl -L https://mirror.modelscope.cn/qwen/Qwen2.5-13B-Chat-GGUF/qwen2.5-13b-chat-q4_0.gguf -o /localai/models/qwen2.5-13b.gguf
3.5.3.3 API 调用示例

Node.js 生产环境调用(带错误处理)

// 先安装依赖:npm install axios
const axios = require("axios");

class LocalAIClient {
  constructor(apiKey, baseUrl = "http://localhost:8080") {
    this.apiKey = apiKey;
    this.baseUrl = baseUrl;
    this.client = axios.create({
      baseURL: this.baseUrl,
      headers: {
        "Content-Type": "application/json",
        "Authorization": `Bearer ${this.apiKey}`
      },
      timeout: 30000 // 30秒超时
    });
  }

  // 普通响应调用
  async chatComplete(prompt, model = "qwen2.5-13b") {
    try {
      const response = await this.client.post("/v1/chat/completions", {
        model,
        messages: [{ role: "user", content: prompt }],
        temperature: 0.7,
        max_tokens: 2048
      });
      return response.data.choices[0].message.content;
    } catch (error) {
      console.error("Chat完成调用失败:", {
        status: error.response?.status,
        data: error.response?.data,
        message: error.message
      });
      throw error;
    }
  }

  // 流式响应调用(适合长文本)
  async chatStream(prompt, model = "qwen2.5-13b", callback) {
    try {
      const response = await this.client.post(
        "/v1/chat/completions",
        {
          model,
          messages: [{ role: "user", content: prompt }],
          temperature: 0.7,
          stream: true
        },
        { responseType: "stream" }
      );

      return new Promise((resolve, reject) => {
        let fullContent = "";
        response.data.on("data", (chunk) => {
          const lines = chunk.toString("utf-8").split("\n").filter(line => line.trim() !== "");
          for (const line of lines) {
            if (line.startsWith("data: ")) {
              const data = line.slice(6);
              if (data === "[DONE]") return;
              try {
                const json = JSON.parse(data);
                const content = json.choices?.[0]?.delta?.content;
                if (content) {
                  fullContent += content;
                  callback?.(content); // 实时回调输出
                }
              } catch (e) {
                console.error("解析流式响应失败:", e);
              }
            }
          }
        });

        response.data.on("end", () => resolve(fullContent));
        response.data.on("error", (err) => reject(err));
      });
    } catch (error) {
      console.error("流式调用失败:", error);
      throw error;
    }
  }
}

// 使用示例
async function testLocalAI() {
  const client = new LocalAIClient("your_enterprise_api_key");

  // 1. 普通调用
  const result1 = await client.chatComplete("生成企业年度总结模板");
  console.log("普通调用结果:", result1);

  // 2. 流式调用
  console.log("流式调用结果:");
  const result2 = await client.chatStream("生成企业年度总结模板", "qwen2.5-13b", (chunk) => {
    process.stdout.write(chunk); // 实时输出
  });
}

// 执行测试
testLocalAI();

3.5.4 适合场景

  • 企业内部 AI 服务部署
  • 需要替换 OpenAI API 的现有项目
  • 政务、金融、医疗等敏感行业
  • 高并发、高可用的生产环境

3.5.5 避坑指南

[x] 不要 [+] 建议
个人用户跟风 配置复杂,维护成本高
- 性能优化:启用「张量并行」(--tensor-parallel-size 2),多 GPU 分担负载
- 模型选择:优先选 GGUF 格式量化模型,显存占用降低 50%
- 安全配置:必须设置 API 密钥,限制内网访问,定期更新镜像

4. 总结

最后总结一下:

  • Ollama:开发者集成 AI 能力到项目,快速测试模型,搭建本地 API 服务
  • LM Studio:普通用户零门槛使用,可视化管理模型,文档分析和日常办公
  • Jan:预算有限的个人用户,灵活切换本地/云端模型,免费无广告
  • GPT4All:老电脑和低配设备,仅需基础对话和简单文档处理
  • LocalAI:企业内部 AI 服务部署,替换 OpenAI API,满足安全合规要求

韩国银行业联手官方部门稳定本币汇率

2026年1月18日 12:38
有关官员于周日表示,韩国主要商业银行正与政府外汇主管部门协同加码施策,通过推出鼓励客户抛售美元的优惠政策、下调外币存款利率等举措,遏制韩元近期的贬值势头。受美元整体走强、地缘政治风险加剧以及韩国本土投资者大举开展海外股票投资等多重因素影响,尽管官方已采取口头干预及政策调控措施,韩元对美元汇率仍持续徘徊在市场高度关注的1450韩元关口附近。(新浪财经)

富达基金张笑牧:2026年的核心投资机遇仍将锚定在科技创新领域

2026年1月18日 12:20
近日,富达基金的基金经理张笑牧表示,当前,中国资本市场正经历深刻的底层重构。政策端持续发力“新质生产力”,研发投入与科技自立自强的加速,使经济新旧动能转换正在从预期走向实质落地。随着中长期资金配置共识的形成,张笑牧认为,2026年的核心投资机遇仍将锚定在科技创新领域,尤其是自主可控的创新驱动产业。(证券时报)

【节点】[Slider节点]原理解析与实际应用

作者 SmalBox
2026年1月18日 12:05

【Unity Shader Graph 使用与特效实现】专栏-直达

在Unity URP Shader Graph中,Slider节点是一个功能强大且常用的工具节点,它为着色器开发提供了直观的参数控制方式。通过Slider节点,开发者可以创建可调节的浮点数值,这些数值在材质检视器中以滑动条的形式呈现,极大地方便了材质的参数调整和实时预览。

Slider节点的基本概念

Slider节点在Shader Graph中属于常量值节点的一种特殊形式。与普通的Float节点不同,Slider节点不仅提供了数值输出功能,更重要的是它能够在材质检视器中生成一个可视化的滑动条控件。这种可视化控制方式让非技术背景的艺术家和设计师也能够轻松调整着色器参数,无需直接修改代码或节点连接。

Slider节点的核心价值在于其能够将技术性的数值参数转化为直观的交互控件。在游戏开发流程中,这种转化具有重要意义。美术人员可以通过拖动滑动条实时观察材质效果的变化,快速迭代和优化视觉效果,而不必依赖程序员进行每次的参数调整。

从技术实现角度来看,Slider节点在Shader Graph内部被处理为一个浮点数常量,但其特殊的属性标记使得Unity编辑器能够识别并在UI层面提供滑动条控件。这种设计分离了数据表示和用户界面,既保证了着色器计算的高效性,又提供了友好的用户体验。

节点创建与基本配置

在Shader Graph中创建Slider节点有多种方式。最直接的方法是在Shader Graph窗口的空白区域右键点击,从上下文菜单中选择"Create Node",然后在搜索框中输入"Slider"即可找到该节点。另一种便捷的方式是通过黑场区域的右键菜单,选择"Create Node"后导航至"Input/Basic/Slider"路径。

创建Slider节点后,可以看到其简洁的节点结构:一个输出端口和三个可配置参数。输出端口标记为"Out",类型为Float,用于将滑动条的当前值传递给图中的其他节点。三个配置参数包括滑动条本身的值,以及最小值和最大值范围。

配置Slider节点时,首先需要设置合理的数值范围。Min和Max参数定义了滑动条的理论边界,这些值应该根据实际应用场景来设定。例如,控制透明度的滑动条通常设置在0到1之间,而控制纹理重复次数的滑动条可能需要更大的范围。

端口详解与数据流

Slider节点的端口配置相对简单但功能明确。输出端口"Out"是节点的唯一数据出口,负责将滑动条的当前数值传递给连接的下游节点。这个输出值的类型始终为Float,符合大多数着色器计算对数值精度的要求。

数据流通过Slider节点时,节点本身不执行任何计算或变换,它仅仅作为一个数值源存在。当材质检视器中的滑动条被拖动时,Slider节点的输出值会实时更新,进而触发整个着色器的重新计算和渲染更新。

输出端口的绑定特性为"无",这意味着Slider节点的输出不依赖于任何外部输入或纹理采样。这种独立性使得Slider节点非常适合用作着色器的参数控制点,因为它不会引入额外的依赖关系或计算复杂度。

在实际使用中,Slider节点的输出可以直接连接到各种接受Float输入的节点,如数学运算节点、纹理坐标节点、颜色混合节点等。这种灵活性让Slider节点成为控制着色器各种特性的通用工具。

控件参数深度解析

Slider节点的控件参数虽然数量不多,但每个参数都有其特定的用途和配置考量。

滑动条值控件

这是Slider节点的核心参数,决定了当前输出的数值。在Shader Graph编辑器中,这个值可以通过数字输入框精确设置,也可以通过点击并拖动滑动条来直观调整。这个值的设置应当考虑实际应用需求,比如如果用于控制高光强度,初始值可能需要设置为一个较小的正数。

最小值参数

Min参数定义了滑动条的理论下限。这个值可以是任意浮点数,包括负数。在设置最小值时,需要考虑物理合理性,比如透明度不应小于0,但颜色偏移量可能允许负值。最小值还影响着滑动条的灵敏度,范围越大,单位移动对应的数值变化就越大。

最大值参数

Max参数与Min参数协同工作,定义了滑动条的数值上限。最大值的选择同样需要基于实际应用场景,过大的最大值可能导致滑动条控制不够精细,过小的最大值则可能限制效果的表达。

范围设置的策略

合理的范围设置是Slider节点使用的关键。以下是一些常见的使用场景和推荐范围:

  • 透明度控制:0.0 - 1.0
  • 高光强度:0.0 - 5.0
  • 纹理缩放:0.1 - 10.0
  • 颜色通道偏移:-1.0 - 1.0
  • 时间系数:0.0 - 10.0

属性转换与材质实例化

Slider节点的一个强大特性是能够转换为着色器属性。通过节点的上下文菜单,选择"Convert To Property"选项,可以将Slider节点转换为一个正式的着色器属性。这一转换带来了几个重要优势:

材质实例化支持

转换为属性后,每个使用该着色器的材质实例都可以拥有自己独立的Slider值。这意味着可以在不同材质中设置不同的参数,而无需创建多个着色器变体。

运行时修改能力

作为属性的Slider值可以在游戏运行时通过脚本动态修改,这为创建交互式视觉效果提供了可能。比如,可以根据游戏事件调整材质的发光强度或透明度。

属性配置选项

转换为属性后,可以配置更多属性相关设置,如属性名称、默认值、以及是否在材质检视器中隐藏该属性。这些选项提供了更精细的属性管理能力。

属性名称的命名应当具有描述性且符合项目命名规范。好的属性名称能够让其他团队成员更容易理解该参数的作用,如"_SpecularIntensity"比"_Float1"更能清晰表达参数用途。

生成的代码分析

理解Slider节点在背后生成的代码有助于更深入地掌握其工作原理。当Slider节点被转换为属性后,在生成的着色器代码中会产生相应的数据结构和处理逻辑。

基础声明

在着色器的Properties块中,会生成类似以下的属性声明:

_SliderProperty("Slider Display Name", Range(0.0, 1.0)) = 0.5

这里的"Slider Display Name"是在材质检视器中显示的名称,Range(0.0, 1.0)定义了滑动条的范围,0.5是默认值。

变量定义

在CGPROGRAM部分,会生成对应的变量声明:

float _SliderProperty;

这个变量可以在片段着色器或其他计算部分直接使用。

默认值处理

如示例代码所示,Slider节点生成的默认值表达式简单直接:

float _Slider_Out = 1.0;

这行代码创建了一个浮点变量并将其初始化为1.0。在实际生成的着色器中,这个值会被替换为属性系统中存储的实际数值。

材质序列化

转换为属性后,Slider的值会与材质资源一起被序列化,这意味着设置的值会在编辑器会话之间保持持久化。

实际应用案例

Slider节点在URP着色器开发中有着广泛的应用场景,以下通过几个具体案例展示其实际用法。

基础透明度控制

创建一个简单的透明度控制着色器:

  • 在Shader Graph中添加Slider节点,设置范围为0.0到1.0
  • 将Slider输出连接到PBR主节点的Alpha输入
  • 将材质表面类型设置为Transparent
  • 这样就可以通过滑动条实时调整材质透明度

动态高光调节

实现可调节的高光效果:

  • 使用Slider节点控制高光强度
  • 将Slider输出连接到高光计算节点的强度参数
  • 设置合适的范围,如0.0到3.0
  • 结合其他节点创建复杂的高光响应

纹理变换动画

创建基于时间的纹理变换:

  • 使用Slider节点控制动画速度
  • 将Slider输出与Time节点相乘
  • 结果用于驱动纹理偏移或旋转
  • 通过调整Slider值控制动画快慢

多重Slider协同工作

复杂效果通常需要多个Slider配合:

  • 使用多个Slider节点控制不同方面的参数
  • 例如,一个控制颜色饱和度,一个控制对比度,一个控制亮度
  • 通过合理的节点连接实现复杂的颜色调整效果

高级技巧与最佳实践

掌握Slider节点的高级用法可以显著提升着色器开发效率和质量。

范围优化策略

根据使用场景优化Slider范围:

  • 对于感知线性的参数(如透明度),使用0-1范围
  • 对于指数性感知的参数(如光照强度),考虑使用0-10范围
  • 使用适当的默认值,减少每次材质创建的调整需求

分组与组织

当使用多个Slider时,合理的组织很重要:

  • 在Shader Graph中使用注释框对相关Slider进行分组
  • 为Slider属性使用一致的命名前缀
  • 在材质检视器中利用属性抽屉进行逻辑分组

性能考量

虽然Slider节点本身对性能影响很小,但使用时仍需注意:

  • 避免创建过多不必要的Slider属性
  • 对于不需要在运行时修改的参数,考虑使用常量而非属性
  • 合理使用属性变体,避免不必要的着色器变体生成

调试技巧

Slider节点可以用于着色器调试:

  • 临时连接Slider到不同节点以隔离问题
  • 使用Slider控制调试信息的显示阈值
  • 通过动画Slider值观察效果变化,识别异常行为

常见问题与解决方案

在使用Slider节点过程中可能会遇到一些典型问题,以下是常见问题及其解决方法。

滑动条响应不灵敏

当滑动条范围设置过大时,可能会出现控制不够精细的问题:

  • 解决方案:调整Min和Max值到更合理的范围
  • 替代方案:使用两个Slider,一个用于粗调,一个用于微调

属性不显示在材质检视器

有时转换为属性后,在材质中看不到对应的滑动条:

  • 检查属性是否被意外标记为隐藏
  • 确认着色器编译没有错误
  • 检查属性名称是否包含特殊字符或空格

运行时修改不生效

通过脚本修改Slider属性值但没有效果:

  • 确认使用的是材质属性名称而非节点名称
  • 检查材质实例是否正确引用
  • 确认在修改属性后调用了material.SetFloat方法

数值跳跃或不平滑

滑动条移动时数值变化不连续:

  • 这通常是范围设置过大导致
  • 可以尝试减小范围或使用对数尺度处理

与其他节点的配合使用

Slider节点很少单独使用,更多的是与其他节点配合创建复杂效果。

与数学节点配合

Slider节点与数学节点的组合是最常见的用法:

  • 使用Multiply节点缩放Slider输出
  • 使用Add节点偏移Slider基准值
  • 使用Power节点创建非线性响应
  • 使用Clamp节点限制最终输出范围

与纹理节点结合

通过Slider控制纹理参数:

  • 控制纹理平铺次数
  • 调整纹理混合权重
  • 控制法线强度
  • 调节视差遮挡映射强度

与时间节点协同

创建动态效果:

  • 控制动画速度
  • 调节脉冲频率
  • 管理过渡持续时间
  • 控制效果触发时机

【Unity Shader Graph 使用与特效实现】专栏-直达 (欢迎点赞留言探讨,更多人加入进来能更加完善这个探索的过程,🙏)

封关“满月” 海南自贸港新增备案外贸企业超5000家

2026年1月18日 12:05
36氪获悉,据“海关发布”消息,海南自贸港封关迎来“满月”。据海口海关统计,自2025年12月18日封关以来截至1月17日,海口海关在“一线”监管“零关税”货物7.5亿元,在“二线”监管销往内地的加工增值免关税货物8586.7万元。封关以来,各项政策扎实推进,口岸通关顺畅高效,整体运行平稳有序。受海南自贸港封关利好和开放磁吸效应影响,更多外贸企业选择在海南安家落户。一个月来,海南新增备案外贸企业5132家。

2025年港股股权融资规模同比增长251%,IPO热潮延续

2026年1月18日 11:52
2025年,港股股权融资市场实现爆发式增长。据Wind数据,融资总额达6122亿港元,同比增幅高达250.91%。其中IPO市场更是重回全球首位,117家企业合计募资2858亿港元,同比增长224.24%。在经历2025年股权融资规模暴增251%后,港股市场依然火热,目前仅排队IPO的公司已超过300家。目前,多数机构都研判港股股权融资活跃态势会持续。而对于IPO对港股流动性的影响,受访人士指出,应该区分结构性问题与阶段性现象。好的IPO不仅不会抽走流动性,反而会吸引更多国际资本进入。(券商中国)

特朗普:从未向摩根大通CEO戴蒙提供过美联储主席一职

2026年1月18日 11:38
美国总统特朗普在其社交媒体“真实社交”表示,《华尔街日报》在头版刊登文章未经任何核实便称我曾向摩根大通的杰米・戴蒙提供美联储主席一职。此说法纯属捏造,我从未提出过这样的邀约。接下来两周内,特朗普将起诉摩根大通,缘由是该行在1月6日抗议事件后终止了与他的银行业务往来。此外,还有传言称我曾有意提名杰米・戴蒙出任财政部长。但问题是,目前贝森特的工作表现极为出色,我凭什么要把这个职位交给杰米?(新浪财经)
❌
❌