普通视图
A股三大指数集体高开,多元金融板块走强
4月3日人民币对美元中间价调贬49个基点
36氪首发 | 3个月融资近10亿,深圳量子计算公司完成C+轮融资,并已规模化盈利
作者丨欧雪
编辑丨袁斯来
硬氪获悉,国内量子计算企业——量旋科技(SpinQ)已于近日完成C+轮融资,金额达6亿元。若将三个月前完成的C轮融资合并计算,公司在短短一个季度内累计融资近10亿元。
本轮融资汇集了多元化的投资阵容,既包括基石资本等知名投资机构,也有国泰君安创新投等国央企背景的机构,以及浙江财通资本、四川振兴集团、成都天创投等地方投资平台,毅达资本、华强资本持续跟投。
量旋科技成立于2018年,是一家专注于量子计算产业化的高科技企业,总部位于深圳。公司创始人兼CEO项金根毕业于清华大学物理系,曾任哈佛大学博士后研究员,在量子计算领域拥有超过15年的研发经验。核心团队来自清华、北大、中科大、哈佛、MIT等国内外顶尖学府,研发人员占比超过70%,是国内少数具备从量子芯片设计、整机制造到算法应用全栈研发能力的团队之一。
不同于多数仍处于纯研发阶段的量子公司,量旋科技在商业化落地方面走在行业前列,产品已销往全球多个国家和地区,是国内量子计算领域少数实现规模化收入的企业。
量旋科技目前形成两大产品矩阵。核磁共振量子计算机产品线主要面向高校及科研机构,用于量子计算教学和基础研究,该系列产品体积小巧、无需低温环境,已在全球超200所高校和科研机构部署,是公司实现稳定收入的基石业务。
超导量子计算机产品线则面向前沿科研和未来产业应用,公司已成功研发并向海外交付首台超导量子计算机整机,并实现首枚超导芯片的海外出口,量子比特数量预计每年实现翻倍增长。
在技术层面,量旋科技已形成多项核心优势。公司建有自主量子芯片实验室,具备从芯片设计、流片到封装测试的全链条能力,随着量子比特数量的提升,芯片加工工艺也在持续升级。
同时,公司掌握超导量子计算机整机集成的核心技术,是中国首家完成超导整机海外成功交付的企业,验证了整机工程化能力。超导路线与传统半导体工业体系高度兼容,能够充分利用现有成熟的制造工艺和产业链资源,这是公司选择并坚定超导路线的重要考量。
![]()
量旋科技相关产品(图源/企业)
业绩方面,量旋科技今年第一季度订单量较去年同期增长80%,全年预计将实现翻倍增长。此外,超导相关业务占比已从约六成提升至六成半,成为增长主要驱动力。
海外市场表现尤为突出,首枚超导芯片和首台超导整机均已实现海外交付,开创国内先河。目前公司在全球各区域均有商机在谈,客户数量和潜在订单金额均较去年实现大幅增长,预计今年海外业务占比将进一步提升。
我们对项金根做了访谈,聊了聊他对行业发展以及未来规划的内容。
以下为访谈节选:
硬氪:你认为量子计算真正带来经济效益的时间点会在什么时候?哪些场景会最先落地?
项金根:我觉得三年内应该可以看到。从应用场景来看,业内比较公认的是与微观世界相关的计算问题,比如药物分子筛选、新材料研发、催化剂设计等。这些领域的本质是求解量子力学方程,正是量子计算机所擅长的。
像IBM、谷歌也持有类似观点,IBM的规划甚至更为乐观,认为今年就可能实现实用化阶段。当然,这个进程还取决于技术迭代速度和算法突破,但方向和趋势已经非常明确。
硬氪:面对行业内中性原子、离子阱等多种技术路线的竞争,量旋为何坚定选择超导?
项金根:综合来看,超导路线在性能上仍处于领先地位。近期谷歌和IBM实现量子优越性的成果都基于超导路线,这证明了它的成熟度。更重要的是,超导量子芯片的加工工艺与传统半导体产业高度兼容,这让我们可以充分利用现有的工业体系,避免重复造轮子。
从量子比特数、保真度到量子纠错,超导路线都有清晰的物理和工程支撑路径。当然,如果非要在超导之外再选一个,中性原子可能是第二有潜力的路线。
硬氪:本轮融资后,量旋科技在超导量子比特的研发目标上有何具体规划?预计何时能够推出下一代产品?
项金根:我们在超导量子比特的研发上一直保持着每年翻倍的迭代节奏,这个目标没有改变。本轮融资的资金很大一部分会投入到芯片加工设备和测试设备的升级上,这是支撑比特数提升的基础。
具体到产品层面,我们预计今年上半年会有一些重要的客户订单落地,但下一代超导量子计算机整机的发布还需要时间,产品发布有自己的周期,我们希望在技术指标和稳定性都达到预期后再推向市场。
另外,芯片实验室的工艺也在持续升级,我们正在布局新的工艺,这些都是为未来更高比特数芯片做的技术储备。
侨源股份:暂无电子级氦气产品储备
搭载黑芝麻智能华山A1000,东风奕派007闪现版正式上市
横店东磁:未参与特斯拉太空光伏计划
潍柴动力:公司发电业务产品需求饱满
亚马逊将向第三方卖家征收3.5%燃油附加费
以小小小小胜大!Google 最强小模型刚刚发布,手机也能跑
![]()
「开放」和「开源」,并非一字之差。
Google 的 Gemma 系列发布已有两年,开发者能下载、能本地运行,但用途受限,再分发受限,改了也不能随便传播。充其量说,这只能算「开放」,还达不到 AI 圈「开源」的标准。
![]()
▲Google DeepMind CEO Demis Hassabis
就在刚刚,Google 发布四款 Gemma 4 系列模型,支持 Apache 2.0 全面开源,其中最小的版本可以在树莓派上完全离线运行。Gemma 小模型,第一次真正意义上地落到了每个人手里。
以小小小小胜大
Gemma 4 共发布四个尺寸,底层技术与 Gemini 3 同源,覆盖从边缘设备到高性能工作站的硬件:
E2B / E4B:专为手机和 IoT 设备设计,与 Google Pixel 团队及高通、联发科深度合作优化。推理时分别仅激活 2B 和 4B 参数,以尽量节省内存和电量。
支持 128K 上下文窗口,具备图片、视频和原生音频输入能力,可在 Pixel 手机、树莓派、Jetson Orin Nano 上完全离线运行,延迟接近于零。Android 开发者现在可通过 AICore 开发者预览版提前体验 Agent Mode。
![]()
26B MoE:混合专家架构,推理时仅激活全部参数中的 3.8B,在保证极快推理速度的同时维持较高质量,Arena AI 文本评分达到 1441,位列开源模型第六。
31B Dense:追求极致原始性能,Arena AI 文本评分达到 1452,位列开源模型第三。未量化的 bfloat16 权重可在单张 80GB NVIDIA H100 上运行,量化版本支持消费级 GPU,为本地微调提供强力基础。
在能力层面,四款模型高度一致:均支持多步推理和复杂逻辑;原生支持函数调用、JSON 结构化输出和系统指令,可构建能与外部工具和 API 交互的自主 Agent;支持图片和视频输入,擅长 OCR 和图表理解等视觉任务;预训练语言超过 140 种。
26B 和 31B 的上下文窗口进一步扩展至 256K,可在单次提示中传入完整代码库或长文档。
![]()
基准测试的数字,能更直观地说明这一代的升级幅度。
与上一代 Gemma 3 27B 相比,Gemma 4 31B 在数学推理基准 AIME 2026 上从 20.8% 跳升至 89.2%,代码能力基准 LiveCodeBench v6 从 29.1% 升至 80.0%,衡量 Agent 工具调用能力的 τ2-bench 则从 6.6% 大幅提升至 86.4%。
这三项数据尤为关键,因为它们直接对应推理、编程和 Agent 三个当下最核心的应用场景。
参数效率是另一个值得关注的维度。从「模型性能对比参数量」的散点图来看,Gemma 4 用 26B 和 31B 的体量,拿到了通常需要数百亿乃至千亿参数才能达到的 Elo 分数。
26B MoE 的 Arena AI 评分接近参数量约 15 倍的 Qwen3.5-397B-A17B,31B Dense 的评分则与体量在 600B 以上的 GLM-5 处于同一梯队。Google 将其概括为「单位参数智能密度前所未有」,至少数字显得有理有据。
![]()
边缘端模型同样值得关注。
E2B 在多语言问答基准 MMMLU 上达到 60.0%,在科学知识基准 GPQA Diamond 上达到 43.4%,要知道,这仅仅是一个只激活 2B 参数、可以跑在手机上的模型。相比之下,Gemma 3 27B 在 GPQA Diamond 上的得分是 42.4%,两者几乎持平。
换句话说,手机上的 2B 模型,已经追上了上一代 270 亿参数的桌面模型。
在硬件生态层面,NVIDIA 与 Google 已就 Gemma 4 在 RTX GPU、DGX Spark 个人 AI 超级计算机及 Jetson Orin Nano 上的推理优化展开合作。
NVIDIA Tensor Core 和 CUDA 软件栈为 Gemma 4 提供了开箱即用的高吞吐、低延迟支持。本地 Agent 应用 OpenClaw 也已适配最新模型,可调用用户本地文件和应用上下文自动化执行任务。
![]()
从「开放」到「开源」,打开另一种可能性
理解这次发布,需要先搞清楚 Gemma 和 Gemini 的关系。两者基于同一套研究和技术体系构建,区别在于 Gemini 是订阅制的闭源产品,Gemma 则是可以免费下载、本地运行的开放模型。
Gemma 系列历代产品一直使用 Google 自有条款授权。
开发者虽然可以下载和本地运行,但用途和再分发受到限制,严格来说只能算「开放」,算不上「开源」。Google 依然握着这根缰绳。
Gemma 4 正式切换至 Apache 2.0 协议。在这套许可证下,开发者可以将模型用于任何目的,包括个人、商业和企业用途,无需支付版税,也无任何用途限制,修改和再分发同样自由。
Apache 2.0 还内置了专利保护机制:贡献者的专利自动授权给用户,若用户反过来以专利侵权起诉他人,则自动丧失使用授权。这套双向条款为企业级用户提供了额外的法律保障。
这次开源的实质意义在于,Gemma 4 现在可以合法打包进产品、服务和硬件设备中一并交付。对于医疗、金融等有数据主权或合规要求的行业用户,完全本地运行意味着数据不必上传云端,同时又能获得前沿的 AI 能力。
Hugging Face 联合创始人兼 CEO Clément Delangue 将此次授权切换称为「一个重要的里程碑」。自 2024 年 2 月首代发布至今,Gemma 系列总下载量已超 4 亿次,社区衍生变体超过 10 万个。
现在,模型权重已经上架 Hugging Face、Kaggle 和 Ollama,Transformers、TRL、vLLM、llama.cpp、MLX、Unsloth、SGLang、Keras 等主流框架均已于发布当天提供支持。
![]()
本地部署可通过 Ollama 或 llama.cpp 配合 GGUF 格式权重快速上手,Unsloth Studio 同步提供量化模型的微调和部署支持。如需云端扩展,Google Vertex AI、Cloud Run 和 GKE 同步可用。
以 Gemma 4 为代表的小模型有着更深远的意义,因为它重新回答了一个基础问题:AI 应该在哪里运行。
过去两年,这个问题的答案几乎是默认的:
数据中心。用户通过网络接口调用云端模型,数据必须上传,使用依赖连接,成本由服务商定价。这套模式在消费场景里运转尚可,但对数据主权有要求的行业,比如医疗、金融、工业,始终是一道难以逾越的门槛。
Gemma 4 提供了另一种可能。
手机、树莓派、没有外网的工厂终端,都可以在本地完成完整的模型推理。数据不离开设备,决策不经过云端。Apache 2.0 的授权则进一步打开了落地空间:模型可以合法打包进硬件产品,预装进行业设备,不再受限于调用协议和数据出境的合规约束。
![]()
能力层面的数字也印证了这条路的可行性。E2B 在科学知识基准 GPQA Diamond 上的得分,已经与上一代 270 亿参数的桌面模型基本持平,而它推理时只激活 20 亿参数,可以完全离线跑在手机上。
「更便宜」或「更方便」已经不足以描述这个变化,它更接近于一次覆盖范围的扩张,AI 能力开始有条件真正进入那些长期被排除在外的场景。
操作系统的普及经历过类似的过程:从专业机构的专用工具,逐渐嵌进每一台个人设备,直到人们不再意识到它的存在。AI 离那个阶段还很远,工程、交互、可靠性上的问题都还没有完整的答案,但可以跑在任意设备上,一定是这条路上最基础也是最重要的一步。
#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。