光联芯科CEO 陈超:光互连是通往AGI的必由之路|WISE2025 商业之王
11月27-28日,被誉为“年度科技与商业风向标”的36氪WISE2025商业之王大会,在北京798艺术区传导空间落地。
今年的WISE不再是一场传统意义上的行业峰会,而是一次以“科技爽文短剧”为载体的沉浸式体验。从AI重塑硬件边界,到具身智能叩响真实世界的大门;从出海浪潮中的品牌全球化,到传统行业装上“赛博义肢”——我们还原的不仅是趋势,更是在捕捉在无数次商业实践中磨炼出的真知。
我们将在接下来的内容中,逐帧拆解这些“爽剧”背后的真实逻辑,一起看尽2025年商业的“风景独好”。
![]()
光联芯科 CEO 陈超
以下是真知创投合伙人、光联芯科CEO 陈超先生的演讲实录,经36氪编辑:
大家下午好!我是来自光联芯科的陈超。非常高兴有机会跟大家分享,我的演讲主题是“算力·无界 光互连是通往AGI的必由之路”。
在正式开始之前,我想邀请大家来先看一组图片,这三张图由Open AI Sora多模态大模型生成的,算力规模不同,从左到右别用到了300张GPU、1250张GPU和10000张GPU,从左到右也是图片质量越来越好。那么,我们是否可以做一个基本假设:所用算力的多少能决定一个AI智能的高低。
2012年,AlexNet横空出世,代表着深度学习在计算机视觉领域的重大突破。2015年,DeepMind在《Nature》上发表了一篇文章,它将深度学习和强化学习相结合,第一次让人工智能有了自主学习复杂任务的能力。2016年,AlphaGo出现,AI第一次在围棋领域战胜了人类的顶尖选手。2022年,ChatGPT出现,AI第一次从专业领域走入大众视野。再到今年GPT-5的出现,距离ChatGPT有3年的时间,我相信在座的各位或线上的朋友,或多或少都会用各种AI工具提效。
回顾整个AI的发展历程,如果把1956年第一次达特茅斯会议看成AI的开始,到现在也有将近70年的时间。为什么过去10年AI有了突飞猛进的进展,而不是在前60年?因为AI的进化是算力驱动的,过去十年间算力的增长超过10亿倍,就是10的9次方,可以说是年对年的算力增长是将近10倍。
训练一个AlexNet模型,只用到两张英伟达的GTX580,AlphaGo则用了1920个CPU+280个GPU,GPT-3使用了1万个英伟达的G100,达到万张的级别。GPT-5用到了约20-30万张英伟达的H100,这个数量级已经很大。如果我们走向通用人工智能AGI,未来GPT-6、GPT-7需要多少算力才能达到AGI?
根据硅谷前沿科技分析师的预测,达到AGI需要大约10的41次方FLOPs的等效算力。我们现在目前的算力水平在10的25次方左右,也就是说我们还有大概10的16次方的差距。如果我们假设在软件算法层面能跨越10的8次方的差距,那么剩下的10的8次方,一定要在硬件芯片的算力层面去提升。也就是说,实现AGI需要现在的算力规模提升1亿倍,这是一个非常大的数字。
按照现在算力行业的进行轨迹,我们能否达到AGI?
不能。为什么?因为算力行业面临了两大挑战,有带宽的瓶颈、也有能耗的问题。
先来看带宽。互连带宽严重限制了算力的发展,互连带宽的增速显著低于算力增速。过去20年间,单芯片算力的提升倍数是6万倍。存储带宽只提升了100倍,与前者相差600倍。互连带宽只提升了30倍,更小,只有算力提升的两千分之一。整个计算集群的性能,被带宽严重限制,而不是被算力所限制。
我们来看一个具体的案例,马斯克的Grok3大模型由Colossus算力集群训练,一共用到约20万块英伟达H100芯片。这样大规模的集群,几个层级的互连带宽分别表现如何?可以看到,芯片最里面,显存带宽是4TB每秒。往外走,两张GPU之间的连接是NVLink,带宽是0.9TB每秒,对比前面已经小了5倍左右。再往外走,服务器和服务器之间需要用IB网络互连,带宽是0.05TB每秒,对比NVLink带宽,又小了将近20倍。
从芯片内往外走到服务器,层层受限。互连带宽已经成了层层卡点,限制了整个算力集群的性能,这就是为什么很多算力集群的利用率、芯片的利用率只有20%-30%,而达不到80%-90%满转的状态。
再来看能耗。我们来看两个对比,右边是三峡水电站和大亚湾核电站的总装机容量,分别是22.5GW和6GW,吉瓦是一个很大的数字。
左边是全球在建的数据中心的规划量级。Stargate由Open AI和微软共同打造、耗资1000亿美元的超级算力中心,规划总容量5GW,几乎相当于一个大亚湾核电站的总装机容量。xAI是马斯克旗下,和沙特人工智能公司、英伟达合作筹建的一个超级算力中心,规模是6.6GW,甚至超过大亚湾核电站总装机容量,约是三峡的三分之一。一个算力中心相当于一个核电站的发电量,未来我们要实现AGI,算力需扩张到1亿倍,全球的电力用来做运算都是不够的。这条路走不通,问题出在哪里?
这是英伟达NVL72超节点正面跟反面的照片,如果我们把反面的背板放大,会看到很多铜做的铜缆,这些铜缆加起来超过两英里。铜这种介质有一个问题:随着传输速率的不断提升,会受到趋肤效应的影响。即铜只有表面去做信号的传导,铜里面没有任何电流经过。这意味着铜所代表的电互连在带宽和功耗上已经走到了物理极限,两英里长的铜缆,算力中心90%的能耗都用在搬运数据而非计算上,是一个巨大的浪费。
铜做不到的事情,怎么办?我们用光。
光互连是突破算力瓶颈的最优解。从1998年全球第一条服务于互连网的海底光缆铺设成功,我们就解决了从千公里到万公里的光的通信、光的连接能力。过去十年到二十年,数据中心蓬勃发展,我们有了相干光模块、数通光模块等,解决了从一公里到数百公里的光的连接能力。一公里以内,几百米到几厘米之间,我们可不可以用光去解决连接问题?答案是可以。我们可以用芯片出光,去解决几百米内到几厘米之间光的连接问题。用电做计算,用光做互连,因为我们相信,光互连本质上是光通信在数据通信领域的进一步延伸跟下沉。
光联芯科就是打造下一代AI计算集群光互连解决方案的提供商,可以做到芯片直接出光,为算力公司提供大带宽、低功耗、低延时的下一代光互连的解决方案。
未来的数据中心都是由绿色能源的光纤来互连,一排排地复制,能耗非常低,但带宽非常大。我们希望将带宽能效积能够提升4个数量级以上,也就是1万倍以上。
这是我们的产品展示。右边是我们用国产的晶圆厂制造的硅光晶圆,展示的是晶圆级的系统测试平台。左边是我们发布的第一代高速收发的OIO高速光引擎评估板。可以看到,左边的光纤拉出来可以连到GPU里面,做到GPU之间的光互连。
光联芯科的企业愿景是助力国产算力行业走出中国自己的半导体平行生态。我经常会想到一个类比:在燃油车领域,我们很难去直线追赶BBA,但是我们另辟蹊径,用电动车,现在已经完全弯道超车。在半导体领域,是否可以同样另辟蹊径?如果把英伟达跟台积电等高端设计公司比作燃油车赛道,我们可否换条赛道弯道超车?用国产的算力、国产的互连和国产的晶圆制造厂,虽然单颗芯片的算力距离国外有一定差距,但是我们完全可以在整体算力集群的性能和功耗上超越国外,我们可以走出一条中国独有的半导体突围之路。
展望2030年,未来的算力中心会是什么样的?未来的算力世界又会是什么样?我相信,那时很多人都用上了低轨卫星互连网,跟地面用激光通信,用光做连接。骨干网会用光纤做连接,数据中心会有光模块、光互连、光交换等去连接,我们期待一个全光互连的新时代。
谢谢大家!这是今天我的分享。