量子计算加速取代GPU,已是板上钉钉的事实?
时间:2026-01-12 14:11
前言:
当量子计算开始被反复放在AI加速、算力革命、后GPU时代的语境中讨论,一个被不断放大的判断正在形成:GPU终将被量子计算取代。
这个判断看似前瞻,甚至带有某种必然性,但它究竟是技术演进的冷静推论,还是又一轮被资本、叙事和想象力共同推高的未来幻觉?
激进预言背后,基辛格的底气与动机
[量子计算将在两年内普及,2030年前彻底取代GPU,戳破AI泡沫!]
前英特尔CEO、现风投合伙人帕特·基辛格的激进预言,将量子计算、经典计算与AI计算并称为[运算领域的神圣三位一体]。
其言论与行业普遍预期的15-20年普及周期、英伟达CEO黄仁勋提出的20年合理值形成尖锐对立。
基辛格坚信量子计算将颠覆GPU的核心逻辑,根植于量子计算的底层原理优势。
在基辛格看来,就像当年GPU凭借并行算力超越CPU主导AI领域一样,量子计算将以代际优势颠覆GPU的护城河。
值得关注的是,基辛格离开英特尔后加入的风投机构Playground Global,已投资PsiQuantum、Rigetti等多家量子初创企业。
而他此次高调发声,恰逢QuantWare发布万级量子比特架构、量子计算产业化加速的关键节点,其言论难免被解读为吸引资本关注量子赛道的策略。
更有趣的是,基辛格的预言带有历史回响,2007年时任英特尔副总裁的他曾断言[显卡将在两三年内消失],力推x86多核架构的Larrabee项目,最终却因性能不敌英伟达GPU而失败。
如今再抛[GPU终结论],既延续了他对颠覆性技术的执着,也暗含着对当年失利的某种回应。
任何[取代论]的出现,都不是偶然的。它往往意味着原有技术路径开始显露边际压力,而新路径尚未成熟,但已经具备叙事张力。
一方面,AI的[指数叙事]需要新的承载物。AI产业高度依赖一个隐含前提是算力可以持续指数级增长。
当GPU的增长曲线开始变缓,产业叙事必须寻找下一个[指数来源]。量子计算,天然具备指数级状态空间、指数级并行性、指数级想象空间这种叙事属性。
另一方面,GPU仍然强大,但它已不再是可以无限线性扩展的解法。随着AI模型参数从百亿级迈向万亿级,传统算力架构的瓶颈日益凸显,行业迫切需要新的算力增长点。
量子计算的指数级潜力,恰好成为破解这一困局的希望所在,这也为基辛格的激进预言提供了现实土壤。
技术突破,量子计算的产业化加速信号
2024年以来量子硬件领域捷报频传,IBM发布156量子比特Heron R2处理器,速度较初代提升50倍,支持5000个双量子比特门操作。
谷歌推出105比特Willow芯片,5分钟即可完成经典超算需10²年的基准计算。
而近日QuantWare的VIO-40K架构更是实现跨越式突破,宣称支持1万量子比特,相当于当前主流商用量子处理器的近100倍。
QuantWare的突破并非简单的数量叠加,其采用3D扩展+Chiplet模块化设计,将控制线从二维平面扩展至立体空间。
解决了传统超导量子芯片的布线拥挤、信号干扰难题,支持4万条输入输出线路,在更小的封装体积内实现了算力的指数级提升。
同时,该公司正在建设全球首座量子芯片专属晶圆厂Kilofab,计划2026年投产,产能将提升20倍,为大规模量产奠定基础。
除了超导路线,离子阱、光量子等技术路线也稳步推进。
IonQ专注离子阱技术,计划2026年实现256个以上物理量子比特。
中国企业玻色量子、图灵量子聚焦光量子路线,国盾量子则深耕超导领域,形成多路线并行发展的格局。
此外,量子计算与AI的结合展现出双向赋能的特点。量子计算有望加速运行AI应用,而AI技术也正被用于帮助开发、运行和改进量子计算机。
AI可以帮助量子计算机实现更高效的纠错、校准、设备控制、任务调度和电路编译。
Gate公司正试图在量子计算领域复制英伟达在AI领域的成功模式,通过开发涵盖硬件和软件的综合生态系统,成为量子计算进展的首选平台。
现实拷问,量子计算真能取代GPU吗?
量子比特的脆弱性是当前最大的技术痛点,量子比特极易受环境干扰,温度波动、电磁辐射甚至控制信号的微小误差,都可能导致其失去量子特性(退相干),错误率居高不下。
实现实用化的容错量子计算,需要通过复杂的纠错机制,用多个物理量子比特编码一个稳定的逻辑量子比特。
这意味着,QuantWare宣称的1万物理量子比特,实际能支撑的逻辑量子比特仅为个位数,实用价值有限。
IBM计划在2033年前推出具有量子纠错能力的量子计算机,而中国科学院院士潘建伟预计,需要5-10年才能解决量子计算纠错问题,到2035年或2040年才能构建出容错通用量子计算机。
在纠错技术取得重大突破前,量子计算难以独立承担复杂的AI训练任务,必须依赖GPU进行数据预处理、误差校正和结果解析,二者协同而非替代。
量子物理学家詹姆斯·惠特菲尔德直言:[量子技术进步令人印象深刻,但认为它能突然解决一些经济上可行的问题,还是略显牵强。]
量子计算不是[更快的CPU/GPU],它擅长的并不是[算得多],而是在巨大状态空间中,放大特定解的概率和对组合爆炸问题进行结构性压缩。
这意味着,量子计算不是通用加速器,它是问题特定型加速器。
当前AI计算的主流形式包括大规模矩阵乘、梯度下降、误差反向传播,这些操作的共同特征是高数值稳定性要求、需要可重复和可验证的结果。
量子计算并非对所有计算问题都有优势,它只在特定类型的问题上才能实现指数级加速,而基于深度学习的AI最常用的大规模矩阵乘法和梯度计算,并不能直接从现有量子计算机中获得显著提升。
它无法替代GPU去做大规模神经网络训练、实时推理、高吞吐和低延迟任务。
换句话说,量子计算不是GPU的[升级版],而是GPU的[旁系物种]。
结尾:不是取代,而是[算力分工重构]
AI是工程系统,而不是物理实验。GPU仍将长期主导AI主干计算,在可以预见的十年以上周期内的模型训练、推理部署、多模态计算,GPU及其衍生架构仍是主力。
量子计算真正有潜力的方向并不在GPU的腹地,而是在边缘。
这里的[边缘]不是指边缘计算,而是指计算能力版图的边缘或问题空间的边缘,这些是GPU难以触及、效率极低甚至完全无法解决的领域。
①组合优化与搜索问题,如物流、调度、金融组合、路径规划。
②模型结构与超参数空间探索,用于辅助模型设计,而非直接训练。
③材料、药物、芯片工艺的模拟,间接推动AI与算力硬件本身的进步。
最可能的形态是量子计算成为[算力协处理器],更现实的未来是GPU负责主计算,量子计算作为远程、异步的加速模块,通过混合算法嵌入工作流。
类似今天的CPU+GPU和GPU+FPGA,而不是[谁取代谁]。真正被取代的,可能不是GPU,而是[单一算力神话]。
GPU凭借并行算力主导AI时代的十年,也是技术红利与行业积累矛盾的十年。
未来真正的竞争不在于[谁取代谁],而在于谁能构建一个,容纳多种计算范式协同共存的算力体系。
来源:Ai芯天下
