集智俱乐部 05月14日 22:27
《AI×SCIENCE十大前沿观察》10:新型智能计算
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

本文深入探讨了创新计算架构与计算模式,重点关注了新型智能计算背景下,传统计算面临的挑战,以及凡人计算、光学计算和量子计算等新兴技术。文章介绍了这些技术在提升计算效率、安全性以及应对AI发展瓶颈方面的潜力。同时,也分析了量子计算在AI领域的应用,以及AI技术在量子计算中的作用,并讨论了量子计算实现量子优势的瓶颈。最后,对未来计算技术的发展趋势进行了展望,强调了混合计算架构的重要性。

💡 **凡人计算:** 借鉴生物系统的有限性和自我调节特性,通过将计算与硬件紧密结合,降低能耗,限制AI的无限复制能力,从而降低超级智能失控的风险。

✨ **光学计算:** 利用光学原理实现信息处理,在速度、功耗和并行性方面具有优势,特别是在加速深度神经网络方面表现出色,并提出了全前向模式学习方法,验证了光学神经网络的可行性。

⚛️ **量子计算:** 结合量子力学特性,有望解决传统计算机难以应对的问题。文章探讨了量子计算在AI中的应用,如AI辅助量子算法和经典机器学习的量子版本,并分析了量子计算实现量子优势的瓶颈,例如量子噪声和有限的量子比特数量。

原创 集智与上智院 2025-05-11 20:30 上海

创新计算架构与计算模式

导语

上海科学智能研究院、集智科学研究中心和阿里云联合发布了《AI × Science十大前沿观察》,梳理出35个研究前沿,来推动科学发展的黄金时代到来。本篇为前沿观察10,扫描下方二维码,可获得完整版下载、快速链接论文原文。

扫描二维码 下载完整报告

新型智能计算

背景介绍

在当今数字化时代,以神经网络为代表的智能计算不断生成海量数据,同时也推动了对算力的更高需求。传统计算所面临的挑战也逐步展现:

这一趋势正在深刻改变计算机体系架构的格局。为满足特定应用的需求,设计专门的领域处理器已成为一种重要趋势如谷歌的TPU和华为的昇腾AI芯片对神经网络在芯片上的运行进行优化。这种软硬件一体化的方案显著提

升了应用程序的运行效率。除了在传统计算架构内的创新外,软硬件结合的新型计算模式也逐渐浮出水面。例如,凡人计算(Mortal Computation)[4,5] 、光学计算(Optical Computing)[6,7]和量子计算(Quantum Computing)等新兴理念,展现出在更高效、安全和节能的框架下推进AI技术发展的潜力。

凡人计算通过将硬件与计算模型紧密结合,减少了冗余的数据传输和热量散发,从而显著降低了计算系统的能耗并提升了计算效率。此外,软硬件结合的模式在某种程度上限制了AI的无限复制能力,从本质上降低了未来超级智能失控的风险[4,5] 。

光学计算是一个新兴的学科领域,它利用光学原理和技术来实现信息的处理、存储和传输。 与传统的电子计算相比, 光学计算在速度、功耗和并行性等方面具有独特的优势,在人工智能、大数据处理和科学计算等领域具有广阔的应用前景。 光学神经网络是光学计算与人工智能领域的一个交叉方向,它利用光学技术模拟神经网络,克服传统计算平台在深度神经网络加速方面的瓶颈,并为未来的 AI 应用提供更高效的计算方案[6]。

量子计算是一种革命性的计算模式,基于量子力学的特性,如叠加态和量子纠缠,展现出比经典计算机更强大的信息存储和并行处理能力。因此,量子计算有望解决传统计算机难以应对的特定问题,包括量子系统模拟、量子化学、密码学、机器学习加速及组合优化等领域[8]。在量子计算与人工智能的交叉点上,两者的合作虽被寄予厚望,并被认为孕育着巨大潜力,但科研实践中如何更高效地推进量子计算与人工智能的结合,仍然是一个开放的问题。

在“AI for Quantum”方面,AI技术在量子计算硬件、量子算法设计、量子纠错和量子误差缓解等领域正发挥着日益重要的作用[9]。首先,在量子噪声处理方面,谷歌团队最近推出了一种基于Transformer架构的递归神经网络解码器AlphaQubit[10]。该解码器在处理谷歌Sycamore量子处理器的真实数据时,表现优于其他先进解码器。同时,IBM也在探索将机器学习模型应用于量子错误缓解技术[11],以在不牺牲计算精度的前提下降低错误缓解成本。除了量子噪声处理,人工智能还被引入到量子编译(Quantum Compilation)中。量子线路模型是广泛使用的量子计算模型之一,如何高效地将设计好的量子算法映射为量子线路中的量子比特和量子门操作的过程被称为量子编译。近期,研究人员利用生成人工智能中的扩散模型(diffusion models)生成子编译所需的量子门[12]。在AI辅助的量子算法层面,AI通过预先优化参数来预测新实例的最佳参数,缓解了变分量子算法面临的训练中贫瘠高原(Barren Plateau)问题[9]。

另一方面,在“Quantum for AI”中,研究人员不断构建经典机器学习的量子版本,并在实验中追求更多量子比特以较低错误率执行更深层次的量子线路,力求通过实际案例展示量子优势[13]。在经典计算机上训练机器学习模型通常需要消耗大量的计算资源和时间,一些研究提出将机器学习的训练问题表述为二次无约束二进制优化(Quadratic Unconstrained Binary Optimization,QUBO)问题,并使用绝热量子计算机求解QUBO问题[14]。Quantum for AI” 具有代表性的算法包括量子神经网络(Quantum Neural Networks)和HHL算法(Harrow–Hassidim–Lloyd Algorithm)。HHL算法是一种用于对线性方程组进行数值求解的量子算法[15],由于线性系统在科学和工程的绝大多数领域普遍应用,因此线性方程组的量子算法具有广泛的应用潜力。对于特定类型的矩阵,HHL算法能够将线性方程求解的复杂度从经典最优算法的指数级降低至多项式级。识到HHL算法在量子机器学习领域的重要性后,Scott Aaronson分析了可能限制该算法的因素[16],指出量子态的制备成本和读出成本可能会消除指数加速。量子神经网络(QNN)是一种引入量子计算机制的神经网络模型,Abbas、Amira等人的研究通过有效维度这一尺度指出,量子神经网络相较于经典神经网络具有显著优势[17]。然而,量子神经网络同样面临训练中贫瘠高原(Barren Plateau)问题[18]。此外,《自然》杂志的一篇新闻特写文章指出[19],“量子计算机是否能为机器学习提供优势,应该通过实验来验证,而不是仅仅依赖数学证据来判断其优越性。”由于量子计算机的技术实现仍处于初级阶段,目前的量子神经网络模型大多属于理论构想,在物理实验中进行全面验证。

因此,当前量子计算领域的重要任务是实现具有更高保真度并且规模足够大的量子计算机。在实现量子计算的物理载体中,超导体系已被广泛接受,其次是高保真度门操作的离子阱系统。然而,近年来,中性原子体系以黑马的姿态迅速崛起,成为量子计算的重要竞争者[20-23]。2018年,加州理工大学教授John Preskill提出了NISQ(Noisy Intermediate-Scale Quantum)概念[24],强调当前量子计算硬件的局限性,包括受噪声影响的不完美量子操控和量子比特数量的限制(通常在10到1000之间)。NISQ概念提出后,量子计算领域在这两个维度上取得了最新进展:

1. 在量子比特数量方面,走在最前面的两家商业公司:量子计算公司Atom Computing利用中性原子构建的量子计算平台已实现1,180个量子比特[25],而IBM的Condor超导量子处理器则包含1121个量子比特[26]。

2. 在处理噪声引起的错误方面,主要采用量子纠错(QEC)和量子错误缓解(QEM)两种方法。目前,量子计算领域的重要工作大多与量子纠错相关,例如在中性原子量子计算体系和超导量子体系上实现量子纠错码。

量子计算与传统计算之间并非替代关系,而是相辅相成。未来,量子计算有望与传统计算结合,形成混合计算架构,充分发挥各自的优势,推动计算技术的进一步发展。

研究进展

进展目录

1. 凡人计算

2. 光学计算

3. 量子计算

a. 物理实验中的量子优势

b. 实现量子优势的瓶颈

c. 量子纠错

d. 量子错误缓解

e. 中性原子量子计算

凡人计算

推荐理由:杰弗里·辛顿(Geoffrey Hinton)提出了基于硬件的“凡人计算”概念[4]。 他指出,生物系统中的信息处理所依赖的计算过程是与其执行的物理基质不可分割的,即“软件”无法脱离“硬件”而存在,这与计算机科学中的计算概念形成了鲜明对比。Hinton提出使用前向-前向传播的算法(Forward-Forward,FF)来实现凡人计算。

从“永生”软件向“凡人计算”范式的演进,为实现基于自然主义的机器智能提供了新的技术路径。研究[5]指出,不朽计算(图2左)和凡人计算(图2右)在热力学消耗上存在显著差异。在典型的冯·诺依曼架构中,计算机体系结构中不同类型的存储之间存在“能量壁”,需要花费能量将信息最终入CPU。而在神经形态芯片中,凡人计算程序的处理直接在存储之上或存储内进行,避开了冯·诺依曼架构中所需的大量能耗。

不朽计算(左)和凡人计算(右)在热力学消耗上的差异|图片来源:Ororbia and Karl (2023). "Mortal computation: A foundation for biomimetic intelligence."

凡人计算也意味着一旦实现该程序的硬件媒介失效或“死亡”,其所拥有的知识、行为和特定功能,包括其特性也将随之消失。这类似于生物有机体在无法维持自身时,其所获得的知识和行为也随之终止而使得AI具备了自我限制和自我调节能力,降低了超级智能失控的可能。

光学计算

光学计算作为一种新型计算范式,为深度神经网络工作负载提供加速,从而克服电子计算在该领域的局限性。清华大学研究团创新性提出全前向模式学习(Fully Forward Mode Learning, FFM),通过构建基于光学系统对称性的可微分物理模型,在自由空间光子神经网络中实现了原位梯度计算与参数优化[7]。该方法利用洛伦兹互易性原理,将误差传播转化为前向物理过程,突破性地解决了光学反向传播对精准系统建模的依赖问题。在8层百万参数量级自由空间光学神经网络实验中,该方法在Fashion-MNIST数据集上取得92.5%分类准确率,较离线数值模拟理想模型(96%)展现出优异的物理系统适配能力,验证了全光域深度学习训练的可行性。

传统光学系统建模与基于FFM(Full-Forward Mode)的现场机器学习之间的区别与联系。|图片来源:Xue, Z., Zhou, T., Xu, Z., Yu, S., Dai, Q., & Fang, L. (2024). Fully forward mode training for optical neural networks. Nature, 632(8024), 280-286.

量子计算

物理实验中的量子优势

推荐理由:人类通过实验认知自然,但迄今为止这种认知能力一直受限于通过经典视角观测量子世界。理查德·费曼(Richard Feynman)提出量子计算的动机之一是意识到经典计算机在模拟量子系统时的本性局限“自然不是经典的,如果你想模拟自然,最好用量子力学。”近期一项研究体现了费曼的思想,也许在量子实验相关的任务可以找到量子计算的优势场景 [27],相较于传统实验模式(即对物理系统进行测量后使用经典计算机处理结果)一种将物理系统数据转导至稳定量子存储器、并利用量子计算机处理数据的实验架构可能具有显著优势。

量子增强实验与传统实验在学习物理系统性质方面差异的核心图示。上半部分展示了量子增强实验的流程。下半部分展示了传统实验的流程。信息存储方式和处理方式不同: 量子增强实验使用量子存储器存储量子信息,并且使用量子设备处理量子信息。传统实验使用经典设备存储与处理经典信息。处理量子信息又细分为学历物理态与学习物理过程。|图片来源:Huang, Hsin-Yuan, et al. "Quantum advantage in learning from experiments." Science 376.6598 (2022): 1182-1186.

这种指数优势体现在3个方面:(1)物理系统性质预测、(2)含噪量子态的主成分分析以及(3)物理动力学近似模型学习等任务中。举例来说,物理系统性质预测任务上,作者提到了一个案例,即预测Ising模型的磁性。传统方法需要测量大量的自旋状态,并进行复杂的计算才能预测其磁性。而量子方法可以通过制备Ising模型的量子态,并进行简单的测量,就能更有效地预测其磁性。作者对这三种学习任务进行了数学分析以证明具有指数级量子优势,并在Google Sycamore处理器上进行了实验,证明了即使使用目前的噪声量子设备,量子增强实验也能胜过传统实验。

实现量子优势的瓶颈

推荐理由:迄今为止,仅在少数实验中证明了量子优势。2019年,Google AI Quantum团队宣布了一项被称为“量子计算优越性”的里程碑事件 [28]。Google团队利用超导量子技术构建了一台名为Sycamore的可编程量子计算机,能在相邻量子比特之间执行纠缠的双量子比特门。目前已知的最佳模拟方法表明,Sycamore几分钟内的计算结果,在现有最强大的经典超级计算机上至少需要几天时间来完成[29]。

要充分发挥量子计算在解决实际问题上的加速优势,量子比特的数量和质量必须满足一定的要求。尽管量子处理器的量子比特数量持续增长,且通过云计算服务逐渐向学术界开放,但Nature Reviews Physics的一项研究[30]显示:2016年至2022年间quant-ph类别预印本中,研究所用的量子比特平均数量随量子体积(QV)增长升至10.5,中位数仅为6。该数值偏低源于NISQ设备抗噪能力有限,当量子比特数量增加时,计算结果可靠性显著下降。即使在具备更多量子比特的情况下,为了减少噪声对算法结果的干扰,研究者只能降低量子比特的使用数量。近日清华团队的研究从新的视角揭示了噪声对量子计算的巨大危害[31]。研究指出,在噪声强度某个阈值时,关联生成中量子优势突然消失。

各年使用的量子比特数量没有异常值的统计图。白色圆圈显示平均值。|图片来源:Ichikawa, T., Hakoshima, H., Inui, K., Ito, K., Matsuda, R., Mitarai, K., ... & Fujii, K. (2024). Current numbers of qubits and their uses. Nature Reviews Physics, 1-3.

量子纠错

推荐理由这些现象显示,要发挥量子计算的实质性优势,我们必须对量子噪声这一“绊脚石”发起挑战。量子计算中处理噪声引起的错误,主要源于量子纠错 (Quantum Error Correction, QEC) 这一方法。量子纠错最常见的方法是使用多个物理量子比特编码一个逻辑量子比特。尽管上个世纪90年代理论上就不断有量子纠错码被提出,但是实验上实现这些纠错码主要是近些年的事情。2024年,谷歌发表在Nature的论文显示[32],其超导量子处理器Willow拥有105个物理比特,构建了码距为3、5、7的表面码。表面码的码距每增加2时,逻辑错误率被2.14 ± 0.02 倍抑制,这使得每个周期的错误为 0.143% ±0.003%。随着码距的持续扩展,逻辑量子比特的错误率将维持随码距呈指数下降的特性。需特别说明,当表面码码距为7时,构建单个逻辑量子比特需消耗97个物理比特(码距d与物理比特数量呈二次方关系),并额外配置4个物理比特用于泄漏抑制。

表面码的码距d=3提升到码距d=5,编码错误率降低 2.15 倍。表面码的码距d=5提升到码距d=7,编码错误率降低 2.12 倍。|图片来源:Google Quantum AI and Collaborators. Quantum error correction below the surface code threshold. Nature (2024). https://doi.org/10.1038/s41586-024-08449-y

可以看出量子纠错的代价非常高。Gidney的研究指出[33],如果使用Shor的算法破解RSA-2048需要2000万个含噪量子比特、运行8小时。在这2000万个量子比特中,只有0.064%的量子比特用于计算,剩下的99.936%都是用于纠错的冗余。

量子错误缓解

推荐理由:从长远来看,量子纠错技术有望成为量子计算的终极解决方案;然而在当前硬件条件受限的短期阶段,采用误差缓解而非完全消除错误的过渡性策略更为可行,这便是量子错误缓解(Quantum Error Mitigation, QEM)[34]被广泛研究的原因。变分量子算法常采用的量子错误缓解包含零噪声外推(Zero-noise ExtrapolationZNE)概率性错误消除(Probabilistic Error CancellationPEC)测量错误缓解(Measurement error mitigation)

中性原子量子计算

推荐理由:在量子计算的物理载体竞争中,超导体系和离子阱体系长期以来一直是研究者的重点。然而,近年来,中性原子量子计算迅速崛起,成为这一领域中进展最显著的体系。与其他量子计算体系相比,根据DiVincenzo判据,中性原子量子计算在多个维度上展现出明显优势。

1.可拓展性:中性原子量子计算能够操控大量的原子,实验中已经实现了多达6100个原子的阵列[21]

2. 相干时间:中性原子的退相干时间可达到12.6秒[21];

3. 量子门构建:通过偶极相互作用,中性原子能够构建高保真度的量子门;此外,研究者可以通过光镊(optical tweezers)移动原子阵列实现非近邻量子比特之间的门操作,这为量子电路的灵活设计提供了新的可能性[22],实现了99.5%保真度的双比特纠缠门,超过了表面码的纠错阈值。

在中性原子量子计算领域,哈佛大学Lukin组及其合作者的研究成果尤为突出。他们成功地利用280个物理量子比特实现了多种类型的量子纠错编码:表面码(Surface Code)、颜色码(Color Code)和三维码(3D Code)[23]其中物理量子比特通过受困在光镊中的铷原子(87Rb)的超精细能级进行物理编码。实验展示了使用逻辑量子比特进行可扩展纠错和量子信息处理的关键技术。

基于可重构原子阵列的可编程逻辑处理器。处理器分为三个区域:存储、纠缠和读出。通过光镊(optical tweezers)操控87Rb原子。|图片来源: Bluvstein, D., Evered, S. J., Geim, A. A., Li, S. H., Zhou, H., Manovitz, T., ... & Lukin, M. D. (2024). Logical quantum processor based on reconfigurable atom arrays. Nature, 626(7997), 58-65.

应用

2023年在arXiv上发布的一篇长达300多页的文章对量子算法在多个潜在应用领域进行了深入调查[8]。这项研究不仅展示了量子计算在各个行业中的应用潜力,还强调了其在解决复杂问题时的独特优势。随着不断扩展的应用范围,量子计算的实际价值将更加凸显。

2022年,Lukin组在Science上发表的高论文[35],提出了基于中性原子阵列求解最大独立集问题的创新方法该研究利用了Rydberg原子的Rydberg blockade特性,能够有效地编码和求解最大独立集问题。相较于经典退火算法,实验结果显示在深层线路中求解精确解问题时存在超线性加速现象。随后一篇综述文章[36],概述了中性原子量子计算可以解决多种与图论相关的其他问题,例如最大团问题(Maximum Clique Problem)最小顶点覆盖问题(Minimum Vertex Cover Problem)图着色问题(Graph Coloring Problem)等。众多

的现实问题可以建模成图相关的组会优化问题,这些解决方案在实际应用中具有广泛的潜力。

在核聚变领域,谷歌与美国Sandia国家实验室等机构合作研究并提出了一种量子算法,能够用于计算核聚变实验中温致密物质的“制动能力” [37]。制动能力是指高能α粒子由于与周围等离子体的库仑相互作用而减速的速率。理解系统的制动能力对优化反应堆效率至关重要。当α粒子在等离子体中因减速作用损失动能时,其能量转移将引发电离气体温度上升。这种自加热效应是维持聚变燃烧等离子体的关键机制,而建立精准的动力学模型将为未来聚变堆工程设计提供重要理论支撑。

一个抛射体(红色)以初始速度穿过介质(蓝色)(左)。研究监测抛射体与介质间的能量传递(蓝色实线),并确定其平均斜率(红色虚线)(右)。|图片来源:Rubin et al. (2023) "Quantum computation of stopping power for inertial fusion target design." 

挑战与展望

目前这些新型计算的实现还存在诸多挑战。凡人计算试图将生物系统的有限性和自我调节应用于AI,但在理论与实践的融合方面存在复杂挑战,尤其是如何准确捕捉“凡人性”特征并将其有效转化到计算系统中。光学计算需攻克纳米光子集成与大规模制造工艺。量子计算目前面临的问题包括:高精度纠错和噪声控制、有限的量子比特数量与相干时间、材料和制造工艺的局限性等。这些因素使得实现大规模、通用的量子计算机在短期内仍然充满挑战。

展望未来,通用人工智能(AGI)的发展将呈现多元化技术路径并行的格局凡人计算促使我们更换思路,从“需求导向、工具中心”的AI观念转向植根于生命本质的智能观念。光学计算带来的高速运算能力可以应用于需要快速响应的场景,例如高级驾驶辅助系统。由于传统计算机在速度和功耗方面存在限制,光学计算方案迅速崛起,成为替代电子计算机、构建人工神经网络骨干的有力选择 量子机器学习是一个充满潜力的应用领域,它融合了量子计算与机器学习技术,通过量子加速提升训练和推理的效率。目前,像TensorFlow和Qiskit等平台已开始支持量子模型,为研究人员探索QML应用提供了有力的工具。尽管在该领域已有一些进展,谷歌在2024年I/O大会上指出,尚未有人在处理经典数据的机器学习中展示出明确的量子优势。这一现状突显出该领域对创新方法的迫切需求,亟需证明量子计算在机器学习中的实际效能。在未来的研究和应用中,除了单独使用某种计算方式,还有望能够通过组合计算,结合各技术的优点,更高效地解决各种复杂的计算问题。

参考文献

[1] Rillig, Matthias C., et al. "Risks and benefits of large language models for the environment." Environmental Science & Technology 57.9 (2023): 3464-3466.

https://pubs.acs.org/doi/10.1021/acs.est.3c01106

概述:大模型对环境的直接和间接影响

[2] Conklin, Alexander A., and Suhas Kumar. "Solving the big computing problems in the twenty-first century." Nature Electronics 6.7 (2023): 464-466.

https://www.nature.com/articles/s41928-023-00985-1

概述:21世纪重大计算问题的概述

[3] Silver, David, et al. "Mastering the game of go without human knowledge." nature 550.7676 (2017): 354-359.

https://www.nature.com/articles/nature24270

概述:关于AlphaGo Zero的论文,使用一种完全独立的增强学习算法,没有人类数据和指导。

[4] Hinton, Geoffrey. "The forward-forward algorithm: Some preliminary investigations." arXiv preprint arXiv:2212.13345 (2022).

https://arxiv.org/abs/2212.13345

推荐理由:Hinton的论文,介绍一种新的神经网络学习过程,前向-前向算法(Forward‑Forward Algorithm)

[5] Ororbia, Alexander, and Karl Friston. "Mortal computation: A foundation for biomimetic intelligence." arXiv preprint arXiv:2311.09589 (2023).

https://arxiv.org/abs/2311.09589

推荐理由: 关于凡人计算的综述

[6] Pasricha, Sudeep. "Optical Computing for Deep Neural Network Acceleration: Foundations, Recent Developments, and Emerging Directions." arXiv preprint arXiv:2407.21184 (2024).

https://arxiv.org/abs/2407.21184

推荐理由: 综述论文,主要关注光学计算作为一种新兴技术,如何克服传统计算平台在深度神经网络加速方面的瓶颈,并为未来的 AI 应用提供更高效的计算方案。

[7] Xue, Zhiwei, et al. "Fully forward mode training for optical neural networks." Nature 632.8024 (2024): 280-286.

https://www.nature.com/articles/s41586-024-07687-4

推荐理由: 提出全前向模式(FFM)学习,首次在光学物理系统中直接实现深度学习训练,突破传统依赖数字模拟的离线建模限制

[8] Dalzell, Alexander M., et al. "Quantum algorithms: A survey of applications and end-to-end complexities." arXiv preprint arXiv:2310.03011 (2023).

https://arxiv.org/abs/2311.09589

推荐理由:【应用方向重要的综述】该论文长达300多页,很全面的覆盖了量子计算在各领域的应用。第一部分从应用领域的角度出发,第二部分是从算法的角度出发

[9] Alexeev, Yuri, et al. "Artificial Intelligence for Quantum Computing." arXiv preprint arXiv:2411.09131 (2024).

https://arxiv.org/abs/2411.09131

推荐理由:【人工智能辅助量子计算的综述】人工智能在量子计算各个流程中的辅助,包含量子纠错,测量,量子线路设计,控制和优化。

[10]  Bausch, Johannes, et al. "Learning high-accuracy error decoding for quantum processors." Nature (2024): 1-7.

https://www.nature.com/articles/s41586-024-08148-8

推荐理由:针对量子纠错码的解码过程,谷歌团队提出AlphaQubit,基于机器学习的方法处理来自Sycamore 量子芯片的真实数据。

[11]  Liao, Haoran, et al. "Machine learning for practical quantum error mitigation." Nature Machine Intelligence (2024): 1-9.

https://www.nature.com/articles/s42256-024-00927-2

概述:利用机器学习的方法进行量子错误缓解

[12] Fürrutter, F., Muñoz-Gil, G., & Briegel, H. J. (2024). Quantum circuit synthesis with diffusion models. Nature Machine Intelligence, 1-10.

https://www.nature.com/articles/s42256-024-00831-9

概述:利用人工智能中的diffusion模型,生成量子编译所需的量子门

[13] Wang, Y., & Liu, J. (2024). A comprehensive review of quantum machine learning: from NISQ to fault tolerance. Reports on Progress in Physics.

https://iopscience.iop.org/article/10.1088/1361-6633/ad7f69

推荐理由:【量子机器学习方面的综述】与量子机器学习相关的基本概念、算法。并且考虑了硬件限制。

[14] Date, Prasanna, Davis Arthur, and Lauren Pusey-Nazzaro. "QUBO formulations for training machine learning models." Scientific reports 11.1 (2021): 10029.

https://www.nature.com/articles/s41598-021-89461-4

概述:将线性回归、支持向量机(SVM)和平衡k均值聚类这三种机器学习模型的训练问题表述为QUBO问题,在绝热量子计算机上解决。

[15] Harrow, Aram W., Avinatan Hassidim, and Seth Lloyd. "Quantum algorithm for linear systems of equations." Physical review letters 103.15 (2009): 150502.

https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.103.150502

推荐理由:求解线性方程组的量子算法的起始论文

[16] Aaronson, Scott. "Read the fine print." Nature Physics 11.4 (2015): 291-293.

https://www.nature.com/articles/nphys3272

概述: Scott Aaronson分析了可能限制HHL算法实际量子优势的注意事项和因素。

[17] Abbas, Amira, et al. "The power of quantum neural networks." Nature Computational Science 1.6 (2021): 403-409.

https://www.nature.com/articles/s43588-021-00084-1

概述: 论证量子神经网络优势的论文,通过有效维度这一尺度。

[18] McClean, Jarrod R., et al. "Barren plateaus in quantum neural network training landscapes." Nature communications 9.1 (2018): 4812.

https://www.nature.com/articles/s41467-018-07090-4

概述: 量子神经网络的训练过程中遇到的困难Barren plateaus

[19] Castelvecchi, Davide. "The AI-quantum computing mash-up: will it revolutionize science?." Nature (2024).

https://www.nature.com/articles/d41586-023-04007-0

概述:非学术论文,论述各方对量子与人工智能结合是否会带来优势的看法。

[20] Evered, S.J., Bluvstein, D., Kalinowski, M. et al. High-fidelity parallel entangling gates on a neutral-atom quantum computer. Nature 622, 268–272 (2023).

https://www.nature.com/articles/s41586-023-06481-y

概述:中性原子量子计算在量子门保真度方面取得的重要进展。

[21] Manetsch, H. J., Nomura, G., Bataille, E., Leung, K. H., Lv, X., & Endres, M. (2024). A tweezer array with 6100 highly coherent atomic qubits. arXiv preprint arXiv:2403.12021.

https://arxiv.org/abs/2403.12021

概述:中性原子量子计算在物理量子比特的进展,光镊最多抓取原子数量突破六千。

[22] Bluvstein, D., Levine, H., Semeghini, G., Wang, T. T., Ebadi, S., Kalinowski, M., ... & Lukin, M. D. (2022). A quantum processor based on coherent transport of entangled atom arrays. Nature, 604(7906), 451-456.

https://www.nature.com/articles/s41586-022-04592-6

概述:中性原子量子计算在量子门操作取得的进展,通过移动光镊实现任意量子比特之间的门操作。

[23]  Bluvstein, D., Evered, S. J., Geim, A. A., Li, S. H., Zhou, H., Manovitz, T., ... & Lukin, M. D. (2024). Logical quantum processor based on reconfigurable atom arrays. Nature, 626(7997), 58-65.

https://www.nature.com/articles/s41586-023-06927-3

推荐理由:不论是量子计算物理体系,还是量子纠错,都是非常重要的一篇进展。展示了中性原子量子计算多方面的优势。

[24] Preskill J. Quantum Computing in the NISQ era and beyond[J]. Quantum, 2018, 2: 79.

https://quantum-journal.org/papers/q-2018-08-06-79/

概述:Preskill提出NISQ概念的论文。

[25] Quantum startup Atom Computing first to exceed 1,000 qubits

https://atom-computing.com/quantum-startup-atom-computing-first-to-exceed-1000-qubits/

概述:量子计算公司Atom Computing在物理量子比特数量上突破一千个。

[26] Keumars Afifi-Sabet (2023-12-11). "Scientists just built a massive 1,000-qubit quantum chip, but why are they more excited about one 10 times smaller?". livescience.com. Retrieved 2023-12-27

https://www.livescience.com/technology/computing/ibm-scientists-built-massive-condor-1000-qubit-quantum-computer-chip-133-qubit-heron-system-two

概述:IBM的量子芯片Condor量子比特数量突破一千个

[27] Huang, Hsin-Yuan, et al. "Quantum advantage in learning from experiments." Science 376.6598 (2022): 1182-1186.

https://www.science.org/doi/full/10.1126/science.abn7293

概述:量子计算技术在下面任务中的优势(1)物理系统性质预测、(2)含噪量子态的主成分分析以及(3)物理动力学近似模型学习。

[28] Arute, Frank, et al. "Quantum supremacy using a programmable superconducting processor." Nature 574.7779 (2019): 505-510.

https://www.nature.com/articles/s41586-019-1666-5

概述:谷歌的量子芯片Sycamore运行随机电路采样(Random Circuit Sampling,RCS)实验实现“量子霸权”

[29] Huang, Cupjin, et al. "Classical simulation of quantum supremacy circuits." arXiv preprint arXiv:2005.06787 (2020).

https://arxiv.org/abs/2005.06787

概述:指出谷歌实现“量子霸权”的论文中,超级计算机 Summit 大约 10,000 年完成的任务其实在他们的方法和模拟器下可以在不到 20 天完成。

[30] Ichikawa, T., Hakoshima, H., Inui, K., Ito, K., Matsuda, R., Mitarai, K., ... & Fujii, K. (2024). Current numbers of qubits and their uses. Nature Reviews Physics, 1-3.

https://www.nature.com/articles/s42254-024-00725-0

推荐理由:非综述,但是很有趣的一项针对量子计算领域的科学学的工作,反应出在量子比特数量上去之后为什么还大量使用小数量比特的现象。

[31] Sun, W., Wei, F., Shao, Y., & Wei, Z. (2024). Sudden death of quantum advantage in correlation generations. Science Advances, 10(47), eadr5002.

https://www.science.org/doi/10.1126/sciadv.adr5002

推荐理由:非综述,定量描述了某个量子优势与噪声的关系。

[32]  Google Quantum AI and Collaborators. Quantum error correction below the surface code threshold. Nature (2024).

https://doi.org/10.1038/s41586-024-08449-y

推荐理由:谷歌在量子处理器Willow上实现纠错码,展示逻辑量子比特的错误率随着码距增大被指数压制。

[33]  Gidney, C., & Ekerå, M. (2021). How to factor 2048 bit RSA integers in 8 hours using 20 million noisy qubits. Quantum5, 433.

https://quantum-journal.org/papers/q-2021-04-15-433/

概述:分析了2048 bit RSA分解需要的时间和量子比特数量。

[34] Cai, Z., Babbush, R., Benjamin, S. C., Endo, S., Huggins, W. J., Li, Y., ... & O’Brien, T. E. (2023). Quantum error mitigation. Reviews of Modern Physics95(4), 045005.

https://journals.aps.org/rmp/abstract/10.1103/RevModPhys.95.045005

推荐理由:【综述】量子错误缓解方面较新并且影响大的综述,讲述了QEM中各种方法之间的共性和局限性,如何根据存在的主要噪声类型选择缓解方法。 

[35]  Ebadi, Sepehr, et al. "Quantum optimization of maximum independent set using Rydberg atom arrays." Science 376.6598 (2022): 1209-1215.

https://www.science.org/doi/10.1126/science.abo6587

推荐理由:利用Rydberg原子的性质求解最大独立集问题

[36]  Wurtz, Jonathan, et al. "Industry applications of neutral-atom quantum computing solving independent set problems." arXiv preprint arXiv:2205.08500 (2022).

https://arxiv.org/abs/2205.08500

推荐理由:中性原子的求解图相关的组合优化问题

[37] Rubin, Nicholas C., et al. "Quantum computation of stopping power for inertial fusion target design." Proceedings of the National Academy of Sciences 121.23 (2024): e2317772121.

https://www.pnas.org/doi/10.1073/pnas.2317772121

概述:应用于核聚变实验中的量子算法

出品:漆远、吴力波、张江

运营:孟晋宇、王婷

撰稿:张江、杨燕青、王婷、王朝会、十三维、周莉、梁金、袁冰、江千月、刘志毅

鸣谢(按姓氏拼音顺序,排名不分先后):

曹风雷 、陈小杨 、程远、杜沅岂 、段郁、方榯楷 、付彦伟、 高悦、黄柯鑫、李昊、刘圣超、谭伟敏、吴泰霖、吴艳玲、向红军、张骥、张艳、朱思语

AI+Science 读书会

详情请见:

人工智能和科学发现相互赋能的新范式:AI+Science 读书会启动

推荐阅读

1. 《AI X Science十大前沿观察》发布:35个研究前沿,开启科学发现的黄金时代

2. 《AI×SCIENCE十大前沿观察》1:基于LLM的科学研究

3. 《AI×SCIENCE十大前沿观察》2:垂直领域科学大模型

4. 《AI×SCIENCE十大前沿观察》3:融入先验知识的AI模型

5. 《AI×SCIENCE十大前沿观察》4:AI科学家

6. 《AI×SCIENCE十大前沿观察》5:复杂世界的多智能体建模

7. 《AI×SCIENCE十大前沿观察》6:AI 仿真与系统模拟

8. 《AI×SCIENCE十大前沿观察》7:物理世界的第一性原理

9. 《AI×SCIENCE十大前沿观察》8:科学启发的AI新架构

10. 游戏化科研——让我们突破内卷、共研涌现

11. 探索者计划 | 集智俱乐部2025内容团队招募(全职&兼职)

12. 加入集智,玩转复杂,共创斑图!集智俱乐部线下志愿者招募

点击“阅读原文”,报名读书会

阅读原文

跳转微信打开

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

新型计算 量子计算 光学计算 凡人计算
相关文章