导语
对大规模量子系统(尤其是量子模拟器和巨型量子计算机产生的系统)进行高效刻画,是量子科学领域面临的核心挑战,这源于希尔伯特空间随系统规模呈指数级增长的特性。近年来,人工智能(AI)凭借其在高维模式识别和函数逼近方面的卓越能力,已成为应对这一挑战的利器。越来越多的研究将 AI 应用于可扩展量子系统的表征与建模,从理论基础到实验实现均有所涉猎。根据如何整合先验知识和学习架构,AI 在量子系统表征中的应用可归纳为三大协同范式:机器学习(特别是深度学习和语言模型)。本文综述了这些 AI 范式如何助力量子系统表征的两大核心任务——量子属性预测与量子态替代模型构建。这些任务支撑着从量子认证、基准测试到量子算法优化、强关联物质相理解等多样化应用。文中还探讨了关键挑战与未解问题,并展望了 AI 与量子科学交叉领域的未来前景。
关键词:⼈⼯智能、量⼦系统表征、量⼦属性预测、量⼦态替代模型、量⼦多体系统
杜玉轩、朱燕等丨作者
罗云丨译者
张江丨审校
论文题目:Artificial intelligence for representing and characterizing quantum systems
论文链接:https://arxiv.org/pdf/2509.04923
发表时间:2025年9月5日
论文来源:arxiv
关键点
I. 引言
量子工程领域的最新进展使得制造和控制高度复杂的量子器件变得越来越常规化[34,149,173,232,256]。这些发展使得利用可扩展量子模拟器探索量子多体系统[13,174,285]以及构建量子计算机[7,29,77,98,197]成为可能,而且人们正朝着“超级量子”时代迈进(例如处理约 100 个逻辑量子比特,深度约 10000[197])。然而,随着实验室中可操作的量子系统的规模不断扩大给人们带来了新挑战。由于量子比特数量的指数级增长导致状态空间急剧扩大,现代量子模拟器和量子计算机生成的量子系统在描述和表征方面变得极其困难。经典模拟器如张量网络[194]虽能捕捉重要类态,却无法模拟高纠缠态的行为。虽然针对克利福德电路(Clifford circuits)的定制方法能实现高效模拟,但扩展到包含非克利福德(non Clifford)门电路时,计算成本通常会随非克利福德操作的数量呈指数级增长,这种现象通常用“魔法”(magic)概念来形容[2,5,35]。这些挑战要求我们采用新方法,以获取经典模拟器计算能力无法精确存储的量子系统特性。
过去十年间,人工智能技术因其在大数据中识别模式与关联的能力,已成为破解量子系统表征难题的有力工具。参考文献[103]系统梳理了贝叶斯推断、浅层架构神经网络及基础训练算法等早期 AI 技术在量子系统研究中的应用。近年来,生成式预训练 Transformers(GPT)[204]的突破性进展,以及量子学习理论[14]的深化,推动了大规模量子系统表征方法的创新。这些技术突破显著提升了人工智能模型在理解量子多体物理学和量子计算领域的应用水平[12,57,65,78,81,89, 130, 132, 136, 147, 157, 164, 166, 183, 186, 193, 199, 213, 236, 245, 246, 268, 271, 282–284, 289, 296, 299, 302, 303]。面对如此迅猛的发展态势,系统梳理核心研究成果并明确未来研究方向,已成为指导人们后续探索的关键任务。
在本综述中,我们系统梳理了自 2022 年以来人工智能在量子系统表征(representation)与刻画(characterizing)领域的最新进展,重点聚焦理论基础与算法创新。具体而言,我们按照人工智能模型的方法论层级结构组织这些研究进展,包括机器学习(ML)——其中涵盖了深度学习(DL)作为重要分支,以及语言模型(LMs)作为深度学习架构的特定类别,如图 2 所示。与许多其他领域不同,人工智能新方法并非取代旧技术,量子系统表征领域的进步得益于多种模型的互补优势。为阐明机器学习、深度学习和语言模型在该领域的应用,我们采用任务导向视角,重点聚焦三大核心任务:(1)预测量子系统的线性特性,(2)预测非线性特性的实例,(3)重构量子态与过程。如图 1 所示,这些任务支撑着广泛的应用场景,包括量子认证与基准测试[86]、量子硬件表征[10]、变分量子算法优化[50]以及奇异量子相位发现[43]。从概念层面看,层析重建与特性测试方法正日益被视为量子学习理论的重要组成部分[14,17],这反映出人们思维方式的转变。
关于人工智能在量子物理学领域的应用,已有诸多综述文献,涵盖物理学领域的人工智能应用[3,43,75,277]、量子计算与量子技术中的人工智能应用[3,10,154]、量子模拟中的语言模型[175]、量子阴影层析成像(quantum shadow tomography)[86,88,129]、神经量子态[48,75,159]以及变分量子算法[27,50,80]等主题。尽管多数综述聚焦于特定领域的人工智能模型应用,但我们的研究视角截然不同。我们通过不同人工智能方法论的视角来分析这些应用,探索更广泛的人工智能技术在量子模拟器和量子计算机所生成的量子系统表征与刻画中的应用。研究范围涵盖从具有理论保证的机器学习方法到前沿基础模型(如 GPTs)等,分别突出其优势与局限性。
在本综述中,我们特别聚焦于以数据驱动方式表征和描述量子系统的 AI 模型。因此,变分神经量子态方法并非主要研究方向[48]。与此同时,我们强调可扩展的 AI 方法在学习量子系统时,如何突破传统非机器学习方法中固有的维度诅咒。相反,针对小规模量子系统设计的 AI 方法(例如用于重构未知量子态密度矩阵的技术[159]),由于无法推广到可扩展量子系统,故已超出本综述的核心关注范围。此外,利用 AI 方法自适应地精准控制量子系统并提取知识的应用同样重要,但这也超出了本综述的讨论范畴。由于我们侧重理论与算法进展,实验工作并非主要研究重点——尽管需要明确的是,所讨论的方法在实验领域具有直接应用价值。本文仅涵盖那些支持理论或算法突破的实验成果。
图1. 利用人工智能表征与刻画量子系统的关键任务与应用场景概览。通过量子模拟器生成的基态表征、数字量子计算机生成的量子态表征,可归纳为三大核心任务:线性特性预测、非线性特性预测以及量子态与过程重构。每个任务又细分为体现具体目标的子类别。底部图标标注了各任务通常采用的人工智能范式,即图2中提及的机器学习模型、深度学习模型和语言模型。这些方法的现有及潜在应用包括:量子算法优化、量子设备认证与性能评估、量子硬件研发以及科学发现。
图2. 人工智能模型学习大规模量子系统的概述。层次结构反映了人工智能模型能力的提升及其对处理大规模量子系统适应性的增强,从广泛的人工智能概念到机器学习模型、深度学习模型以及基于Transformer的模型。每个类别中的代表性策略用绿色圆圈标出。符号‘NN’、‘ NQS ’和‘LLM’分别指神经网络、神经量子态和大型语言模型。序列模型包括循环神经网络、 LSTM 及相关架构。
II. 学习范式的概
要大规模运用人工智能对量子系统进行表征和刻画,关键在于设计能够识别量子系统家族中相关模式和结构特征的学习模型。经过训练后,这些模型就能对训练过程中遇到的具有相似特征的未知量子系统进行泛化。这种数据驱动的方法与传统做法截然不同——传统方法往往孤立处理每个系统,无法利用可迁移的洞见。
现有针对可扩展量子系统的学习协议主要研究两类量子态:(i) 模拟量子模拟(analog quantum simulation)中的态,例如哈密顿基态;(ii)数字量子计算中的态,即由量子电路产生的态。对于这两类态,学习目标都是从具有共同物理结构的训练态集合中进行泛化,以准确预测特定物理特性(如磁化强度和保真度)或重构超出训练数据范围的量子态。如图 1 所示,该领域核心学习任务包括线性和非线性特性预测(见方框 1)以及量子系统的重构。
为了说明这一点,我们接下来简要回顾如何将量子系统的表征和刻画重新表述为学习任务。以哈密顿基态为例,我们考虑一个由哈密顿量{H(x)|x∈Rd}组成的家族,每个哈密顿量由一组相对较小的实参数x定义,这些参数定义了一些概念类。例如,在横向场伊辛模型中,参数x编码了相互作用强度和外部场强度。哈密顿基态向量H(x)的基态矢量记为|ψ(x)⟩,其中|ψ(x)⟩由x参数化的纯量子态。假设|ψ(x)⟩满足
其中E0(x)是H(x)的最低本征值。在训练阶段,学习模型在包含x的采样值及其相关测量结果数据|ψ(x)⟩的经典数据集上进行训练。在预测阶段,这些训练好的学习模型被应用于预测状态向量|ψ(x′)⟩的物理性质或重建以前未见过的参数x′ 的经典表示。
图3. 量子系统学习协议框架。现有的用于表示和表征可扩展量子系统的模型通常包括三个阶段:数据收集、模型实现与优化以及模型预测。左图展示了数据收集阶段,其中量子系统被制备成具有参数x(i)和辅助信息z(i)的状态。然后,制备好的量子态 ρ(x(i))被测量T次以获得测量结果s(i)。中间图说明了数据集构建和模型实现的不同阶段。一旦收集到原始数据集τ,应将其预处理为特定任务的数据集τML 、τDL 和 τLM,分别用于训练基于机器学习、深度学习和逻辑门的模型。右图展示了模型预测阶段。根据预测过程是否需要量子测量数据作为输入,学习协议被分类为基于测量的和与测量无关的。
在数字量子计算领域,一个例子是由参数化量子电路U(x)制备的一组量子态,该电路由一组固定的门和一组可调门组成,这些可调门由例如 x∈[−π,π)d参数化。给定任意 x,对应的量子态向量为
其中|ψ0⟩是一个固定的 N 量子比特的初始态向量。在这种设置下,训练和预测的两个阶段类似于学习哈密顿量基态的过程。
根据学习范式不同,现有用于表征和刻画量子系统的协议可分为机器学习(ML)、深度学习(DL)和语言模型(LM)三种方法。尽管模型架构和应用范围存在差异,但这些协议都遵循包含三个阶段的通用工作流程:数据收集、模型实现与优化、模型预测,如图3所示。
在接下来的内容中,我们将概述协议中每个阶段三种学习范式的联系与差异,详细讨论将留待后续内容讨论。根据应用的不同,我们将使用状态向量表示 |ψ(x)⟩ 或密度矩阵表示 ρ(x)。
A. 数据收集
一般而言,训练数据集可以表示为
的形式,其中n表示训练样本的数量,x(i)和z(i)分别代表每个训练样本的经典描述和辅助信息,s(i)表示第i个训练样本 ρ(x(i))的测量数据,共T次采样。例如,如图3所示,当|ψ(x(i))⟩由数字量子计算机在等式(2)中生成时,x(i)表示可调门中的旋转角度,z(i)表示U(x(i))的门布局,s(i)表示|ψ(x(i))⟩的测量结果。需要注意的是,等式(3)中的数据集τ采用了最全面的形式。根据学习协议的不同,可以省略单独的辅助信息s(i),或省略辅助信息s(i)与经典描述x(i)的组合。
用于收集 s(i) 的量子测量方法具有灵活性且取决于具体问题。回顾一下,任何量子测量都可以用一个正算子值测度(POVM)来描述[190]。形式上, POVM 的形式为 M={Ms},其中 0⪯Ms 且 Pr(s)=Tr(ρMs)(当集合 {s}是不可数时,∫dsMs=1)。每次 POVM 测量 M 的一次测量都会从概率分布 Pr(s)=Tr(ρMs)中产生一个样本。因此,有限次数的测量会产生有限数量的测量结果样本,即
。当 M 是一个信息完备的 POVM 时,随着 T→∞,可以从 s(i) 渐近地重构出 ρ 的密度矩阵。在收集 s(i) 时广泛采用的一种重要测量策略是利用适当的随机测量[88],相对于一个概率测度。这种测度的选择既受到数学考虑的影响,以确保合理的样本复杂度,也受到物理约束的影响,例如某些 POVM 的局域性要求。
与传统机器学习任务相比,构建用于表征和描述量子系统的高质量数据集T面临着独特挑战。首先,不同于计算机视觉和自然语言处理等传统领域,要确定哪些测量指标能为研究量子系统提供最关键的信息并非易事。其次,随着系统规模的扩大,状态空间呈指数级增长,这使得收集全面且高质量的数据(例如全量子态层析成像所需的数据)变得成本高昂到难以承受。
B. 模型的实现与优化
现有学习协议依赖于收集的训练数据集T进行训练。然而,基于机器学习(ML)、深度学习(DL)和语言模型(LM)范式的协议在信息处理与提取方式上存在差异,其针对特定学习任务的优化策略亦有所不同。
在机器学习模型领域,先前研究[81,132,164]主要聚焦于预测量子系统的单一或多重线性属性(如图1所示),并建立了样本复杂度与预测精度之间的可验证关系。收集的数据τ被转换为监督学习格式(参见框2)。构建完标注数据集后,采用基于回归和核方法,并结合任务特定特征图来完成训练[28]。具体而言,定制化的特征图将原始输入x(i)转换至高维空间,使得输入与目标之间的复杂关系在该空间中呈现线性可分性,从而更有利于回归或分类任务的完成。
对于深度学习模型,先前的研究可以根据目标学习任务主要分为两个子类。第一类子类专注于属性预测,旨在推断所研究的量子系统的某个或多个物理属性(包括线性和非线性)[47,99,101,152,199,201,259,268,282–284,294,302]。在这种情况下,数据预处理与机器学习模型非常相似,即将收集的量子数据τ重新格式化为监督学习格式。有了准备好的数据集,已经开发出多种具有不同神经架构和优化策略的深度学习模型。这一研究方向的核心目标是构建能够利用有限训练数据准确预测更广泛物理属性的深度学习模型[283]。第二类子类专注于使用神经量子态(NQS)进行隐式和近似量子态重构[49,54,252,300]。与旨在创建量子态完整经典描述的传统量子态层析成像不同,这种方法训练深度神经网络以近似重现目标量子态 ρ(x)的测量统计。重要的是,属性预测被表述为判别学习任务,而使用 NQS 的量子态重构本质上是生成性的(参见框2的解释)。在此背景下,目标是设计高效的深度生成模型,以使用相对较少的训练样本来近似与 ρ(x)相关的真实测量分布。
对于语言模型,近期的研究探索了生成式预训练Transformers (GPTs)[36],以实现类似GPT的模型,这些模型能够执行与量子系统表示和表征相关的多种任务。与机器学习和深度学习方法不同,基于语言模型的方法通常在两个不同的阶段进行优化:预训练和微调。在预训练阶段,模型通过执行广义状态重构来学习捕捉广泛量子态中的常见结构模式,旨在近似与参数集合x条件下的 ρ(x)相对应的测量分布[271, 289]。在随后的微调阶段,模型被调整以适应特定的属性预测任务[245,296]。这一过程反映了机器学习和深度学习模型中使用的训练策略。该阶段的目标是通过监督学习准确推断所需的量子属性。
C. 模型预测
量子系统表征与刻画过程中涉及的多样化任务和多重学习范式表明,不存在能够涵盖所有模型的单一且确定的分类方式。此前,我们已根据其实现策略和应用领域对这些模型进行分类。另一个区分它们的关键角度是验证预测阶段是否需要访问量子系统,这通常被称为“量子数据”。从这个角度来看,所有学习协议——即机器学习模型、深度学习模型和语言模型——均可归类为测量无关协议和基于测量的协议,如图3所示。具体而言,测量无关协议的预测仅依赖经典输入[81, 132, 164, 268, 271, 289],例如参数x和辅助信息z,而无需进行量子测量。相比之下,基于测量的协议则需要在预测阶段获取待研究量子系统的测量结果s作为输入[99,101,147,152,199,201,245,282,283,294,302]。
III. 机器学习范式
机器学习(ML)模型是一类基于统计学习原理从数据中推断规律的算法[180]。当前该研究方向聚焦于开发可验证高效的机器学习模型,用于预测量子态的线性特性(参见方框1),尤其关注预测误差随训练样本数量变化的规律。尽管这些学习协议存在多样性,但可归纳为通用框架。为便于理解,我们首先阐明机器学习模型的通用框架,随后讨论其应用场景,最后探讨其局限性及其他前沿议题。
A. 线性属性预测的总体方案
需注意的是,用于预测线性特性的机器学习模型包含三个步骤:数据收集、模型构建与训练,以及预测。下文将对这些步骤逐一展开说明,以补充前文所述的高层次概览。
将机器学习模型应用于线性属性预测的第一步是将原始数据集τ在等式(3)中转化为用于监督学习的标记数据集,即
其中
表示第 i 个训练样本的物理属性估计值,这些估计值来源于测量结果 s(i) ,∀i∈[n]。给定一组可观测变量 D,状态 ρ(x) 的线性特性指的是 y={Tr(ρ(x)O)}O∈D。当测量次数 T 趋于无穷大时,y 与
之间的估计误差趋近于零,对于某些精确设置,可以证明严格的样本复杂度界限。
模型实现与训练。在访问 τML 的情况下,机器学习模型依赖于专门定制的特征工程(见框2)来完成学习。将所使用的机器学习模型的预测表示为hML(x)。优化过程涉及最小化模型预测与 τML中标签之间的差异。
大多数用于预测可扩展量子系统线性特性的机器学习模型采用线性回归框架[28]。这些模型的数学表达式为
其中 w 表示可训练参数, ϕ(x) 表示应用于输入 x 的工程化特征映射。这些机器学习模型的主要关注点是手动特征工程 ϕ(·),它将原始输入 x 转换到高维空间,使得输入与目标属性之间的关系近似线性。 ϕ(x) 的实现取决于任务,并将在下文中详细说明。
等式(6)中线性回归模型的优化涉及确定使损失函数最小化的最优参数w∗,即
其中 ℓ(·,·)表示每个样本的损失,例如均方误差,而 λ≥R+ 是正则化项的超参数。根据 α 的选择,线性回归模型有三种类型(值为 0、1 和(0,1)分别对应于Lasso回归、岭回归和弹性网络回归 [306])。除了线性回归模型外,核方法构成了另一类广泛用于预测可扩展量子系统线性特性的机器学习模型 [28]。其基本机制和常用核函数总结在框 4 中。
模型预测。训练好的机器学习模型可以直接用于预测新量子态 ρ(x)的有趣量子特性。如图3所示,这些模型以测量无关的方式运行,提供了一种高效的方法来刻画量子系统,而无需将量子数据作为输入。
评估训练完成的学习模型性能的常用方法是计算其期望风险,该指标用于衡量模型预测结果与实际目标物理量的吻合程度。从数学角度而言,期望风险(亦称预测误差)是
其中输入变量x从数据分布DX中采样,y代表物理属性的真实值。通常情况下,数据分布DX未知,因此无法直接进行评估。另一种方法是在测试数据集上评估损失函数,该数据集由从同一数据分布DX中抽取的未见过样本组成。
B. 的机器学习模型及其应用
在可扩展量子系统刻画领域,大量研究聚焦于开发高效的机器学习模型,以解决各类线性属性预测任务及部分非线性任务,这主要源于其可解释性与理论保证的优势。本文根据应用场景对这些机器学习模型进行分类,并系统梳理其实现方案与理论成果。表I汇总了该领域代表性方法的最新进展。
1. 哈密顿量基态的线性性质预测
该领域的开创性工作由黄等人[132]建立,证明了基于实验数据的机器学习算法可以有效解决某些经典算法无法处理的量子多体问题。具体而言,机器学习模型预测了一组可观测量D={O}在一系列有能隙、几何局域哈密顿量H(x)态上的期望值。例如,O可以是低权重泡利算符的线性组合。学习器采用基于泡利的经典影子[131]来获取原始数据τ(3),其中s(i)对应于 ρ(x(i))的随机测量结果,而辅助信息z(i)则不是必需的。根据这些测量结果,学习器按照框3中的步骤重建影子表示
。训练数据集τML(5)通过影子估计计算标签
构建。给定τML,对于每个可观测量Oj∈D,核机器采用显式形式。
其中
的第j个条目指的是⟨Oj⟩的估计, κΛ(·,·)表示截断的Dirichlet核(参见框4)。
所提出的机器学习模型在许多实际场景中被证明是高效的。具体而言,当x从均匀分布中采样时,平均梯度范数是有界的,即
,且可观测值良好有界,所提出的模型以高概率在等式(8)中实现 ϵ 预测误差。此外,模型实现的经典训练时间和预测时间均被上界为O(dO(C/ϵ))所约束。通过预测一维51原子里德伯原子系统(Rydberg atom systems)的基态局部期望值以及二维25量子比特反铁磁海森堡模型基态的两点关联函数,该机器学习模型的有效性得到了验证。
后续研究工作将重点放到探讨如何通过利用哈密顿量的不同条件进一步减少样本和运行时间的复杂性。当已知所探索的N量子比特哈密顿量族{H(x)}的几何结构时,特征映射 ϕ(·)可以融入几何归纳偏置,由此产生的Lasso方法能够实现高效且精确的预测,仅需O(
)个样本和O(N
poly(ϵ−1))的运行时间[164]。此外,当可观测集D仅包含一个已知分解的单元素且哈密顿量族具有几何局部性和能隙时,岭回归可实现O(2polylog(1/ϵ))的样本复杂度(与d无关)和与N呈线性关系的运行时间。所采用的特征映射,与参考文献[164]类似,也通过轻微修改编码了哈密顿量的几何结构[275]。
当经典参数d的数量恒定,或与量子比特数N无关时,定义在框4中的正良核可以用狄利克雷核替代,以达到改进的样本复杂度O(poly(1/ϵ,N))[57]。此外,存在高效的机器学习模型可以用于预测(等变)长程哈密顿量的性质。与参考文献[164]类似,与几何信息特征图相关的Lasso能够准确预测具有长程相互作用的基态的线性性质,实现样本复杂度随系统大小N对数增长[236]。另外,保持相互作用超图自同构群下等变性的机器学习模型可以进一步降低样本复杂度[235]。这些机器学习模型的有效性已在127量子比特的IBM量子计算机上得到验证,成功预测了随机跳跃系统和Su-Schrieffer-Heeger系统中的两点关联函数[65]。
除了能隙哈密顿量的基态之外,最初的努力还集中在预测马尔可夫开放量子系统中李乌维利安稳态的线性性质[193,213]。与传统的最大似然模型不同,预测这些性质的关键策略是计算经典阴影协议的经验平均值。通过这种方式,O(log(N/δ)2polylog(1/ϵ))个样本足以学习相位内量子系统的局域期望值,预测误差小于 ϵ ,失败概率至多为 δ 。
2. 哈密顿基态的相分类
量子相分类是机器学习在可扩展量子系统刻画中的另一个关键应用。黄等人[132]在该研究领域做出了开创性贡献,他们提出了两种针对不同量子相分类任务的机器学习模型:区分对称性破缺相和识别拓扑有序相。
在对称性破缺相分类的任务中,假设存在两个相,分别记为A和B。存在一个由多个局域可观测量组成的可观测量O,称为局域序参量,使得相关基态满足当 ρ(x)属于相A时Tr(ρ(x)O)≥1,而当 ρ(x)属于相B时Tr(ρ(x)O)≤−1。基于此,可以采用框4中的截断狄利克雷核来实现基于最大似然的分类器,以达到满意的分类精度。
在拓扑有序相分类任务中,我们无法使用关于 ρ(x)的线性函数来完成准确预测。然而,参考文献[132]证明了非线性分类器可以在严格证明的保证下解决此任务。具体而言,他们设计了一种特征映射,将经典阴影转换为包含任意大约化密度矩阵的特征向量,相应的核函数在框4中指定。所提出的机器学习模型提供了严格的保证:如果少体(few body)约化密度矩阵的非线性函数能够分类不同的相,则所提出的机器学习模型可以准确学习执行此类分类。所需训练数据量n和计算资源随系统大小N呈多项式增长。该机器学习模型的有效性已通过在200量子比特系统中区分拓扑相与平凡相得到验证。
3. 基于门态的线性属性预测
针对数字量子计算机输出的量子态线性特性预测,存在两种不同的机器学习模型应用场景,其差异源于可观测量的灵活性。每种场景都给我们带来独特的挑战,需要采用不同的学习策略,下文将分别探讨。
固定输入状态和可观测量。第一种设置考虑了输入状态 ρ0 和可观测量O都固定的案例。这种设置的主要动机来自于开发变分量子算法的经典替代方案[50],包括变分量子特征求解器(VQE)及其变体以及量子神经网络(QNNs)。换句话说,我们的目标是设计一个机器学习模型,以准确预测期望值Tr(ρ(x)O),其中ρ(x)=U(x)ρ0U(x)†,而U(x)是一个在等式(2)中定义的N量子比特参数化电路。
图4. 预测数字量子计算机状态属性的场景。左图展示了一个典型的 VQE 电路,其中所有可调门(用橙色圆圈表示)作为可训练参数。右图描绘了一个 QNN 架构,其中一部分可调门用于编码经典数据,而其余门则作为优化的可训练参数。六边形和矩形门代表克利福德门。
如图4所示,量子神经网络的经典输入由两部分组成,即
,其中
代表经典数据,如图像和文本,而 θ 则包含可训练参数。量子神经网络的通用形式为
先前的研究[227,265]已经证明,训练好的 QNN 可以扩展为截断的傅里叶级数,其中截断值的阈值取决于所采用的
。更多细节请参见框5。
Schreiber等人[226]采用这种基于傅里叶的公式设计了一个线性回归模型,用于预测量子神经网络输出
。所提出的模型形式为
,其中{cω}是可训练的傅里叶系数。学习目标是通过最小化等式(7)中的损失函数来优化这些系数,使用标记数据集
。标签
指的是从测量结果s(i)中得出的
估计值。在最坏情况下,所提出的机器学习模型以高概率实现预测误差被限定在
范围内,前提是训练样本数量满足
,其中
,d为
维度。所提出模型的有效性已在标准经典机器学习数据集和最多八个量子比特的合成数据集上得到验证。
经典替代方法可能会遇到效率瓶颈,因为其运行时间复杂度会随着频率集的大小——或者说,随着经典输入向量
的维度——呈指数增长。为了缓解这一问题,一个有前景的解决方案是使用随机傅里叶特征进行模型构建[156,241]。具体来说,hML(
)中的原始特征图ϕ(·)被替换为D维的随机傅里叶特征(见框5)。
该替代方案可带来显著的计算优势:模型训练的空间和时间复杂度均为O(nD2)和O(nD2+D3),且与训练数据的维度无关。此外,当
有良好边界且{s(i)}通过足够大的 T 收集时,n∼O(d/ϵ2)保证了良好的预测性能,即
对于∀x∈X 成立。
关于训练样本数量n与每个样本快照T之间的关系,参考文献[97]进行了进一步探讨。具体而言,他们提出了一种新的机器学习模型,通过引入L1-Lipschitz非递减函数u(·),即
,其中核函数k对应于傅里叶特征映射。通过基于 τML 的迭代方法优化
,等式(8)中的预测误差被上界限制为
。此处参数c1和c2与L1范数、可观测量O的无穷范数以及傅里叶系数的范数呈多项式关系。研究结果突显了n相较于T的主导作用,因为有限的n会导致较高的预测误差。
正交研究路径涉及采用傅里叶级数展开、参数化量子电路结构及海森堡演化来设计高效的VQAs经典模拟器,而非基于学习的模型[23,51,69,92,106,189,214]。由于量子电路的高效模拟超出了本综述的范围,故不再详述。
固定输入状态和可变观测值。这种设置考虑了更广泛的情况,即输入状态 ρ0 是固定的,而观测值D中的各个可以变化。一个直接的观察是,第一种设置是后者的特例。在这种情况下,一个高效的机器学习模型作为影子表示预测器
,这意味着对于任何新的输入x′,它都能准确预测其影子表示
。因此,机器学习模型能够准确预测许多观测值的期望值,即
。
实现这一目标的首个方法在参考文献[81]中被提出,旨在预测量子态的许多线性特性,其中等式(2)中的量子电路U(x)由d个旋转-泡利门和G−d个克利福德门组成,输入态 ρ0 是任意的。学习过程遵循标准的三阶段监督学习流程。从概念上讲,学习器从先验分布中抽取输入控制参数x(i),并将其输入到探索的电路中。对于每个示例x(i),学习器采用基于泡利的经典阴影[131]来收集测量结果s(i)。通过重复此过程n次,原始数据τ被收集。
在获得τ的情况下,对于任何新输入x,影子表示预测器的显式形式可得出
其中 κΛ(x,x(i))指的是在框4中定义的截断三角多项式核。对于任何可观测变量 O∈D,最大似然模型为
,当 n 和 Λ 不太大时,该模型可以在经典端高效实现。
当输入数据从均匀分布中采样且 Λ=d时,阴影预测器是 ρ(x)的无偏估计量。此外,当平均梯度范数
被一个小C上界时,所提出的最大似然模型在样本和计算效率上都表现优异。为了在等式(8)中实现 ϵ 预测误差,所需的样本复杂度为O(|E(Λ)|ϵ−1),其中 Λ=4C/ϵ 且E(Λ)={ω|ω∈0,±1d,s.t.∥ω∥0≤Λ}。此外,多项式样本复杂度确保了整体多项式计算复杂度。数值模拟证明了所提方法在预测60量子比特旋转GHZ态的两点相关函数、预测60量子比特全局哈密顿量的磁化强度以及预训练50量子比特 VQE 用于横向场伊辛模型方面的有效性。
C. 基本限制
现有机器学习模型的一个共同特征是,它们都遵循图3所示的测量无关学习协议。这些模型采用先进行测量、再对采集数据进行经典处理的策略。这引发了一个关键问题:在理解经典机器学习模型与量子学习模型[112,229]之间可计算的分离时,需要明确学习过程是完全还是部分在量子设备上执行的。解决这个问题不仅能丰富量子学习理论,还能为识别量子效用和量子优势提供具体指导。例如,假设所有量子问题都能通过经典机器学习模型高效解决,那么量子计算的实际优势将仅限于数据采集阶段。然而最新研究表明,尽管本文综述的现有机器学习模型在许多实际场景中表现优异,但它们也存在根本性局限,导致性能远逊于对应的量子模型。
首个探索机器学习模型在刻画可扩展量子系统中计算难度的研究由Gyurik等人[113]完成。他们构建了一类哈密顿量家族,其基态特性无法通过任何经典机器学习方法预测,假设标准密码学假设成立。这些结果表明,高效预测所需的条件(如平滑性和几何局域性[132])不能显著放宽。采用相同方法,后续研究进一步强化了这些结果,通过证明在温和假设 BQP ⊆ P/多项式下,从基态测量中预测未知可观测量的期望值存在经典-量子分离[184]。此外,相关结果可有效扩展,以确立机器学习模型在预测有界门量子态线性特性方面的计算难度[81]。对于非线性任务,研究表明在标准密码学假设下,学习“无能隙”量子物质相是计算上困难的[32,33]。
在进行一般性理论分析的同时,另一项独立研究方向致力于探索特定类机器学习模型的根本局限性。典型案例是理解随机傅里叶特征在量子神经网络(QNN)去量化过程中既具潜力又存在局限性。具体而言,近期一项研究通过反例证明,基于随机傅里叶特征的经典替代模型无法实现可靠的预测性能[241],该结论建立在参考文献[226]的研究基础上。后续研究进一步确立了回归模型作为QNN经典替代模型的必要条件,表明当量子模型优化的参数趋近最优值时,经典量子分离现象就会显现[248]。此外,参考文献[52,105]揭示,在变分量子学习模型可训练的场景中,研究者不仅能为当前场景找到高效的经典算法,还能实现对场景的“去量化”。
表I. 采⽤机器学习模型刻画可扩展量⼦系统的代表性结果总结。所探索的量⼦系统类型⽤G.S.表⽰基态,Q.C.表⽰由数字量⼦计算机制备的状态。多重线性属性预测和单线性属性预测分别⽤M.L.P和S.L.P表⽰。相位分类任务⽤P.C.表⽰。符号aQ表⽰量⼦⽐特数为 a 。
D. 高级主题
现有的用于表征和刻画可扩展量子系统的机器学习模型主要遵循监督学习范式。然而,在相分类任务中,有一条独特的研究路线采用无监督学习算法(见框2)来实现学习目标[58,132,217]。例如,主成分分析已被应用于识别物质的不同量子相,这受到凝聚态物理研究问题的启发,在一个300量子比特的键交替 XXZ 模型中[132],而张量核支持向量机则被用于重建簇伊辛模型的相图[217]。关于无监督学习方法在相分类中的全面综述,请参阅参考文献[43,75]。
与应用机器学习模型预测数字量子计算机生成的量子态线性特性类似,另一个研究方向是开发针对特定量子态、幺正操作和量子过程的可证明高效学习方法。在量子态学习领域,某些受限态类(如稳定子态[209]、t掺杂稳定子态[109,163]以及浅层电路制备的态[155])可在多项式时间内高效学习。对于幺正态学习,经典多项式时间算法可重构任意未知N量子比特浅层量子电路的描述[133]。最后,在量子过程研究中,高效的机器学习模型能够预测未知过程输出的任何局部特性,且在从特定先验分布抽取的输入态上具有较小的平均误差[62,130]。
尽管上述研究部分涉及机器学习在可扩展量子系统中的应用,但出于两个原因我们在此不作详细阐述。首先,这些问题可视为量子态/过程重构的简化版本——要么完全不涉及经典控制,要么仅限于输入态的控制。例如,虽然重构未知量子态通常需要指数级运行时间,但该问题可通过影子层析成像[1]等高效算法转化为更易处理的学习场景。其次,文献[14]已对这些方法进行了全面综述。
IV. 深度学习范式
深度学习(DL)在2010年代初的兴起[196],为可扩展量子系统的表征与刻画开辟了新途径。通过利用深度神经网络强大的表征能力,深度学习模型能够从数据中隐式捕捉复杂模式与结构,在广泛任务中展现出优异的实证性能。为深入阐述该领域深度学习模型的发展,本文首先梳理了深度学习应用于可扩展量子系统的一般框架,继而重点介绍当前主流深度学习模型的主要应用及前沿研究课题。
A. 总体方案
深度学习模型通过深度神经网络(DNN)自动且隐式地从训练数据中提取有意义的表征[107]。现有深度学习模型已广泛应用于属性预测与重构等多样化任务,如图1所示。这与传统机器学习方法形成鲜明对比——后者通常专为线性属性的测量无关预测而设计。根据具体任务和学习目标的不同,深度学习模型的实现方式存在显著差异:从测量无关到基于测量的协议不等,辅助信息的整合程度也各不相同。下文将详细阐述这些差异,并说明深度学习模型如何适应可扩展量子系统表征与刻画的多样化任务。
数据集构建。从学习范式视角来看,属性预测属于判别学习范畴,而状态重构通常被归类为生成式学习,如框2所示。这种区分导致训练数据集构建应该采用不同方法:属性预测任务采用多种针对特定模型和目标定制的数据预处理策略,而重构任务通常遵循更标准化的统一的方法论。
属性预测。在此背景下,最通用的方法是采用单一深度学习模型来预测给定量子态家族的多种线性和非线性属性。为此,等式(3)中的原始数据T被重新格式化为带有标签的训练数据集 τDL,这与多任务判别学习框架一致。如图3所示,τDL 的构建可以根据深度学习模型是基于测量无关协议还是基于测量协议来分类。
大多数基于深度学习的方法属于测量协议类别,其中训练数据集 TDL 包含来自T的测量结果s(i)作为输入的一部分。在这种情况下,通常研究两种场景。第一种场景[101,152,283,284,294,302]中,只有测量数据可用,而底层物理参数x(i)要么未知要么无法获取。在这种情况下,数据集构建为
,其中 (i)表示从测量结果s(i)计算出的感兴趣物理属性的估计值。值得注意的是,原始测量结果s(i)必须适当处理成与深度学习架构兼容的表示,记为(i)。在第二种场景[181,199]中,物理参数x由学习器控制,训练数据集的形式为
。
对于测量无关协议[183,268],训练数据集不包含明确的测量信息。给定原始数据T,预处理后的训练数据集形式为
,其中标签
的构建过程与基于测量的深度学习模型相同。在此设置下,不同深度学习模型的关键区别在于是否(以及如何)纳入辅助信息
,这些信息要么被省略,要么用于编码系统特定细节,如量子系统的门布局或噪声特征[268]。
单态重构。与属性预测任务不同,大多数用于量子态重构的深度学习模型[6, 49, 54, 223, 237, 252, 300]采用简单且标准化的数据集构建方法。由于该任务属于生成建模范式,训练数据集通常为未标注数据,其形式为
对于 POVM 测量{Ms},相应的结果{st}是从概率分布P(s)=Tr(ρMs)中采样的。
模型实现与训练。用于属性预测的深度学习模型通常在判别学习框架内构建。根据学习协议的不同,所采用的 DNN 表示为
用于基于测量的协议,而hDL(x,z;θ)用于测量无关模型,其中 θ 代表可训练参数。目标是通过最小化经验损失函数来优化这些参数。
其中每个组件 x(i)、z(i) 和
是否包含取决于可用的 τDL, ℓ(·,·)表示特定任务的损失函数,例如回归的均方误差或分类的交叉熵。优化通常使用基于梯度的优化器进行。
尽管先前关于属性预测的研究大多遵循判别学习范式,但深度学习模型的实现沿着两个关键方向发展。首先,许多研究[199,246,302]专注于开发专门的神经架构和优化策略,以提高数据效率,使模型能够从有限数量的训练样本n中准确预测出更广泛的物理属性(即高维
)。这些架构通常由模块化组件组成,如全连接层、卷积层或图神经网络(GNNs),这些组件针对数据集 TDL 的特定结构和模态进行了定制。其次,越来越多的研究[64,176]通过解决先前文献中未探索的属性预测任务,将深度学习的应用扩展到标准基准之外。
用于重构单个量子态的深度学习模型通常被称为神经网络量子态(NQS)[159]。现有方法可以分为两类:显式重构和隐式重构。主要区别在于深度神经网络的输出表示。在显式重构中, DNN 直接输出目标量子态密度矩阵的完整经典描述[6,54,82]。然而,这种方法随着量子比特数N的增加而呈指数级增长,使得其在可扩展系统中不切实际。因此,我们在本综述中不强调显式重构。
相比之下,重要的是,隐式重构方法模拟了量子态的行为,而无需显式地重构其完整的密度矩阵,该矩阵的形式化描述见框6。这些方法可以进一步分为两种范式。第一种范式开发了深度学习模型,这些模型以测量基为输入,并输出相应的测量结果概率[223,237]。第二种范式,即更广泛研究的范式,将 DNN 视为生成模型,特别是以自回归架构的形式,如循环神经网络(RNNs)[107]和Transformer[261](见框7)。
当使用自回归模型 hDL(θ)进行量子态重构时,它通过链式法则将测量结果的联合概率分布分解为条件概率的乘积。具体来说,分布表示
,其中 s 表示索引 i 前的比特序列。经过这种重构后,模型参数 θ 在 hDL(θ)中通过最小化负对数似然损失来优化。
该损失函数促使模型对与测量结果高度吻合的构型分配更高概率。
当深度学习模型用于量子态重构时,其性能通过学习到的分布Q与真实测量结果分布P之间的相似性来评估。与采用标准化准确度度量(等式(8))的属性预测任务不同,量子态重构中没有标准度量。常见的性能度量包括Kullback-Leibler(KL)散度、总变差距离和Wasserstein距离。如果所使用的学习模型在训练样本数量、量子系统的总查询次数以及计算复杂度随量子比特数N最多呈多项式增长的情况下,仍能实现Q与P之间的 ϵ 精度估计,则认为该模型是高效的。
模型预测。深度学习模型经过训练后,可根据其学习目标应用于下游预测任务。在属性预测中,它们用于推断先前未见过的量子态的物理特性。在量子态重构中,训练好的深度学习模型充当采样器,生成比特串样本,这些样本在与训练时相同的测量设置下,能真实还原目标量子态的统计特性。这使得人们无需直接接触物理系统,就能高效地从测量结果的分布中进行采样。
B. 具体的深度学习模型及其应用
下文将介绍深度学习模型在量子属性预测、量子系统重构及量子计算领域的最新进展。为便于理解,我们进一步区分了属性预测类别中的单属性与多属性预测任务。表II汇总了该领域部分代表性研究成果。
图5. 量子系统表征与刻画的深度学习模型示意图。上半部分展示了在单任务和多任务场景中应用深度学习模型预测量子系统特性的流程。无论是单任务还是多任务场景,辅助信息和测量结果都会先经过预处理,以确保与神经网络架构的兼容性。在单任务预测中,深度学习模型用于估算保真度或熵等特定属性。而在多任务场景中,常用策略是学习潜在表征,从而支持保真度预测和相位分类等多种下游任务。下半部分展示了深度学习模型在隐式状态重构中的应用,通过训练神经网络生成能高度复现量子系统测量结果的样本。
1. 预测特定量子性质
与主要设计用于线性属性预测的机器学习(ML)模型不同,神经网络的表达能力使得深度学习(DL)模型能够针对特定属性(无论是线性还是非线性)进行定制化预测,如图1所示。
量子态相似性。与量子保真度类似,量子态相似性是用于描述量子态之间接近程度的量化指标[190]。检测量子态相似性对于验证可扩展量子处理器的可靠性至关重要。量子相似性检测的两大核心任务包括直接量子保真度估计[91]和跨平台量子验证[87]。在直接保真度估计任务中,研究者通过对实验态的副本进行测量,来评估其相对于理论目标态的量子保真度。而在跨平台验证任务中,研究者则通过分别对两个未刻画的实验量子态进行局部测量,来估算它们之间的量子相似性。
直接保真度估计旨在量化实验制备态与目标纯态之间的相似性,同时最小化测量开销。最初的方法采用了一个简单的全连接神经网络(FCNN)来进行多类分类[294]。直观来说, FCNN 以从量子态测量得到的泡利算符期望值的统计估计子集作为输入,并输出保真度预测。训练标签是通过将保真度离散化为预定义区间生成的,这些区间是通过使用理想化的无限测量场景计算得出的。后续研究提出,与其将保真度估计作为分类问题来处理,不如采用回归模型从测量数据[201]以及所探索量子系统的物理参数[82]中估计实验态的保真度。
跨平台量子验证技术通过实验手段直接比较不同设备生成的量子态。该领域存在多种实现路径:第一种方法将不同设备产生的测量结果分布转化为结构化输入张量,通过卷积神经网络(CNN)进行特征提取和相似性比对[282];第二种方法以量子电路布局为输入,运用图神经网络(GNN)分析电路结构并预测量子保真度[268]。基于多模态学习理论(详见方框7),最新研究提出通过将电路布局与测量数据结合来估算量子态间的重叠度,该方法在包含50个量子比特的模拟实验中展现出显著效果[199]。另有研究尝试估算任意量子态间的保真度,其方案采用CNN模型,以电路的独热编码表示作为输入来预测保真度[253]。
量子纠缠与其他非经典特性。量子纠缠[123]是量子力学区别于经典物理学的根本特征。然而,在任意量子系统中检测和量化纠缠不仅需要大量量子资源,而且在计算上也难以实现[111]。深度学习模型的最新进展提供了一种有前景的替代方法,无需直接从第一性原理进行估算,即可高效预测特定类量子态的纠缠程度。
早期解决这一任务的努力利用了一个简单的 FCNN 来分类纠缠和可分离的二分态[99]。从概念上讲, FCNN 以泡利算符期望值的统计估计作为输入,并输出预测结果。后来的研究开发了更先进的深度学习模型来检测多量子比特态中的多体纠缠[18, 60, 63, 64, 115, 150, 172, 195, 211]。最近的一项工作采用 LSTM 来预测动态演化量子系统中子系统的纠缠熵,仅使用单量子比特和双量子比特测量,规模扩展到100个量子比特[136]。此外,还设计了专门的深度学习模型用于连续变量量子系统的纠缠检测[101]。除了纠缠检测,最近的研究开始探索能够量化纠缠的深度学习模型[79, 152, 168, 208, 210]。超越纠缠的研究开始设计深度学习模型来量化更广泛的量子特性,如非经典性[67]、量子不协调(quantum discord)[153, 242]和非稳定性(nonstabilizerness)[176, 233]。
相分类。相变是多体物理中普遍存在的基本现象,特定物理参数的微小扰动可以导致系统行为的显著变化。相分类并不强制要求访问哈密顿量参数x。然而,当x可访问时,分类不同相有助于识别相变临界点。当收集的原始数据τ对应于一组示例基态向量
时,优化的学习模型可以识别出临界点x∗,在此处|ψ(x∗)⟩发生量子相变。
深度学习模型已被广泛应用于识别经典相变和量子相变参数空间中的临界点或相界。在监督学习范式中,每个训练样本都需要足够数量的测量数据τ或辅助信息z(i),以明确该样本所属的物质相态[47]。相比之下,混淆学习[169,259]和预测学习[16,108,221]模型则完全不依赖任何先验辅助信息。
为探索未知物质相态,基于异常检测的深度学习模型[151]能够在缺乏或仅有少量先验数据的情况下,识别潜在的新物质相态。这类模型不仅用于模拟数据测试,还成功应用于量子相态分类及实验数据的完整相图生成[30,147,177,178]。针对深度学习模型在物质相态分类中的可靠性问题,特别是对抗样本的存在性,学界已展开深入研究[142,292]。
在具有中间测量的随机量子电路中也会发生相变现象[234]。这类量子系统中,临界点附近随机测量速率的微小波动会引发输出量子态纠缠熵的剧烈变化。研究这类量子系统的可学习性已成为检测测量诱导相变的重要手段[4,9,21,138]。通过训练卷积神经网络(CNN)从中间测量快照中预测参考量子比特的泡利期望值,预测精度可有效识别相变[78]。近期一项研究采用基于注意力机制的模型,通过区分两种不同乱序态的测量轨迹来识别测量诱导相变[148]。
除上述研究外,深度学习模型还通过利用量子系统的经典先验知识(如纠缠谱[222])而非基于测量数据,实现了对物质相态的分类。除监督学习范式外,通过聚类算法对原始数据进行降维[273],以及分析自编码器的瓶颈[276],也可实现对不同物质相态的无监督分类。
2. 多量子特性预测
量子阴影层析成像技术能够在不进行完整态层析成像的情况下,有效估计多个可观测量的期望值[1]。受此启发,深度学习模型被开发用于同时预测多种物理特性。这些模型从数据集 TDL 中学习可迁移的潜在表示[24](关于潜在表示和迁移学习的详细解释参见框7),捕捉量子态内的结构模式和物理关联。一旦训练完成,这些潜在表示可用于推断训练期间未见过的多种物理特性。从这个意义上说,潜在表示与经典阴影的作用类似,作为量子态的压缩但信息丰富的摘要,用于下游预测任务。
根据潜在表征的构建方式,现有深度学习模型可分为监督学习、半监督学习和自监督学习三种类型(具体概念参见方框7)。本文将重点阐述前两类模型,而自监督学习的相关内容将在后续语言模型范式中展开讨论。
现有的监督学习和半监督学习的深度学习模型通常遵循基于测量的协议,其中测量结果{s(i)}作为 τDL 的输入数据。这些深度学习模型之间的主要区别在于它们如何构建潜在表示以及获取标注样本的相关成本。
在监督表示学习这一领域,开创性的工作是利用生成查询神经网络(GQNN)的概念来学习量子态的数据驱动表示[302]。所学习到的潜在表示能够预测尚未进行的测量基上的测量统计量,并对不同类别的量子态进行聚类。后续研究探索了如何学习可迁移的表示,这些表示可以应用于其他任务。具体来说,训练用于区分量子相位的分类器可以重用所学习到的潜在表示来预测其他物理属性,包括纠缠熵和量子态重叠[284]。此外,训练用于预测泡利期望值的深度学习模型可以迁移至动态量子系统中预测纠缠熵[182]。
在监督表示学习范式中,一种互补方法涉及多任务学习,即训练深度学习模型同时预测多个量子属性。具体而言,每个训练样本都带有多个标签,即 τDL中的
维度大于1,且等式(10)中的损失函数计算所有目标属性的预测误差。Wu等人[283]给出了一个代表性例子。他们证明,对于键交替 XXZ 模型的基态,一个训练用于从短程测量预测自旋关联和熵互信息的深度学习模型,也能区分对称性保护拓扑(SPT)相和平凡相。这是通过在学习到的表示上应用降维方法实现的,无需显式相位监督即可揭示相位差异。
半监督表示学习通过结合少量标注数据与海量未标注数据实现高效学习[258]。最新研究表明,该方法仍能可靠预测量子属性(如相位分类)[246]。其核心创新在于采用混合损失函数,将标注数据的监督损失与无监督对比损失相结合。这种对比损失机制能确保具有相似测量统计特征的量子态在潜在表示层面保持高度一致性[282]。
3. 量子系统重构
尽管在大规模量子系统中以显式方式完全重构任意量子态难以实现,但已开发出多种深度学习模型来高效隐式重构结构良好的量子系统。这不仅包括利用生成模型隐式重构量子态,还涵盖预测量子动力学的输出态或其物理特性,以及学习预测量子系统的哈密顿量。
隐式量子态重构。对于隐式态重构,当前关于 NQS 的研究,将DNNs作为生成模型,采用了两种方法:数据驱动和变分法。数据驱动的 NQS 方法通常采用自回归模型或基于能量的模型。
正如在模型实现部分所介绍的,一类广泛研究的用于 NQS 的生成模型是基于自回归架构的[49,230,281]。例如,RNN及其变体已成功应用于从测量数据中隐式重建未知量子态[49,185,191]。这些深度学习模型因其在捕捉复杂量子关联方面的强大表达能力而备受重视。一个值得注意的最新进展是使用Transformer架构,它们擅长建模序列数据中的长程依赖关系。例如,参考文献[54,300]提出了基于Transformer的学习模型,用于重建GHZ态和横向场伊辛模型的基态。
另一种构建 NQS 的主要方法,比自回归模型更早发展,是基于能量生成模型的。这些模型为每个可能的构型分配一个未归一化的能量值,采样过程遵循低能量构型对应高概率的原则。采样通常使用马尔可夫链蒙特卡洛等技术完成。这一类方法中的一个开创性例子是受限玻尔兹曼机(RBM)[121],它是最早应用于量子态重构的架构之一[251,252]。
对于变分方法,所使用的深度神经网络被视为变分假设,用于近似哈密顿量的基态[44]。与数据驱动的方法不同,这种方法专门针对基态估计设计,不需要访问量子测量数据。训练目标是使目标哈密顿量H(x)的期望值最小化,从而在由 DNN 定义的表达函数空间中寻找最低能量态。训练后, DNN 的输出模拟了基态向量|ψ(x)⟩的测量统计特性。
这种变分方法可与基于测量数据训练的自回归模型相结合,从而提升量子模拟的准确性[74,157,186]。具体实施时,首先通过自回归模型从噪声量子模拟器生成的实验数据中重建近似基态,随后通过变分优化进一步逼近理想基态。该混合方法已被证实比传统变分方法更高效,且对实验误差具有更强的鲁棒性。
由于本综述侧重于从测量中学习量子系统的AI应用,因此并未全面涵盖所有关于 NQS 的研究。如需了解 NQS 的完整概述,读者可参考文献[48,75,159]。
在显式恢复与隐式恢复之间存在一种值得简要提及的中间方法,即在特定结构假设下显式构建量子态。那些在系统所有切割面上精确意义上具有低纠缠度的量子态[85],可以用张量网络态[68]进行良好近似。一旦学习到张量网络态,就可以从一个与目标分布P(s)高度接近的分布中进行采样。当前研究场景在单空间维度的纯态(即矩阵乘积态)中尤为明显,但对局部纯化的混合态的推广研究也已展开。早期方法主要关注从局部或合适的随机全局测量中实现实际恢复[70,192],而新近研究则为从适当(通常是随机化)数据中严格学习张量网络提供了样本复杂度边界[14,110,141]。这些方法与经典阴影理论也存在密切关联。
预测量子动力学。在量子动力学中,相关的参数化量子态向量变为 |ψ(x;t)⟩:=e−ıH(x)t|ψ0⟩,其中 x 表示所探索哈密顿量的经典控制,t 表示演化时间。给定一个包含多个时间点|ψ(x;t)⟩⟩ 的测量数据集,这些时间点对应不同的控制参数,目标是使用深度学习模型来预测未来时间 t′ 的状态向量 |ψ(x′;t′)⟩ 或其物理特性。由于问题的时间序列特性,具有捕捉时间依赖性的顺序深度学习模型自然适合解决此类任务。
早期的一项尝试利用 RNN 和 LSTM 模型来预测自旋模型中随时间演化状态矢量|ψ(x;t)⟩的可观测量期望值[181]。通过将自旋系统参数和一系列过去的测量数据作为输入,这些模型输出未来时间步长的预测期望值。采用相同的方法,序列深度学习模型已被应用于预测由量子电路生成的随时间演化状态的可观测量期望值[183]。最近提出的一种双向深度学习模型不仅能基于其哈密顿量预测动态演化中可观测量的期望值,还能从相关的动态观测数据中预测随时间变化的哈密顿量参数[11]。与上述研究方向不同,受机器学习模型启发,文献[130]开发了一种深度学习模型,通过预测从预设集合中随机抽取的任何输入状态对应的未知量子过程输出特性来模拟量子过程[303]。
除预测封闭量子系统的动力学外,当前研究热点还聚焦于运用深度学习模型模拟开放量子系统的动力学,该领域在量子化学与药物研发中具有广泛应用前景。由于这些内容超出本综述范畴,具体细节可参阅文献[38,46,116,117]。
哈密顿量学习。量子物理的核心在于系统的哈密顿量,它不仅决定着量子态的结构,还主导着量子态的动态演化。鉴于其核心地位,哈密顿量学习[272,278]成为研究热点,该领域致力于通过测量数据推断哈密顿量的底层结构并估算其耦合强度。所学得的模型参数不仅能揭示系统动力学特性,还可用于可扩展量子系统的刻画与验证[45,86],并能显著提升量子模拟的预测能力。
近期研究引入了专用深度学习模型,在特定哈密顿量结构假设(通常包含几何局域性)下,以最小测量开销完成不同哈密顿量学习任务。例如,基于少量局域测量结果训练的 FCNN 已被用于学习和验证稳定子哈密顿量实例的结构,其在量子纠错领域的潜在应用备受关注[255]。在非平衡态条件下,全连接神经网络(FCNNs)也被用于从动态测量数据重构哈密顿量[188,254]。超越前馈架构,循环神经网络(RNNs)通过处理单量子比特测量的时间序列数据,展现出学习时变哈密顿量参数(如驱动伊辛模型参数)的潜力[56]。此外,一项涉及多达27个量子比特的大规模实验研究运用张量ESPRIT和约束流形优化等超分辨率技术,成功学习了超导量子处理器的哈密顿量[114]。这类大规模实验研究也凸显了开发能够适应量子态制备和测量误差的鲁棒哈密顿量学习方法的重要性。
4 . 在量子计算中的应用
除前述应用外,研究者已开始探索深度学习(DL)模型在各类量子计算任务中的潜在应用。
量子系统基准测试。大规模量子处理器的基准测试对于实现可靠的量子计算和量子模拟至关重要[86,198]。基准测试方法能验证量子态的正确制备或量子电路及其组件的精确实现。为提升效率和可扩展性,采用深度学习模型预测特定量子处理器性能是一种颇具前景的方法[118,125,126]。在具体案例中,人们通过集成多个深度学习模型,以时间、矩阵积态的键维数(bond dimension)和系统规模作为输入参数,来评估实验模拟与经典模拟之间的保真度[232]。完成系统基准测试后,通常还能获得关于如何优化当前实验设置的实用建议。值得注意的是,基准测试的概念正日益被视为量子学习理论的重要组成部分。
量子误差缓解(Quantum error mitigation,QEM)。量子误差缓解的概念在抑制量子系统中由噪声引起的估计误差方面起着关键作用[37]。它并非单一方法,而是一系列主要在经典层面操作的方法组合,旨在消除部分量子噪声。根据其算法策略,现有的 QEM 技术可以分为非学习和基于学习的方法。非学习类别包括零噪声外推[247]和虚拟蒸馏[137]等方法。相比之下,基于学习的方法可以进一步分为采用传统机器学习[72,73,239]和基于深度学习的方法,本文讨论主要集中在后者。这些方法在近期实验实现中对缓解量子噪声至关重要,但在可扩展性方面面临重大障碍,需要电路规模超过指数级的采样复杂度[203,243]。
当前应用于 QEM 的深度学习模型属于基于测量的协议,其中噪声测量结果{s(i)}作为模型的输入,相应的估计期望值作为标签。遵循这一范式, FCNN 结合任务特定辅助信息z(i)已被开发用于缓解多种场景中的错误,包括量子比特噪声谱学[279]、小规模量子电路[146]、量子近似优化算法[216]和哈密顿量模拟[305]。除了这些应用外,一种通过数据增强赋能的深度学习模型被引入,以实现直接在硬件生成的数据上进行训练,从而提高对设备特定噪声的适应性[167]。此外,非消息传递图Transformer被提出以提高在不同电路架构和噪声类型中的性能[20]。与直接应用深度学习模型预测误差缓解的可观测量并行,基态估计的另一种解决方案涉及使用 NQS 从噪声测量数据中重建近似基态,然后进一步通过经典优化来最小化相对于目标哈密顿量的能量[25]。
量子纠错。尽管量子误差缓解对于现代量子处理器作为中间步骤至关重要,但量子纠错(QEC)仍然是实现容错量子计算的最终途径。深度学习模型已成功应用于 QEC ,特别是在解码过程中,它们在某些情况下优于传统方法。这些应用可以分为识别特定量子错误的发生,从而推导出实际的纠错操作[22,240,270,301],以及生成量子解码配置[40],其中训练后,模型可以高效计算任何给定综合征的逻辑运算符的可能性。虽然两种方法都使用测量综合特征作为深度学习模型的输入,但前者通常被视为分类任务,类似于属性预测,而后者属于生成学习,类似于隐式状态重构。基于学习的解码器面临的一个具体挑战是在容错量子存储器中错误测量导致的综合征识别错误。深度学习的概念也被常规用于识别新的量子纠错码,但这一应用超出了本综述的范围。
增强型变分量子算法。变分量子算法(VQAs)仍是研究热点领域,它不仅具有丰富的理论分析,更在实际应用中大显身手。鉴于已有大量相关综述文献[27,50,80,249,250],本文不作全面综述,而是聚焦于利用深度学习模型提升VQAs性能与扩展性的最新进展。
与直接预测数字量子计算机输出的量子态特性不同,深度学习增强的变分量子算法(VQAs)旨在提升优化效率和电路部署效果。在优化方面,研究者开发了深度学习模型来识别高质量初始参数[94,140,162,220],并作为替代优化器预测梯度轨迹[53,135,145,171,263]。为提升性能,深度神经网络(DNNs)被用于设计数据编码器和量子门阵列布局[119,200,293]。此外,强化学习和扩散模型也被探索用于发现紧凑的门序列以实现电路编译,从而进一步促进实际部署[93,96,215]。
C. 高级主题
深度学习的黑箱特性给理解其在可扩展量子系统中的行为带来了巨大挑战。因此,与机器学习模型不同,深度学习模型的基本原理仍大部分未被探索。然而,近年来在可解释人工智能理论的发展上取得了显著进展,这使得我们能够更好地理解、可视化和解释深度学习模型[218]。一个显著的例子是在基态线性性质预测中, DNN 已被证明能提供可证明的预测准确性保证[275]。此外,在相位分类中,当使用的 DNN 具有足够的表达能力时,其输出可以有效地被具有闭合解的代理函数所替代,从而无需显式训练[15]。在状态重构的背景下,多项研究探讨了 NQS 的表达能力,即底层神经架构能有效表示的量子态类别。研究结果表明,条件关联和纠缠熵是主导因素[100,231,288,298]。尽管取得了这些进展,大多数深度学习模型的内部运作机制仍然难以捉摸,需要进一步研究以揭示其底层机制。
解决这一问题的另一种方法是开发可解释的深度学习模型。透明且可解释的深度学习模型不仅能提升量子特性预测的可靠性,还能增强物理学家对其作为推动科学知识发展的强大工具的信心。该研究方向已取得若干进展[66,71,76,90,95,139,224,267,297]。这些研究的核心原则在于揭示输入数据与潜在表征之间的关联。借助降维算法(如t-SNE算法[257]),研究者可直观展示数据表征在高维表征空间中的分布情况。关于量子系统可解释深度学习模型的最新进展,可参阅本综述[277]。
除了提升可解释性之外,建立深度学习模型的可迁移性同样至关重要——即拓展其从简单系统到复杂系统、从小规模到大规模量子体系的适用范围。该领域的突破有望大幅减少数据采集、训练和预测所需的量子资源,从而构建更具扩展性和效率的学习框架。目前已有初步进展:例如,基于不同尺寸一维里德伯原子数据训练的深度学习模型,即便真实相图具有高度尺寸依赖性[271],仍能有效预测训练过程中未涉及的更大系统相图。
V. 语言模型范式
生成式人工智能[42],以大型语言模型(LLMs)[55]为代表,自2020年代初迅速崛起以来,已彻底改变了人工智能研究格局及其社会影响。这一演进过程中的里程碑是GPT框架[36]的开发,该框架确立了两阶段训练范式:先在大规模未标注文本语料库上进行预训练,再进行任务特定的微调。虽然Transformer架构[261]和预训练-微调策略[170,204,205,219]本身并不新颖,但它们的结合揭示了一个显著的实证现象——神经规模法则(Neural Scaling Law)[143],即模型性能会随着模型规模、训练数据和计算资源的增加而可预测地提升。这一洞见在分布式计算技术进步的支持下,使得拥有数百亿参数的LLMs(如ChatGPT和DeepSeek)能够在各类自然语言任务中达到甚至超越人类水平[55]。LLMs的成功引发了人们对于探索类GPT架构在表征和刻画可扩展量子系统潜力的与日俱增的浓厚兴趣。下文将首先概述这类方法的基本原理,随后讨论其应用及前沿课题。
A. 总体方案
在量子系统刻画领域,类GPT架构通常采用预训练-微调的范式。具体而言,首先会在海量量子数据上对基础模型(参见框8)进行预训练,使其掌握普适性模式和结构特征。随后针对特定下游任务(例如预测未观测量子态的关键属性)对预训练模型进行微调。通过这种分阶段训练,最终生成的基础模型展现出强大的通用性,能轻松适配新任务需求,且仅需少量额外训练即可完成调整。
数据集构建。应用类GPT模型学习可扩展量子系统通常依赖于两个不同的数据集:一个大规模未标记数据集 τLM,P ,P用于预训练,以及一个较小的标记数据集 τTLM,F用于微调,其中 τLM=τLM,P∪τLM,F。预训练数据集
,其中z(i)是可选的,包含许多样本,每个样本的测量次数T相对较少,这使得模型能够学习量子态之间广泛且可推广的模式。
与预训练数据集 τLM,P不同,微调数据集
包含的样本数量较少,即nF≪nP,但通过更多的测量次数T,每个样本提供了更丰富的信息。这种密集的监督使模型能够专注于目标属性预测任务。与先前的深度学习模型一样,在微调过程中,输入组件x(i),s(i)和z(i)的选择性使用取决于架构和下游应用。
模型实现与训练。接下来我们将详细阐述GPT模型中预训练与微调阶段的具体实现方法。
在预训练阶段,模型通过自监督训练来提取所考虑量子态的共同潜在表示。为此目的,一种标准策略是解决隐式量子态重构问题的广义版本。所使用的Transformer,记为hLM,作为自回归模型运行,模拟与 τLM,P中任何量子态相关的测量结果[175]。数学上,该模型近似目标分布P(s|x),其中P(x)表示 τLM,P中量子态的数据分布。因此,负对数似然损失函数被调整为如下形式
其中 T 表示每个状态下的测量快照数量,τ(x(i))表示 ρ(x(i))的测量结果集合。在这种表述下,学习模型 hLM 近似测量结果的分布为 Q(s;x,z;θ)=ΠjQ(sj|s
在微调阶段,预训练的Transformer,记为
,其中
是优化参数,在微调数据集 τLM,F上进一步优化。实际上,通常会在核心Transformer架构中添加额外的任务特定层,例如用于纠缠度量的输出层。然后,整个模型或有时仅新增的层,使用监督目标进行训练,这些目标反映了深度学习模型的判别学习过程。这种方法使得模型能够在最少的标注数据下,将其通用知识适应于特定应用。
模型预测。经过训练的类GPT模型不仅能用于预测目标量子特性,还可轻松微调以适应新的预测任务。
B. 具体模型与应用
现有为可扩展量子系统学习开发的GPT式基础模型,可根据其实现策略分为三类。前两类都包含量子测量数据:一类完全依赖预训练,另一类则采用预训练后微调的范式。第三类为纯经典模型,采用变分方法进行量子态重构,无需建模测量统计量的底层分布。表II展示了该领域若干代表性研究成果。
仅使用预训练的基础模型。这类基础模型的目标是在给定信息完备的 POVM M下,复制先前未见过的量子态 ρ(x)的随机测量结果分布。例如,当M被设置为用于收集{s(i)}的随机化泡利测量协议时,预训练的GPT模型旨在模拟基于泡利的经典阴影行为[131]。也就是说,预训练的Transformer输出可用于估计许多局域可观测量的阴影期望值。
这一方法的典型代表是Wang等人[271]的研究,他们提出了一种仅通过预训练的基础模型,用于预测二维随机海森堡模型的线性特性,模拟系统最多包含45个量子比特。采用的测量协议是Pauli-6 POVM 。后续研究将这一框架扩展到不同的量子应用和Transformer架构中。特别是,一种基于Pauli-6 POVM 的双向Transformer架构被提出,用于预测二维反铁磁随机海森堡模型基态的线性特性,并解决哈密顿量学习任务[12]。此外,ShadowGPT被开发用于预测量子多体系统的基态能量、关联函数和纠缠熵[289],而采用编码器-解码器Transformer架构的RydbergGPT则用于研究里德伯原子阵列中基态的特性[89]。
包含预训练与微调的模型架构。张等人[296]率先在此领域取得突破性进展。他们首先采用纯编码器Transformer架构,完成针对哈密顿量家族基态的预训练。随后在微调阶段,将预训练的Transformer模型应用于与相图及磁化强度相关的标注数据集,对未见过的基态进行微调。后续研究进一步拓展该方法,将哈密顿量参数(即辅助信息z)直接输入到GPT风格模型中[245]。
基础模型不涉及量子数据。这类模型与前两类模型的根本区别在于如何实现隐式量子态重构,如前所述。基础模型不依赖测量数据,而是采用Transformer作为变分假设来近似给定哈密顿量类别的基态。数学上,给定输入x(i),表示变换器模型所代表的估计状态为 ψ(θ;x(i))。预训练阶段的目标是最小化变分能量[44],即,
这种变分优化可通过采用最小步长随机重构算法[59]等先进技术实现。参考文献[207]提供的最新典型案例表明,该基础模型能高效模拟无序系统、估算耦合空间中的量子几何张量,并揭示量子相变现象。
C. 高级主题
除了从零开始训练类GPT模型以开发可扩展量子系统的基础模型外,早期研究还开始探索该领域其他生成式AI技术。
超越GPT的生成式AI。扩散模型作为生成式AI的另一重要类别,通过迭代去噪随机输入来逆转渐进式噪声生成过程并合成数据[122,238,286]。基于这一原理,近期研究提出了量子系统学习的扩散框架QuaDiM[244]。该框架通过将噪声生成过程与哈密顿参数相关联,使单一模型能够近似整个相图中的基态,从而有效实现属性预测与状态合成的统一。此外,结合文本条件化的扩散模型已被用于实现纠缠生成和幺正编译任务[96]。
图6. 基于GPT模型的量子属性预测预训练与微调范式示意图。在预训练阶段(左图),利用量子系统的辅助信息和测量结果,在海量多样化数据集上训练生成式语言模型。在微调阶段(右图),保持预训练的GPT模型固定不变(冻结),同时使用轻量级神经网络在任务特定数据上进行训练,以预测保真度、熵等属性。该方法充分发挥大型语言模型的泛化能力,并通过针对性微调将其适配到量子专项任务中。
量子算法的大型语言模型(LLM)研究。在从头训练类似GPT的模型的同时,一个日益增长的研究方向是利用预训练的LLM(如ChatGPT)来优化量子算法设计[39,84,287]。值得注意的是,LLM已通过微调专门用于量子计算编程任务。此外,无论是开源还是闭源的LLM,都被用于生成高质量的ansatze(量子态),从而提升VQA(量子态基量子算法)的性能[165,179,187]。
VI. 挑战与机遇
接下来我们将探讨现有AI方法在表征和刻画大规模量子系统时面临的核心挑战。解决这些挑战的任何进展都将提升AI驱动的量子系统学习的可扩展性和可靠性。我们从理论基础到实际应用的维度,系统梳理这些挑战并逐一展开讨论。
问题1:是否存在可证实有效的机器学习模型,用于量子系统刻画且超越线性属性预测?
尽管在开发用于预测可扩展量子系统线性特性的机器学习模型方面已取得显著进展,但针对更广泛学习任务(尤其是非线性特性预测)存在可证明高效机器学习模型的问题仍未解决。黄等人最初尝试开发的拓扑量子相分类模型[132],通过机器学习实现了高效分类,但这类相态的线性特性无法相互区分。该领域面临的核心挑战在于:这些特性不仅与底层量子系统密切相关,还受经典输入参数的复杂影响。
基于先前关于线性属性预测的研究成果,一个极具前景的方法是利用结构约束(例如相关量子态的局域性、平滑性或内在对称性)来促进高效学习。深化这一认知不仅将夯实量子学习理论的理论基础,还将为设计能够应对更复杂量子刻画任务的机器学习模型提供具体指导。
问题2:基于测量的协议中,经典学习模型的理论基础是什么?
如图3所示,先前研究已探讨了经典学习器在测量无关协议中的理论性能。具体而言,研究表明机器学习模型能够预测经典算法在无数据访问时无法实现的基态线性特性[132]。另一方面,对于某些类别的基态,机器学习模型在预测未知可观测量的期望值时,其表现逊于量子学习器[184]。非正式地说,这里存在一种层级关系:纯经典方法是测量无关经典学习器的子集,而后者又包含在更广泛的量子学习模型类别中——这些模型是在量子计算机上实现的。
尽管学界对测量无关协议的理论基础已取得进展,但基于测量的协议性能仍鲜有研究。关于测量协议的定义可从两个方向拓展:其一是与图3所示协议相呼应,即经典学习者可在预测阶段对目标系统进行量子测量;其二是将测量协议理解为一种模型,该模型能在整个学习过程中根据先前结果自适应地查询数据[134,158,202]。
基于测量协议的扩展定义揭示,其可学习性仍存在若干根本性问题。首要问题是:针对模拟量子模拟器和数字量子计算机的测量无关协议与量子学习模型之间是否存在计算分离?此外,如图1所示,对于任何可扩展的量子系统学习任务,关键在于确定基于测量的经典学习器能否同时实现样本效率与计算效率,还是仅具备样本效率却存在计算不可行性。与问题1类似,如何在温和条件下为特定任务设计可证明高效的基于测量的经典学习模型?解决这些问题将为何时采用基于测量的学习协议提供重要启示。
问题3:在量子系统刻画中,基于深度学习(DL)和局部最小化(LM)的方法何时优于机器学习(ML)模型?
既往研究[245,246]指出,深度学习(DL)模型在可扩展量子系统学习方面优于传统机器学习(ML)模型。然而,这些比较大多缺乏严格的基准测试,因其涉及不同的测量策略、数据集构建中的量子计算成本或训练条件的差异。因此,需要进行系统性评估以确定DL与ML在该领域的实际优势。
最近的一项研究[299]首次尝试通过大量模拟来解决这一问题,预测与标准基准相关的各类基态的线性和非线性特性。与先前使用不同数量量子资源的工作不同,本研究通过控制所有学习模型的量子测量总数,确保了公平的比较。结果表明,在预测误差方面,深度学习模型在常用哈密顿系统中并未始终优于传统机器学习模型。此外,在 QEM 领域,已对涉及多达100个量子比特的各种机器学习和深度学习模型进行了性能比较[166]。结果显示,基于机器学习的方法——随机森林,始终优于深度学习模型,例如 FCNN 和GNN。
这些研究结果凸显了探索更具挑战性任务的必要性,深度学习模型和逻辑门模型在这些场景中可能展现出更显著的优势。此外,我们仍需深入探究这些模型是否在其他方面具有优势,例如对噪声的鲁棒性、对分布外量子态的泛化能力,以及对动态演化量子系统的适应性。与基准测试工作并行推进的另一关键研究方向,是探索深度学习模型和逻辑门模型在量子系统刻画中的理论基础。一个根本性问题是:这些模型能否在特定任务中提供可验证的优势,相较于经典机器学习模型?结合问题1和问题2的洞见,解答这一问题将深化我们对这些先进模型在何种条件下能真正发挥优势的理解。
问题4:高级深度学习研究课题能否提升量子系统的表征与刻画能力?
以往研究主要通过预测准确率来评估人工智能模型的性能。然而,这种单一指标难以全面衡量深度学习模型和语言模型的综合能力。究其原因,这些模型已在多个领域取得突破性进展——通过迁移学习[304]、持续学习[274]、对抗学习[144]和元学习[124]等前沿技术,显著提升了系统的自适应性、鲁棒性和运行效率。这引出了一个根本性问题:这些先进的深度学习方法能否为可扩展量子系统带来同等水平的性能优势?
多项研究表明,应用先进的迁移学习技术可有效提升深度学习模型在属性预测和量子态重构中的性能[271,283,291]。这些模型的共同特点是:训练初期在小型或可经典模拟的量子系统上进行,而经过迁移学习训练的模型则可扩展至规模更大、计算难度更高的量子系统。
尽管取得了这些进展,但仍有几个关键问题尚未得到解答。首先,诸如持续学习、对抗学习和元学习等先进方法在表征和刻画可扩展量子系统方面的潜力,目前仍处于探索阶段。其次,需要开展系统性的基准测试研究,通过多种评估指标来比较不同方法的性能表现,类似于量子多体系统变分计算所建立的基准体系[280]。最后,这些新方法的理论基础仍需进一步完善。
问题5:如何设计新型任务特定的深度学习(DL)模型与通用语言模型(LM),以有效表征和刻画大规模量子系统?
对称性是自然界的基本属性,为设计更高效的深度学习模型和语言模型以实现可扩展量子系统提供了强有力的指导原则。然而,现有大多数量子系统学习方法仅依赖数据驱动,未能充分利用底层物理结构。将内在物理知识融入模型架构对于提升学习性能和改善模型可解释性至关重要[104,120,185]。
目前鲜有研究明确阐述如何将置换对称性融入学习模型,以确保测量结果在多次实验中保持不变[147,199]。除置换不变性外,规范对称性[61]、局域性约束[264]和李代数特性[290]等基础结构,是众多量子系统固有的特征,可被嵌入网络架构以提升学习效率。开发有效整合这些物理先验知识的策略,有望进一步优化量子学习任务中深度学习模型的效率与适应性。
尽管在量子系统领域已取得进展,但能够从测量结果、量子电路和哈密顿量等多样化量子数据中学习的通用基础模型仍未实现。当前研究主要集中在特定量子态家族适用的方案上,这使得相关任务间存在知识迁移。虽然这些方法前景广阔,但要将其扩展到更广泛的量子系统,可能需要巨大的计算资源。该领域的持续突破,最终将彻底改变我们对大规模量子系统的建模、模拟和理解能力。
问题6:如何利用大语言模型(LLMs)提升可扩展量子系统的刻画能力?
近年来,大型语言模型(LLMs)在科学发现领域展现出非凡能力[269]。例如,LLMs已被应用于数学问题求解的辅助[212]。在化学与材料科学领域,LLMs实现了研究过程的自动化[31]。在量子计算领域,LLMs不仅推动了硬件制造技术的发展[41],还为量子纠错技术做出了重要贡献[40]。一个自然产生的问题是:现代LLMs能否以及如何提升大规模量子系统的表征与刻画能力?特别是在应对数据稀缺、泛化约束和可解释性不足等早期AI模型面临的挑战时,这种技术突破将发挥关键作用。
VII. 展望
未来数年,人工智能驱动的量子系统表征与刻画技术将经历从概念开发到大规模实施的转型。尽管当前研究多聚焦于玩具模型与特定任务,但未来研究将更多地针对现实且具有实验相关性的量子系统。这些努力不仅将完善现有学习策略,还将推动量子技术的前沿发展。
要充分发挥人工智能在该领域的潜力,必须拓展并优化相关计算工具箱。这包括提升图形处理器与量子处理器之间的协同效应,以加速混合量子-经典计算;同时将人工智能框架与量子云平台整合,从而构建更具可扩展性与易用性的学习模型。
开放数据集与标准化基准的开发同样至关重要,这些资源将促进人工智能与量子科学领域的合作。特别是这些数据集鼓励AI研究人员参与开发性能更优的新型AI模型,实现跨学科知识的融合。这些举措将在推动跨学科协作、加速Megaquop机器[197]实用价值的实现方面发挥关键作用,其长期目标是展示量子优势在从基础物理到分子模拟[295]等实际应用中的优势。
展望未来,人工智能将在容错量子计算时代持续发挥基础性作用。当前将AI应用于容错量子计算的研究重点,是针对实际噪声模型[22,160,260]有效学习表面码的解码器。随着量子硬件日趋成熟,研究重点将从量子系统认证、基准测试和预训练VQA扩展到优化具有可证明优势的大规模量子算法,并实现跨不同量子计算平台的电路自动化简化[102]。
人工智能驱动的方法终将从软件层面到硬件层面重塑量子计算,实现量子算法设计、编译与执行的端到端自动化[10]。尽管为实现这些长期目标所做的某些努力尚显仓促但意义重大[8,96,161,215,266]。该领域的重要里程碑是人工智能辅助量子计算生态系统的开发,这类系统通过智能模型自主选择最优量子电路,并优化整合问题建模、资源分配与实时反馈机制的纠错策略。
人工智能正通过揭示复杂量子系统的全新机理,为量子多体物理带来革命性变革。展望未来,AI驱动的模型将在三大领域发挥关键作用:解析涌现现象、发现新型量子相[151,178]、完善强关联系统的理论框架[127,262],并突破传统数值方法的局限[132,231]。最终,AI驱动的研究方法将成为探索量子科学基础问题的强大工具[43,75]。通过系统推进这些方向,人工智能将成为释放量子技术全部计算潜能不可或缺的利器。
VIII. 致谢
YXD 感谢 SUG(025257-00001)的资助, NTU . YZ 和 GC 感谢中国科技部(MOST2030)的资助,项目编号 2023200300600。 YDW 感谢中国国家自然科学基金的资助,项目编号 12405022。Je 感谢德国 BMFTR 、柏林量子、慕尼黑量子谷、量子旗舰(百万计划和 PasQuans2)以及欧洲研究委员会的资助。GC 感谢香港研究资助委员会的资助,项目编号 17307520、R7035-21F 和 T45-406/23-R;感谢中国科技部的资助,项目编号 2023ZD0300600;以及约翰·坦普尔顿基金会的资助,项目编号 62312,主题为“时空的量子信息结构”。本文中表达的观点仅代表作者,不一定反映约翰·坦普尔顿基金会的观点。圆周研究所的研究由加拿大政府通过创新、科学和经济发展部以及安大略省政府通过研究、创新和科学部支持。
参考文献
[1] S. Aaronson. Shadow tomography of quantum states. In Proceedings of the 50th annual ACM SIGACT symposium on theory of computing, pages 325–338, 2018.
[2] S. Aaronson and D. Gottesman. Improved simulation of stabilizer circuits. Physical Review A—Atomic, Molecular, and Optical Physics, 70:052328, 2004.
[3] G. Acampora et al. Quantum computing and artificial intelligence: status and perspectives. arXiv:2505.23860, 2025.
[4] U. Agrawal, J. Lopez-Piqueres, R. Vasseur, S. Gopalakrishnan, and A. C. Potter. Observing quantum measurement collapse as a learnability phase transition. Phys. Rev. X, 14:041012, Oct 2024.
[5] D. Aharonov, X. Gao, Z. Landau, Y. Liu, and U. Vazirani. A polynomial-time classical algorithm for noisy random circuit sampling. In Proceedings of the 55th Annual ACM Symposium on Theory of Computing, pages 945–957, 2023.
[6] S. Ahmed, C. S. Munoz, F. Nori, and A. F. Kockum. Quan- ˜ tum state tomography with conditional generative adversarial networks. Phys. Rev. Lett., 127:140502, 2021.
[7] G. Q. AI and Collaborators. Quantum error correction below the surface code threshold. Nature, 638:920–926, 2025.
[8] H. Ai and Y.-X. Liu. Scalable parameter design for superconducting quantum circuits with graph neural networks. Phys. Rev. Lett., 135:040601, 2025.
[9] A. A. Akhtar, H.-Y. Hu, and Y.-Z. You. Measurementinduced criticality is tomographically optimal. Phys. Rev. B, 109:094209, Mar 2024.
[10] Y. Alexeev et al. Artificial intelligence for quantum computing. arXiv:2411.09131, 2024.
[11] Z. An, J. Wu, Z. Lin, X. Yang, K. Li, and B. Zeng. Dualcapability machine learning models for quantum hamiltonian parameter estimation and dynamics prediction. Phys. Rev. Lett., 134:120202, 2025.
[12] Z. An, J. Wu, M. Yang, D. L. Zhou, and B. Zeng. Unified quantum state tomography and Hamiltonian learning: A language-translation-like approach for quantum systems. Phys. Rev. Appl., 21:014037, 2024.
[13] T. I. Andersen et al. Thermalization and criticality on an analogue–digital quantum simulator. Nature, 638:79–85, 2025.
[14] A. Anshu and S. Arunachalam. A survey on the complexity of learning quantum states. Nature Rev. Phys., 6:59–69, 2024.
[15] J. Arnold and F. Schafer. Replacing neural networks by opti- ¨ mal analytical predictors for the detection of phase transitions. Phys. Rev. X, 12:031044, 2022.
[16] J. Arnold, F. Schafer, M. ¨ Zonda, and A. U. J. Lode. Inter- ˇ pretable and unsupervised phase classification. Phys. Rev. Res., 3:033052, 2021.
[17] S. Arunachalam and R. de Wolf. Guest column: A survey of quantum learning theory. ACM Sigact News, 48:41–67, 2017.
[18] N. Asif, U. Khalid, A. Khan, T. Q. Duong, and H. Shin. Entanglement detection with artificial neural networks. Sci. Rep., 13:1562, 2023.
[19] T. Baltrusaitis, C. Ahuja, and L.-P. Morency. Multimodal ma- ˇ chine learning: A survey and taxonomy. IEEE Trans. Patt. Ana. Mach. Int., 41:423–443, 2018.
[20] T. Bao, X. Ye, H. Ruan, C. Liu, W. Wu, and J. Yan. Beyond circuit connections: A non-message passing graph transformer approach for quantum error mitigation. In The Thirteenth International Conference on Learning Representations.
[21] F. Barratt, U. Agrawal, A. C. Potter, S. Gopalakrishnan, and R. Vasseur. Transitions in the learnability of global charges from local measurements. Phys. Rev. Lett., 129:200602, Nov 2022.
[22] J. Bausch et al. Learning high-accuracy error decoding for quantum processors. Nature, pages 1–7, 2024.
[23] T. Begusiˇ c, J. Gray, and G. K.-L. Chan. Fast and converged ´ classical simulations of evidence for the utility of quantum computing before fault tolerance. Sci. Adv., 10:eadk4321, 2024.
[24] Y. Bengio, A. Courville, and P. Vincent. Representation learning: A review and new perspectives. IEEE Trans. Patt. Ana. Mach. Int., 35:1798–1828, 2013.
[25] E. R. Bennewitz, F. Hopfmueller, B. Kulchytskyy, J. Carrasquilla, and P. Ronagh. Neural error mitigation of near-term quantum simulations. Nature Mach. Intell., 4:618–624, 2022.
[26] C. Bertoni, J. Haferkamp, M. Hinsche, M. Ioannou, J. Eisert, and H. Pashayan. Shallow shadows: Expectation estimation using low-depth random clifford circuits. Phys. Rev. Lett., 133:020602, 2024.
[27] K. Bharti et al. Noisy intermediate-scale quantum algorithms. Rev. Mod. Phys., 94:015004, 2022.
[28] C. M. Bishop and N. M. Nasrabadi. Pattern recognition and machine learning, volume 4. Springer, 2006.
[29] D. Bluvstein et al. Logical quantum processor based on reconfigurable atom arrays. Nature, 626:58–65, 2024.
[30] A. Bohrdt, S. Kim, A. Lukin, M. Rispoli, R. Schittko, M. Knap, M. Greiner, and J. Leonard. Analyzing nonequilibrium quantum states through snapshots with artificial neural networks. Phys. Rev. Lett., 127:150504, 2021
[31] D. A. Boiko, R. MacKnight, B. Kline, and G. Gomes. Autonomous chemical research with large language models. Nature, 624:570–578, 2023.
[32] A. Bouland, B. Fefferman, S. Ghosh, T. Metger, U. Vazirani, C. Zhang, and Z. Zhou. Public-key pseudoentanglement and the hardness of learning ground state entanglement structure. arXiv:2311.12017, 2023.
[33] A. Bouland, C. Zhang, and Z. Zhou. On the hardness of learning ground state entanglement of geometrically local Hamiltonians. arXiv:2411.04353, 2024.
[34] D. Bourgund et al. Formation of individual stripes in a mixed-dimensional cold-atom Fermi–Hubbard system. Nature, 637:57–62, 2025.
[35] S. Bravyi and D. Gosset. Improved classical simulation of quantum circuits dominated by Clifford gates. Phys. Rev. Lett., 116:250501, 2016.
[36] T. Brown et al. Language models are few-shot learners. Adv. Neur. Inf. Proc. Sys., 33:1877–1901, 2020.
[37] Z. Cai, R. Babbush, S. C. Benjamin, S. Endo, W. J. Huggins, Y. Li, J. R. McClean, and T. E. O’Brien. Quantum error mitigation. Rev. Mod. Phys., 95:045005, 2023.
[38] F. Campaioli, J. H. Cole, and H. Hapuarachchi. Quantum master equations: Tips and tricks for quantum optics, quantum computing, and beyond. PRX Quantum, 5:020202, 2024.
[39] C. Campbell, H. M. Chen, W. Luk, and H. Fan. Enhancing LLM-based quantum code generation with multi-agent optimization and quantum error correction. arXiv:2504.14557, 2025.
[40] H. Cao, F. Pan, Y. Wang, and P. Zhang. qecGPT: decoding quantum error-correcting codes with generative pre-trained transformers. arXiv:2307.09025, 2023.
[41] S. Cao, Z. Zhang, M. Alghadeer, S. D. Fasciati, M. Piscitelli, M. Bakr, P. Leek, and A. Aspuru-Guzik. Agents for self-driving laboratories applied to quantum computing. arXiv:2412.07978, 2024.
[42] Y. Cao, S. Li, Y. Liu, Z. Yan, Y. Dai, P. S. Yu, and L. Sun. A comprehensive survey of AI-generated content (AIGC): A history of generative AI from GAN to ChatGPT. arXiv:2303.04226, 2023.
[43] G. Carleo, I. Cirac, K. Cranmer, L. Daudet, M. Schuld, N. Tishby, L. Vogt-Maranto, and L. Zdeborova. Ma- ´ chine learning and the physical sciences. Rev. Mod. Phys., 91:045002, 2019.
[44] G. Carleo and M. Troyer. Solving the quantum many-body problem with artificial neural networks. Science, 355:602– 606, 2017.
[45] J. Carrasco, A. Elben, C. Kokail, B. Kraus, and P. Zoller. Theoretical and experimental perspectives of quantum verification. PRX Quantum, 2:010102, 2021.
[46] J. Carrasquilla. Machine learning for quantum matter. Adv. Phys. X, 5:1797528, 2020.
[47] J. Carrasquilla and R. G. Melko. Machine learning phases of matter. Nature Phys., 13:431, 2017.
[48] J. Carrasquilla and G. Torlai. How to use neural networks to investigate quantum many-body physics. PRX Quantum, 2:040201, 2021.
[49] J. Carrasquilla, G. Torlai, R. G. Melko, and L. Aolita. Reconstructing quantum states with generative models. Nature Mach. Intell., 1:155–161, 2019.
[50] M. Cerezo et al. Variational quantum algorithms. Nature Rev. Phys., 3:625–644, 2021.
[51] M. Cerezo et al. Does provable absence of barren plateaus imply classical simulability? or, why we need to rethink variational quantum computing. arXiv:2312.09121, 2023.
[52] M. Cerezo, M. Larocca, D. Garc´ıa-Mart´ın, N. L. Diaz, P. Braccia, E. Fontana, M. S. Rudolph, S. T. Pablo Bermejo, Aroosa Ijaz, E. R. Anschuetz, and Z. Holmes. Does provable absence of barren plateaus imply classical simulability. Nature Comm., 16:7907, 2025.
[53] A. Cervera-Lierta, J. S. Kottmann, and A. Aspuru-Guzik. Meta-variational quantum eigensolver: Learning energy profiles of parameterized Hamiltonians for quantum simulation. PRX Quantum, 2:020329, 2021.
[54] P. Cha, P. Ginsparg, F. Wu, J. Carrasquilla, P. L. McMahon, and E.-A. Kim. Attention-based quantum tomography. Mach. Learn. Sci. Technol., 3:01LT01, 2021.
[55] Y. Chang et al. A survey on evaluation of large language models. ACM transactions on intelligent systems and technology, 15:1–45, 2024.
[56] L. Che, C. Wei, Y. Huang, D. Zhao, S. Xue, X. Nie, J. Li, D. Lu, and T. Xin. Learning quantum Hamiltonians from single-qubit measurements. Phys. Rev. Res., 3:023246, 2021.
[57] Y. Che, C. Gneiting, and F. Nori. Exponentially improved efficient machine learning for quantum many-body states with provable guarantees. Phys. Rev. Res., 6:033035, 2024.
[58] Y. Che, C. Gneiting, X. Wang, and F. Nori. Quantum circuit complexity and unsupervised machine learning of topological order. arXiv preprint arXiv:2508.04486, 2025.
[59] A. Chen and M. Heyl. Empowering deep neural quantum states through efficient optimization. Nature Phys., 20:1476– 1481, 2024.
[60] C. Chen, C. Ren, H. Lin, and H. Lu. Entanglement structure detection via machine learning. Quantum Sci. Tech., 6:035017, 2021.
[61] S. Chen, Y. Liu, M. Otten, A. Seif, B. Fefferman, and L. Jiang. The learnability of Pauli noise. Nature Comm., 14:52, 2023.
[62] S. Chen, J. d. D. Pont, J.-T. Hsieh, H.-Y. Huang, J. Lange, and J. Li. Predicting quantum channels over general product distributions. arXiv:2409.03684, 2024.
[63] Y. Chen, Y. Pan, G. Zhang, and S. Cheng. Detecting quantum entanglement with unsupervised learning. Quantum Sci. Tech., 7:015005, 2021.
[64] Z. Chen, X. Lin, and Z. Wei. Certifying unknown genuine multipartite entanglement by neural networks. Quantum Sci. Tech., 8:035029, 2023.
[65] G. Cho and D. Kim. Machine learning on quantum experimental data toward solving quantum many-body problems. Nature Comm., 15:7552, 2024.
[66] M. Choi, D. Flam-Shepherd, T. H. Kyaw, and A. AspuruGuzik. Learning quantum dynamics with latent neural ordinary differential equations. Phys. Rev. A, 105:042403, 2022.
[67] V. Cimini, M. Barbieri, N. Treps, M. Walschaers, and V. Parigi. Neural networks for detecting multimode Wigner negativity. Phys. Rev. Lett., 125:160504, 2020.
[68] J. I. Cirac, D. Pérez-García, N. Schuch, and F. Verstraete. Matrix product states and projected entangled pair states: Concepts, symmetries, theorems. Rev. Mod. Phys., 93:045003, 2021.
[69] C. Cirstoiu. A Fourier analysis framework for approximate classical simulations of quantum circuits. arXiv:2410.13856, 2024.
[70] M. Cramer, M. B. Plenio, S. T. Flammia, R. Somma, D. Gross, S. Bartlett, O. Landon-Cardinal, D. Poulin, and Y.-K. Liu. Efficient quantum state tomography. Nature Comm., 1:149, 2010.
[71] K. Cybinski, M. Płodzie ´ n, M. Tomza, M. Lewenstein, ´ A. Dauphin, and A. Dawid. Characterizing out-of-distribution generalization of neural networks: application to the disordered Su-Schrieffer-Heeger model. Mach. Learn. Sci. Technol., 6:015014, 2025. [72] P. Czarnik, A. Arrasmith, P. J. Coles, and L. Cincio. Error mitigation with clifford quantum-circuit data. Quantum, 5:592, 2021.
[73] P. Czarnik, M. McKerns, A. T. Sornborger, and L. Cincio. Improving the efficiency of learning-based error mitigation. arXiv:2204.07109, 2022.
[74] S. Czischek, M. S. Moss, M. Radzihovsky, E. Merali, and R. G. Melko. Data-enhanced variational Monte Carlo simulations for Rydberg atom arrays. Phys. Rev. B, 105:205108, 2022.
[75] A. Dawid, J. Arnold, B. Requena, A. Gresch, M. Płodzienñ, K. Donatella, K. A. Nicoli, P. Stornati, R. Koch, M. Buttner, R. Okuła, G. Muñoz-Gil, R. A. Vargas-Hern ández, ´A. Cervera-Lierta, J. Carrasquilla, V. Dunjko, M. Gabrié, P. H. E. van Nieuwenburg, F. Vicentini, L. Wang, S. J. Wetzel, G. Carleo, E. Greplová, R. Krems, F. Marquardt, M. Tomza, M. Lewenstein, and A. Dauphin. Machine learning in quantum sciences. Cambridge University Press, Cambridge, 2025.
[76] P. de Schoulepnikoff, G. Muñoz-Gil, H. P. Nautrup, and H. J. Briegel. Interpretable representation learning of quantum data enabled by probabilistic variational autoencoders. arXiv:2506.11982, 2025.
[77] M. DeCross et al. The computational power of random quantum circuits in arbitrary geometries. arXiv:2406.02501, 2024. [78] H. Dehghani, A. Lavasani, M. Hafezi, and M. J. Gullans. Neural-network decoders for measurement induced phase transitions. Nature Comm., 14:2918, 2023.
[79] J. Denis, F. Damanet, and J. Martin. Estimation of the geometric measure of entanglement with wehrl moments through artificial neural networks. SciPost Physics, 15:208, 2023.
[80] Y. Du et al. Quantum machine learning: A hands-on tutorial for machine learning practitioners and researchers. arXiv:2502.01146, 2025.
[81] Y. Du, M.-H. Hsieh, and D. Tao. Efficient learning for linear properties of bounded-gate quantum circuits. Nature Comm., 16:3790, 2025.
[82] Y. Du, Y. Yang, T. Liu, Z. Lin, B. Ghanem, and D. Tao. Shadownet for data-centric quantum system learning. arXiv:2308.11290, 2023.
[83] Y. Du, Y. Yang, D. Tao, and M.-H. Hsieh. Problem-dependent power of quantum neural networks on multiclass classification. Phys. Rev. Lett., 131:140601, 2023.
[84] N. Dupuis, L. Buratti, S. Vishwakarma, A. V. Forrat, D. Kremer, I. Faro, R. Puri, and J. Cruz-Benito. Qiskit code assistant: Training LLMs for generating quantum computing code. In 2024 IEEE LLM Aided Design Workshop (LAD), pages 1–4. IEEE, 2024.
[85] J. Eisert, M. Cramer, and M. B. Plenio. Colloquium: Area laws for the entanglement entropy. Rev. Mod. Phys., 82:277, 2010.
[86] J. Eisert, D. Hangleiter, N. Walk, I. Roth, D. Markham, R. Parekh, U. Chabaud, and E. Kashefi. Quantum certification and benchmarking. Nature Rev. Phys., 2:382–390, 2020.
[87] A. Elben et al. Cross-platform verification of intermediate scale quantum devices. Phys. Rev. Lett., 124:010504, 2020.
[88] A. Elben, S. T. Flammia, H.-Y. Huang, R. Kueng, J. Preskill, B. Vermersch, and P. Zoller. The randomized measurement toolbox. Nature Rev. Phys., 5:9–24, 2023.
[89] D. Fitzek et al. RydbergGPT. arXiv:2405.21052, 2024.
[90] D. Flam-Shepherd, T. C. Wu, X. Gu, A. Cervera-Lierta, M. Krenn, and A. Aspuru-Guzik. Learning interpretable representations of entanglement in quantum optics experiments using deep generative models. Nature Mach. Intell., 4:544– 554, 2022.
[91] S. T. Flammia and Y.-K. Liu. Direct fidelity estimation from few pauli measurements. Phys. Rev. Lett., 106:230501, 2011.
[92] E. Fontana, M. S. Rudolph, R. Duncan, I. Rungger, and C. Círstoiu. Classical simulations of noisy variational quantum circuits. arXiv:2306.05400, 2023.
[93] T. Fosel, M. Y. Niu, F. Marquardt, and L. Li. Quantum circuit optimization with deep reinforcement learning. arXiv:2103.07585, 2021.
[94] L. Friedrich and J. Maziero. Avoiding barren plateaus with classical deep neural networks. Phys. Rev. A, 106:042433, 2022.
[95] F. Frohnert and E. van Nieuwenburg. Explainable representation learning of small quantum states. Mach. Learn. Sci. Technol., 5:015001, 2024.
[96] F. Fürrutter, G. Muñoz-Gil, and H. J. Briegel. Quantum circuit synthesis with diffusion models. Nature Mach. Intell., 6:515– 524, 2024.
[97] B. Y. Gan, P.-W. Huang, E. Gil-Fuster, and P. Rebentrost. Concept learning of parameterized quantum models from limited measurements. arXiv:2408.05116, 2024. [98] D. Gao et al. Establishing a new benchmark in quantum computational advantage with 105-qubit zuchongzhi 3.0 processor. Phys. Rev. Lett., 134:090601, 2025.
[99] J. Gao et al. Experimental machine learning of quantum states. Phys. Rev. Lett., 120:240501, 2018.
[100] X. Gao and L.-M. Duan. Efficient representation of quantum many-body states with deep neural networks. Nature Comm., 8:662, 2017.
[101] X. Gao, M. Isoard, F. Sun, C. E. Lopetegui, Y. Xiang, V. Parigi, Q. He, and M. Walschaers. Correlation-pattern-based continuous variable entanglement detection through neural networks. Phys. Rev. Lett., 132:220202, 2024.
[102] Y. Ge et al. Quantum circuit synthesis and compilation optimization: Overview and prospects. arXiv:2407.00736, 2024.
[103] V. Gebhart et al. Learning quantum systems. Nature Rev. Phys., pages 1–16, 2023.
[104] E. Genois, J. A. Gross, A. Di Paolo, N. J. Stevenson, G. Koolstra, A. Hashim, I. Siddiqi, and A. Blais. Quantum-tailored machine-learning characterization of a superconducting qubit. PRX Quantum, 2:040355, 2021.
[105] E. Gil-Fuster, C. Gyurik, A. Perez-Salinas, and V. Dunjko. On the relation between trainability and dequantization of variational quantum learning models. In The Thirteenth International Conference on Learning Representations, 2025.
[106] M. L. Goh, M. Larocca, L. Cincio, M. Cerezo, and F. Sauvage. Lie-algebraic classical simulations for variational quantum computing. arXiv:2308.01432, 2023.
[107] I. Goodfellow, Y. Bengio, and A. Courville. Deep learning. MIT press, 2016.
[108] E. Greplova, A. Valenti, G. Boschung, F. Schäfer, N. Lörch, and S. D. Huber. Unsupervised identification of topological phase transitions using predictive models. New J. Phys., 22:045003, 2020.
[109] S. Grewal, V. Iyer, W. Kretschmer, and D. Liang. Efficient learning of quantum states prepared with few non-Clifford gates. arXiv:2305.13409, 2023.
[110] Y. Guo and S. Yang. Quantum state tomography with locally purified density operators and local measurements. Commun. Phys., 7:322, 2024.
[111] L. Gurvits. Classical deterministic complexity of edmonds’ problem and quantum entanglement. In Proceedings of the thirty-fifth annual ACM symposium on Theory of computing, pages 10–19, 2003.
[112] C. Gyurik and V. Dunjko. On establishing learning separations between classical and quantum machine learning with classical data. arXiv:2208.06339, 2022. [113] C. Gyurik and V. Dunjko. Exponential separations between classical and quantum learners. arXiv:2306.16028, 2023.
[114] D. Hangleiter, I. Roth, J. Fuksa, J. Eisert, and P. Roushan. Robustly learning the Hamiltonian dynamics of a superconducting quantum processor. Nature Comm., 15:9595, 2024.
[115] C. Harney, S. Pirandola, A. Ferraro, and M. Paternostro. Entanglement classification via neural network quantum states. New J. Phys., 22:045001, 2020.
[116] P. M. Harrington, E. J. Mueller, and K. W. Murch. Engineered dissipation for quantum information science. Nature Rev. Phys., 4:660–671, 2022.
[117] M. J. Hartmann and G. Carleo. Neural-network approach to dissipative quantum many-body dynamics. Phys. Rev. Lett., 122:250502, 2019.
[118] G. S. Hartnett, A. Barbosa, P. S. Mundada, M. Hush, M. J. Biercuk, and Y. Baum. Learning to rank quantum circuits for hardware-optimized performance enhancement. Quantum, 8:1542, 2024.
[119] Z. He, X. Zhang, C. Chen, Z. Huang, Y. Zhou, and H. Situ. A gnn-based predictor for quantum architecture search. Quantum Information Processing, 22:128, 2023.
[120] M. Hibat-Allah, M. Ganahl, L. E. Hayward, R. G. Melko, and J. Carrasquilla. Recurrent neural network wave functions. Phys. Rev. Res., 2:023358, 2020.
[121] G. E. Hinton. A practical guide to training restricted boltzmann machines. In Neural networks: Tricks of the trade, pages 599–619. Springer, 2012.
[122] J. Ho, A. Jain, and P. Abbeel. Denoising diffusion probabilistic models. Adv. Neur. Inf. Proc. Sys., 33:6840–6851, 2020.
[123] R. Horodecki, P. Horodecki, M. Horodecki, and K. Horodecki. Quantum entanglement. Rev. Mod. Phys., 81:865–942, 2009.
[124] T. Hospedales, A. Antoniou, P. Micaelli, and A. Storkey. Meta-learning in neural networks: A survey. IEEE Trans. Patt. Ana. Mach. Int., 44:5149–5169, 2021.
[125] D. Hothem, A. Miller, and T. Proctor. What is my quantum computer good for? quantum capability learning with physicsaware neural networks. arXiv:2406.05636, 2024.
[126] D. Hothem, K. Young, T. Catanach, and T. Proctor. Learning a quantum computer’s capability. IEEE Trans. Quant. Eng., 2024.
[127] B. Hou, J. Wu, and D. Y. Qiu. Unsupervised representation learning of kohn–sham states and consequences for downstream predictions of many-body effects. Nature Comm., 15:9481, 2024.
[128] H.-Y. Hu, A. Gu, S. Majumder, H. Ren, Y. Zhang, D. S. Wang, Y.-Z. You, Z. Minev, S. F. Yelin, and A. Seif. Demonstration of robust and efficient quantum property learning with shallow shadows. Nature Communications, 16(1):2943, 2025.
[129] H.-Y. Huang. Learning quantum states from their classical shadows. Nature Rev. Phys., 4:81–81, 2022.
[130] H.-Y. Huang, S. Chen, and J. Preskill. Learning to predict arbitrary quantum processes. PRX Quantum, 4:040337, 2023.
[131] H.-Y. Huang, R. Kueng, and J. Preskill. Predicting many properties of a quantum system from very few measurements. Nature Phys., 16:1050–1057, 2020.
[132] H.-Y. Huang, R. Kueng, G. Torlai, V. V. Albert, and J. Preskill. Provably efficient machine learning for quantum many-bodyproblems. Science, 377:eabk3333, 2022. [133] H.-Y. Huang, Y. Liu, M. Broughton, I. Kim, A. Anshu, Z. Landau, and J. R. McClean. Learning shallow quantum circuits. In Proceedings of the 56th Annual ACM Symposium on Theory of Computing, pages 1343–1351, 2024.
[134] J. Huang, Y. Zhu, G. Chiribella, and Y.-D. Wu. Sequencemodel-guided measurement selection for quantum state learning. arXiv preprint arXiv:2507.09891, 2025.
[135] R. Huang, X. Tan, and Q. Xu. Learning to learn variational quantum algorithm. IEEE Trans. Neur. Net. Learn. Sys., 34:8430–8440, 2022.
[136] Y. Huang, L. Che, C. Wei, F. Xu, X. Nie, J. Li, D. Lu, and T. Xin. Direct entanglement detection of quantum systems using machine learning. npjqi, 11:29, 2025.
[137] W. J. Huggins et al. Virtual distillation for quantum error mitigation. Phys. Rev. X, 11:041036, 2021.
[138] M. Ippoliti and V. Khemani. Learnability transitions in monitored quantum dynamics via eavesdropper’s classical shadows. PRX Quantum, 5:020304, 2024.
[139] R. Iten, T. Metger, H. Wilming, L. del Rio, and R. Renner. Discovering physical concepts with neural networks. Phys. Rev. Lett., 124:010508, 2020.
[140] N. Jain, B. Coyle, E. Kashefi, and N. Kumar. Graph neural network initialisation of quantum approximate optimisation. Quantum, 6:861, 2022.
[141] C. Jameson, Z. Qin, A. Goldar, M. B. Wakin, Z. Zhu, and Z. Gong. Optimal quantum state tomography with local informationally complete measurements. arXiv:2408.07115.
[142] S. Jiang, S. Lu, and D.-L. Deng. Adversarial machine learning phases of matter. Quantum Frontiers, 2:15, 2023.
[143] J. Kaplan et al. Scaling laws for neural language models. arXiv:2001.08361, 2020.
[144] D. Kaur, S. Uslu, K. J. Rittichier, and A. Durresi. Trustworthy artificial intelligence: a review. ACM Comp. Surv. (CSUR), 55:1–38, 2022.
[145] S. Khairy, R. Shaydulin, L. Cincio, Y. Alexeev, and P. Balaprakash. Learning to optimize variational quantum circuits to solve combinatorial problems. In Proceedings of the AAAI conference on artificial intelligence, volume 34, pages 2367– 2375, 2020.
[146] C. Kim, K. D. Park, and J.-K. Rhee. Quantum error mitigation with artificial neural network. IEEE Access, 8:188853– 188860, 2020.
[147] H. Kim et al. Attention to quantum complexity. arXiv:2405.11632, 2024.
[148] H. Kim, A. Kumar, Y. Zhou, Y. Xu, R. Vasseur, and E.-A. Kim. Learning measurement-induced phase transitions using attention. arXiv preprint arXiv:2508.15895, 2025.
[149] A. D. King et al. Beyond-classical computation in quantum simulation. Science, page eado6285, 2025.
[150] A. Kookani, Y. Mafi, P. Kazemikhah, H. Aghababa, K. Fouladi, and M. Barati. Xpookynet: advancement in quantum system analysis through convolutional neural networks for detection of entanglement. Quantum Mach. Intell., 6:50, 2024.
[151] K. Kottmann, P. Huembeli, M. Lewenstein, and A. Ac´ın. Unsupervised phase discovery with deep anomaly detection. Phys. Rev. Lett., 125:170603, 2020.
[152] D. Koutny et al. Deep learning of quantum entanglement from ` incomplete measurements. Sci. Adv., 9:eadd7131, 2023.
[153] M. Krawczyk, J. Pawłowski, M. M. Msaka, and K. Roszak. Data-driven criteria for quantum correlations. Phys. Rev. A, 109:022405, 2024.
[154] M. Krenn, J. Landgraf, T. Foesel, and F. Marquardt. Artificial intelligence and machine learning for quantum technologies. Phys. Rev. A, 107:010101, 2023.
[155] Z. Landau and Y. Liu. Learning quantum states prepared by shallow circuits in polynomial time. arXiv:2410.23618, 2024.
[156] J. Landman, S. Thabet, C. Dalyac, H. Mhiri, and E. Kashefi. Classically approximating variational quantum machine learning with random Fourier features, 2022. arXiv:2210.13200v1.
[157] H. Lange et al. Transformer neural networks and quantum simulators: a hybrid approach for simulating strongly correlated systems. Quantum, 9:1675, 2025.
[158] H. Lange, M. Kebric, M. Buser, U. Schollwöck, F. Grusdt, and A. Bohrdt. Adaptive quantum state tomography with active learning. Quantum, 7:1129, 2023.
[159] H. Lange, A. Van de Walle, A. Abedinnia, and A. Bohrdt. From architectures to applications: A review of neural quantum states. Quantum Sci. Tech., 2024.
[160] M. Lange, P. Havström, B. Srivastava, V. Bergentall, K. Hammar, O. Heuts, E. van Nieuwenburg, and M. Granath. Datadriven decoding of quantum error correcting codes using graph neural networks. arXiv:2307.01241, 2023.
[161] T. LeCompte, F. Qi, X. Yuan, N.-F. Tzeng, M. H. Najafi, and L. Peng. Machine-learning-based qubit allocation for error reduction in quantum circuits. IEEE Trans. Quant. Eng., 4:1– 14, 2023.
[162] J. Lee, J. Cho, and S. Kim. Q-maml: Quantum modelagnostic meta-learning for variational quantum algorithms. arXiv:2501.05906, 2025.
[163] L. Leone, S. F. Oliviero, and A. Hamma. Learning t-doped stabilizer states. Quantum, 8:1361, 2024.
[164] L. Lewis, H.-Y. Huang, V. T. Tran, S. Lehner, R. Kueng, and J. Preskill. Improved machine learning algorithm for predicting ground state properties. Nature Comm., 15:895, 2024.
[165] Z. Liang, J. Cheng, R. Yang, H. Ren, Z. Song, D. Wu, X. Qian, T. Li, and Y. Shi. Unleashing the potential of LLMs for quantum computing: A study in quantum architecture design. arXiv:2307.08191, 2023.
[166] H. Liao, D. S. Wang, I. Sitdikov, C. Salcedo, A. Seif, and Z. K. Minev. Machine learning for practical quantum error mitigation. Nature Mach. Intell., pages 1–9, 2024.
[167] M. Liao, Y. Zhu, G. Chiribella, and Y. Yang. Noise-agnostic quantum error mitigation with data augmented neural models. npjqi, 11:8, 2025.
[168] X. Lin, Z. Chen, and Z. Wei. Quantifying quantum entanglement via a hybrid quantum-classical machine learning framework. Phys. Rev. A, 107:062409, 2023.
[169] Y.-H. Liu and E. P. L. van Nieuwenburg. Discriminative cooperative networks for detecting phase transitions. Phys. Rev. Lett., 120:176401, 2018.
[170] J. Lu, D. Batra, D. Parikh, and S. Lee. Vilbert: Pretraining task-agnostic visiolinguistic representations for vision-andlanguage tasks. Adv. Neur. Inf. Proc. Sys., 32, 2019.
[171] D. Luo, J. Shen, R. Dangovski, and M. Soljacic. Quack: accelerating gradient-based quantum optimization with koopman operator learning. Adv. Neur. Inf. Proc. Sys., 36:25662–25692, 2023.
[172] Y.-J. Luo, J.-M. Liu, and C. Zhang. Detecting genuine multipartite entanglement via machine learning. Phys. Rev. A, 108:052424, 2023.
[173] H. J. Manetsch, G. Nomura, E. Bataille, K. H. Leung, X. Lv, and M. Endres. A tweezer array with 6100 highly coherent atomic qubits. arXiv:2403.12021, 2024.
[174] T. Manovitz et al. Quantum coarsening and collective dynamics on a programmable simulator. Nature, 638:86–92, 2025.
[175] R. G. Melko and J. Carrasquilla. Language models for quantum simulation. Nature Comp. Sci., 4:11–18, 2024. [176] A. F. Mello, G. Lami, and M. Collura. Retrieving nonstabilizerness with neural networks. Phys. Rev. A, 111:012440, 2025. [177] C. Miles et al. Correlator convolutional neural networks as an interpretable architecture for image-like quantum matter data. Nature Comm., 12:3905, 2021. [178] C. Miles et al. Machine learning discovery of new phases in programmable quantum simulator snapshots. Phys. Rev. Res., 5:013026, 2023. [179] S. Minami, K. Nakaji, Y. Suzuki, A. Aspuru-Guzik, and T. Kadowaki. Generative quantum combinatorial optimization by means of a novel conditional generative quantum eigensolver. arXiv:2501.16986, 2025. [180] M. Mohri, A. Rostamizadeh, and A. Talwalkar. Foundations of machine learning. MIT press, 2018. [181] N. Mohseni, T. Fosel, L. Guo, C. Navarrete-Benlloch, and ¨ F. Marquardt. Deep learning of quantum many-body dynamics via random driving. Quantum, 6:714, 2022. [182] N. Mohseni, F. Marquardt, and P. Schmidt. Transfer learning in predicting quantum many-body dynamics: from physical observables to entanglement entropy. Quantum Sci. Tech., 2025. [183] N. Mohseni, J. Shi, T. Byrnes, and M. J. Hartmann. Deep learning of many-body observables and quantum information scrambling. Quantum, 8:1417, 2024. [184] R. Molteni, C. Gyurik, and V. Dunjko. Exponential quantum advantages in learning quantum observables from classical data. arXiv:2405.02027, 2024. [185] S. Morawetz, I. J. S. De Vlugt, J. Carrasquilla, and R. G. Melko. U(1)-symmetric recurrent neural networks for quantum state reconstruction. Phys. Rev. A, 104:012401, 2021.
[186] M. S. Moss, S. Ebadi, T. T. Wang, G. Semeghini, A. Bohrdt, M. D. Lukin, and R. G. Melko. Enhancing variational Monte Carlo simulations using a programmable quantum simulator. Phys. Rev. A, 109:032410, 2024.
[187] K. Nakaji et al. The generative quantum eigensolver (GQE) and its application for ground state search. arXiv:2401.09253, 2024.
[188] S. Nandy, M. Schmitt, M. Bukov, and Z. Lenarcic. Reconstructing effective Hamiltonians from nonequilibrium thermal and prethermal steady states. Phys. Rev. Res., 6:023160, 2024.
[189] N. A. Nemkov, E. O. Kiktenko, and A. K. Fedorov. Fourier expansion in variational quantum algorithms. Phys. Rev. A, 108, 2023.
[190] M. A. Nielsen and I. L. Chuang. Quantum computation and quantum information. Cambridge University Press, 2010.
[191] M. Y. Niu, A. M. Dai, L. Li, A. Odena, Z. Zhao, V. Smelyanskyi, H. Neven, and S. Boixo. Learnability and complexity of quantum samples. arXiv:2010.11983, 2020. [192] M. Ohliger, V. Nesme, and J. Eisert. Efficient and feasible state tomography of quantum many-body systems. New J. Phys., 15:015024, 2013.
[193] E. Onorati, C. Rouze, D. S. Franc¸a, and J. D. Watson. Prov- ´ ably efficient learning of phases of matter via dissipative evolutions. arXiv:2311.07506, 2023.
[194] R. Orus. Tensor networks for complex quantum systems. ´ Nature Rev. Phys., 1:538–550, 2019.
[195] J. Pawłowski and M. Krawczyk. Identification of quantum entanglement with siamese convolutional neural networks and semisupervised learning. Phys. Rev. Applied, 22:014068, 2024.
[196] S. Pouyanfar et al. A survey on deep learning: Algorithms, techniques, and applications. ACM Comp. Surv. (CSUR),51:1–36, 2018.
[197] J. Preskill. Beyond nisq: The megaquop machine. arXiv:2502.17368, 2025.
[198] T. Proctor, K. Young, A. D. Baczewski, and R. Blume-Kohout. Benchmarking quantum computers. Nature Rev. Phys., 7:1– 14, 2025.
[199] Y. Qian, Y. Du, Z. He, M.-H. Hsieh, and D. Tao. Multimodal deep representation learning for quantum cross-platform verification. Phys. Rev. Lett., 133:130601, 2024.
[200] Y. Qian, X. Wang, Y. Du, Y. Luo, and D. Tao. Mgnet: Learn to customize qaoa with circuit depth awareness. arXiv:2409.18692, 2024.
[201] H. Qin, L. Che, C. Wei, F. Xu, Y. Huang, and T. Xin. Experimental direct quantum fidelity learning via a data-driven approach. Phys. Rev. Lett., 132:190801, 2024.
[202] Y. Quek, S. Fort, and H. K. Ng. Adaptive quantum state tomography with neural networks. npjqi, 7:105, 2021. [203] Y. Quek, D. S. Franca, S. Khatri, J. J. Meyer, and J. Eisert. Exponentially tighter bounds on limitations of quantum error mitigation. Nature Phys., 20:1648–1658, 2024.
[204] A. Radford, K. Narasimhan, T. Salimans, I. Sutskever, et al. Improving language understanding by generative pre-training. 2018.
[205] A. Radford, J. Wu, R. Child, D. Luan, D. Amodei, I. Sutskever, et al. Language models are unsupervised multitask learners. OpenAI blog, 1:9, 2019.
[206] A. Rahimi and B. Recht. Random features for large-scale kernel machines. Adv. Neur. Inf. Proc. Sys., 20, 2007.
[207] R. Rende, L. L. Viteritti, F. Becca, A. Scardicchio, A. Laio, and G. Carleo. Foundation neural-networks quantum states as a unified ansatz for multiple Hamiltonians. Nature Communications, 16:7213, 2025.
[208] M. Rieger, M. Reh, and M. Garttner. Sample-efficient esti- ¨ mation of entanglement entropy through supervised learning. Phys. Rev. A, 109:012403, 2024.
[209] A. Rocchetto. Stabiliser states are efficiently PAC-learnable. arXiv:1705.00345, 2017.
[210] J. Roik, K. Bartkiewicz, A. Cernoch, and K. Lemr. Entangle- ˇ ment quantification from collective measurements processed by machine learning. Phys. Lett. A, 446:128270, 2022.
[211] J. Roik, K. Bartkiewicz, A. Cernoch, and K. Lemr. Accuracy of entanglement detection via artificial neural networks and human-designed entanglement witnesses. Phys. Rev. Appl., 15:054006, 2021.
[212] B. Romera-Paredes et al. Mathematical discoveries from program search with large language models. Nature, 625:468– 475, 2024.
[213] C. Rouzé, D. Stilck Franc¸a, E. Onorati, and J. D. Watson. Efficient learning of ground and thermal states within phases of matter. Nature Comm., 15:7755, 2024.
[214] M. S. Rudolph, E. Fontana, Z. Holmes, and L. Cincio. Classical surrogate simulation of quantum systems with lowesa. arXiv:2308.09109, 2023.
[215] F. J. Ruiz et al. Quantum circuit optimization with alphatensor. Nature Mach. Intell., pages 1–12, 2025.
[216] S. H. Sack and D. J. Egger. Large-scale quantum approximate optimization on nonplanar graphs with machine learning noise mitigation. Phys. Rev. Res., 6:013223, 2024.
[217] N. Sadoune, G. Giudici, K. Liu, and L. Pollet. Unsupervised interpretable learning of phases from many-qubit systems. Phys. Rev. Res., 5:013082, 2023.
[218] W. Samek, T. Wiegand, and K.-R. Muller. Explainable artifi- ¨ cial intelligence: Understanding, visualizing and interpreting deep learning models. arXiv:1708.08296, 2017.
[219] J. Sarzynska-Wawer, A. Wawer, A. Pawlak, J. Szymanowska, I. Stefaniak, M. Jarkiewicz, and L. Okruszek. Detecting formal thought disorder by deep contextualized word representations. Psychiatry Research, 304:114135, 2021.
[220] F. Sauvage, S. Sim, A. A. Kunitsa, W. A. Simon, M. Mauri, and A. Perdomo-Ortiz. Flip: A flexible initializer for arbitrarily-sized parametrized quantum circuits. arXiv:2103.08572, 2021.
[221] F. Schäfer and N. Lörch. Vector field divergence of predictive model output as indication of phase transitions. Phys. Rev. E, 99:062107, 2019.
[222] F. Schindler, N. Regnault, and T. Neupert. Probing many-body localization with neural networks. Phys. Rev. B, 95:245134, 2017.
[223] T. Schmale, M. Reh, and M. Garttner. Efficient quantum state ¨ tomography with convolutional neural networks. npjqi, 8:115, 2022.
[224] M. Schmitt and Z. Lenarcic. From observations to complexity of quantum states via unsupervised learning. Phys. Rev. B, 106:L041110, 2022.
[225] B. Scholkopf and A. J. Smola. ¨ Learning with kernels: support vector machines, regularization, optimization, and beyond. MIT press, 2002.
[226] F. J. Schreiber, J. Eisert, and J. J. Meyer. Classical surrogates for quantum learning models. Phys. Rev. Lett., 131:100803, 2023.
[227] M. Schuld, R. Sweke, and J. J. Meyer. Effect of data encoding on the expressive power of variational quantum-machinelearning models. Phys. Rev. A, 103, 2021.
[228] T. Schuster, J. Haferkamp, and H.-Y. Huang. Random unitaries in extremely low depth. Science, 389(6755):92–96, 2025.
[229] R. A. Servedio and S. J. Gortler. Equivalences and separations between quantum and classical learnability. SIAM Journal on Computing, 33:1067–1092, 2004.
[230] O. Sharir, Y. Levine, N. Wies, G. Carleo, and A. Shashua. Deep autoregressive models for the efficient variational simulation of many-body quantum systems. Phys. Rev. Lett., 124:020503, 2020.
[231] O. Sharir, A. Shashua, and G. Carleo. Neural tensor contractions and the expressive power of deep neural quantum states. Phys. Rev. B, 106:205136, 2022.
[232] A. L. Shaw et al. Benchmarking highly entangled states on a 60-atom analogue quantum simulator. Nature, 628:71–77, 2024.
[233] A. Sinibaldi, A. F. Mello, M. Collura, and G. Carleo. Nonstabilizerness of neural quantum states. arXiv:2502.09725, 2025.
[234] B. Skinner, J. Ruhman, and A. Nahum. Measurement-induced phase transitions in the dynamics of entanglement. Phys. Rev. X, 9:031009, 2019.
[235] S. Smíd and R. Bondesan. Accurate learning of equivariant quantum systems from a single ground state. arXiv:2405.12309, 2024.
[236] S. Smíd and R. Bondesan. Efficient learning of long-range and equivariant quantum systems. Quantum, 9:1597, 2025.
[237] A. W. R. Smith, J. Gray, and M. S. Kim. Efficient quantum state sample tomography with basis-dependent neural networks. PRX Quantum, 2:020348, 2021.
[238] Y. Song, J. Sohl-Dickstein, D. P. Kingma, A. Kumar, S. Ermon, and B. Poole. Score-based generative modeling through stochastic differential equations. In 9th International Conference on Learning Representations, ICLR 2021, Virtual Event, Austria, May 3-7, 2021. OpenReview.net, 2021.
[239] A. Strikis, D. Qin, Y. Chen, S. C. Benjamin, and Y. Li. Learning-based quantum error mitigation. PRX Quantum, 2:040330, 2021. [240] R. Sweke, M. S. Kesselring, E. P. L. van Nieuwenburg, and J. Eisert. Reinforcement learning decoders for fault-tolerant quantum computation. Mach. Learn. Sci. Technol., 2:025005, 2021.
[241] R. Sweke, E. Recio-Armengol, S. Jerbi, E. Gil-Fuster, B. Fuller, J. Eisert, and J. J. Meyer. Potential and limitations of random Fourier features for dequantizing quantum machine learning. Quantum, 9:1640, 2025.
[242] N. Taghadomi, A. Mani, A. Fahim, A. Bakoui, and M. S. Salami. Effective detection of quantum discord by using convolutional neural networks. arXiv:2401.07405, 2024.
[243] R. Takagi, S. Endo, S. Minagawa, and M. Gu. Fundamental limits of quantum error mitigation. npj Quant. Inf., 8:114, 2022. arXiv:2210.11505.
[244] Y. Tang, M. Long, and J. Yan. Quadim: A conditional diffusion model for quantum state property estimation. In The Thirteenth International Conference on Learning Representations, 2025.
[245] Y. Tang, H. Xiong, N. Yang, T. Xiao, and J. Yan. Towards llm4qpe: Unsupervised pretraining of quantum property estimation and a benchmark. In The Twelfth International Conference on Learning Representations, ICLR 2024, Vienna, Austria, May 7-11, 2024. OpenReview.net, 2024.
[246] Y. Tang, N. Yang, M. Long, and J. Yan. Ssl4q: semisupervised learning of quantum data with application to quantum state classification. In Forty-first International Conference on Machine Learning, ICML’24, 2024.
[247] K. Temme, S. Bravyi, and J. M. Gambetta. Error mitigation for short-depth quantum circuits. Phys. Rev. Lett., 119:180509, 2017.
[248] S. Thabet, L. Monbroussou, E. Z. Mamon, and J. Landman. When quantum and classical models disagree: Learning beyond minimum norm least square. arXiv:2411.04940, 2024.
[249] J. Tian et al. Recent advances for quantum neural networks in generative learning. arXiv:2206.03066, 2022.
[250] J. Tilly et al. The variational quantum eigensolver: a review of methods and best practices. Phys. Rep., 986:1–128, 2022.
[251] E. S. Tiunov, V. Tiunova, A. E. Ulanov, A. Lvovsky, and A. K. Fedorov. Experimental quantum homodyne tomography via machine learning. Optica, 7:448–454, 2020.
[252] G. Torlai, G. Mazzola, J. Carrasquilla, M. Troyer, R. Melko, and G. Carleo. Neural-network quantum state tomography. Nature Phys., 14:447–450, 2018.
[253] A. Vadali, R. Kshirsagar, P. Shyamsundar, and G. N. Perdue. Quantum circuit fidelity estimation using machine learning. Quantum Mach. Intell., 6:1, 2024.
[254] A. Valenti, G. Jin, J. Leonard, S. D. Huber, and E. Gre- ´ plova. Scalable hamiltonian learning for large-scale out-ofequilibrium quantum dynamics. Phys. Rev. A, 105:023302, 2022.
[255] A. Valenti, E. van Nieuwenburg, S. Huber, and E. Greplova. Hamiltonian learning for quantum error correction. Phys. Rev. Res., 1:033092, 2019.
[256] J. Van Damme et al. Advanced cmos manufacturing of superconducting qubits on 300 mm wafers. Nature, 634:74–79, 2024.
[257] L. Van der Maaten and G. Hinton. Visualizing data using t-sne. J. Mach. Learn. Res., 9, 2008.
[258] J. E. Van Engelen and H. H. Hoos. A survey on semisupervised learning. Machine learning, 109:373–440, 2020.
[259] E. P. Van Nieuwenburg, Y.-H. Liu, and S. D. Huber. Learning phase transitions by confusion. Nature Phys., 13:435, 2017.
[260] B. M. Varbanov, M. Serra-Peralta, D. Byfield, and B. M. Terhal. Neural network decoder for near-term surface-code experiments. Phys. Rev. Res., 7:013029, 2025.
[261] A. Vaswani, N. Shazeer, N. Parmar, J. Uszkoreit, L. Jones, A. N. Gomez, Ł. Kaiser, and I. Polosukhin. Attention is all you need. Adv. Neur. Inf. Proc. Sys., 30, 2017.
[262] C. Venturella, J. Li, C. Hillenbrand, X. Leyva Peralta, J. Liu, and T. Zhu. Unified deep learning framework for many-body quantum chemistry via green’s functions. Nature Comp. Sci., pages 1–12, 2025.
[263] G. Verdon, M. Broughton, J. R. McClean, K. J. Sung, R. Babbush, Z. Jiang, H. Neven, and M. Mohseni. Learning to learn with quantum neural networks via classical neural networks. arXiv:1907.05415, 2019.
[264] B. Vermersch, M. Ljubotina, J. I. Cirac, P. Zoller, M. Serbyn, and L. Piroli. Many-body entropies and entanglement from polynomially many local measurements. Phys. Rev. X, 14:031035, 2024.
[265] J. G. Vidal and D. O. Theis. Input redundancy for parameterized quantum circuits, 2020.
[266] J. Wallnöfer, A. A. Melnikov, W. Dür, and H. J. Briegel. Machine learning for long-distance quantum communication. PRX Quantum, 1:010301, 2020.
[267] C. Wang, H. Zhai, and Y.-Z. You. Emergent schrodinger equa- ¨ tion in an introspective machine learning architecture. Science Bulletin, 64(17):1228–1233, 2019.
[268] H. Wang et al. Quest: Graph transformer for quantum circuit reliability estimation. arXiv:2210.16724, 2022.
[269] H. Wang et al. Scientific discovery in the age of artificial intelligence. Nature, 620:47–60, 2023.
[270] H. Wang, P. Liu, K. Shao, D. Li, J. Gu, D. Z. Pan, Y. Ding, and S. Han. Transformer-QEC: quantum error correction code decoding with transferable transformers. arXiv:2311.16082, 2023.
[271] H. Wang, M. Weber, J. Izaac, and C. Y.-Y. Lin. Predicting properties of quantum systems with conditional generative models. arXiv:2211.16943, 2022.
[272] J. Wang et al. Experimental quantum hamiltonian learning. Nature Phys., 13:551–555, 2017.
[273] L. Wang. Discovering phase transitions with unsupervised learning. Phys. Rev. B, 94:195105, 2016.
[274] L. Wang, X. Zhang, H. Su, and J. Zhu. A comprehensive survey of continual learning: Theory, method and application. IEEE Trans. Patt. Ana. Mach. Int., 2024.
[275] M. Wanner, L. Lewis, C. Bhattacharyya, D. Dubhashi, and A. Gheorghiu. Predicting ground state properties: Constant sample complexity and deep learning algorithms. arXiv:2405.18489, 2024.
[276] S. J. Wetzel. Unsupervised learning of phase transitions: From principal component analysis to variational autoencoders. Phys. Rev. E, 96:022140, 2017.
[277] S. J. Wetzel, S. Ha, R. Iten, M. Klopotek, and Z. Liu. Interpretable machine learning in physics: A review. arXiv:2503.23616, 2025.
[278] N. Wiebe, C. Granade, C. Ferrie, and D. G. Cory. Hamiltonian learning and certification using quantum resources. Phys. Rev. Lett., 112:190501, 2014.
[279] D. F. Wise, J. J. Morton, and S. Dhomkar. Using deep learning to understand and mitigate the qubit noise environment. PRX Quantum, 2:010316, 2021.
[280] D. Wu et al. Variational benchmarks for quantum many-body problems. Science, 386:296–301, 2024.
[281] D. Wu, L. Wang, and P. Zhang. Solving statistical mechanics using variational autoregressive networks. Phys. Rev. Lett., 122:080602, 2019.
[282] Y.-D. Wu, Y. Zhu, G. Bai, Y. Wang, and G. Chiribella. Quantum similarity testing with convolutional neural networks. Phys. Rev. Lett., 130:210601, 2023.
[283] Y.-D. Wu, Y. Zhu, Y. Wang, and G. Chiribella. Learning quantum properties from short-range correlations using multi-task networks. Nature Comm., 15, 2024.
[284] T. Xiao, J. Huang, H. Li, J. Fan, and G. Zeng. Intelligent certification for quantum simulators via machine learning. npjqi, 8:138, 2022.
[285] S. Xu et al. Non-abelian braiding of fibonacci anyons with a superconducting processor. Nature Phys., 20:1469–1475, 2024.
[286] L. Yang, Z. Zhang, Y. Song, S. Hong, R. Xu, Y. Zhao, W. Zhang, B. Cui, and M.-H. Yang. Diffusion models: A comprehensive survey of methods and applications. ACM Computing Surveys, 56:1–39, 2023.
[287] R. Yang, Y. Gu, Z. Wang, Y. Liang, and T. Li. QCircuitNet: A large-scale hierarchical dataset for quantum algorithm design. arXiv:2410.07961, 2024.
[288] T.-H. Yang, M. Soleimanifar, T. Bergamaschi, and J. Preskill. When can classical neural networks represent quantum states? arXiv:2410.23152, 2024.
[289] J. Yao and Y.-Z. You. Shadowgpt: Learning to solve quantum many-body problems from randomized measurements. arXiv:2411.03285, 2024.
[290] R. Zeier and T. Schulte-Herbruggen. Symmetry principles in ¨ quantum systems theory. J. Math. Phys., 52, 2011.
[291] R. Zen, L. My, R. Tan, F. Hébert, M. Gattobigio, C. Miniatura, D. Poletti, and S. Bressan. Transfer learning for scalability of neural-network quantum states. Phys. Rev. E, 101:053301, 2020.
[292] H. Zhang et al. Experimental demonstration of adversarial examples in learning topological phases. Nature Comm., 13:4993, 2022.
[293] S.-X. Zhang, C.-Y. Hsieh, S. Zhang, and H. Yao. Neural predictor based quantum architecture search. Mach. Learn. Sci. Technol., 2:045027, 2021.
[294] X. Zhang, M. Luo, Z. Wen, Q. Feng, S. Pang, W. Luo, and X. Zhou. Direct fidelity estimation of quantum states using machine learning. Phys. Rev. Lett., 127:130503, 2021.
[295] Y. Zhang, X. Zhang, J. Sun, H. Lin, Y. Huang, D. Lv, and X. Yuan. Fault-tolerant quantum algorithms for quantum molecular systems: A survey. arXiv:2502.02139, 2025.
[296] Y.-H. Zhang and M. Di Ventra. Transformer quantum state: A multipurpose model for quantum many-body problems. Phys. Rev. B, 107:075147, 2023.
[297] Z. Zhang and Y.-Z. You. Observing Schrödinger’s cat with artificial intelligence: emergent classicality from information bottleneck. Mach. Learn. Sci. Technol., 5:015051, 2024.
[298] L. Zhao, N. Guo, M.-X. Luo, and P. Rebentrost. Provable learning of quantum states with graphical models. arXiv:2309.09235, 2023.
[299] Y. Zhao, C. Zhang, and Y. Du. Rethink the role of deep learning towards large-scale quantum systems, 2025. arXiv:2505.13852v1.
[300] L. Zhong, C. Guo, and X. Wang. Quantum state tomography inspired by language modeling. arXiv:2212.04940, 2022.
[301] Y. Zhou, C. Wan, Y. Xu, J. P. Zhou, K. Q. Weinberger, and E.-A. Kim. Learning to decode logical circuits. arXiv:2504.16999, 2025.
[302] Y. Zhu, Y.-D. Wu, G. Bai, D.-S. Wang, Y. Wang, and G. Chiribella. Flexible learning of quantum states with generative query neural networks. Nature Comm., 13:6222, 2022.
[303] Y. Zhu, Y.-D. Wu, Q. Liu, Y. Wang, and G. Chiribella. Predictive modelling of quantum process with neural networks. arXiv:2308.08815, 2023.
[304] F. Zhuang, Z. Qi, K. Duan, D. Xi, Y. Zhu, H. Zhu, H. Xiong, and Q. He. A comprehensive survey on transfer learning. Proc. IEEE, 109:43–76, 2020.
[305] A. Zhukov and W. Pogosov. Quantum error reduction with deep neural network applied at the post-processing stage. Quantum Information Processing, 21:93, 2022.
[306] H. Zou and T. Hastie. Regularization and variable selection via the elastic net. Journal of the Royal Statistical Society Series B: Statistical Methodology, 67:301–320, 2005.