趋近智
在上一节中,我们考察了量子特征映射的数学基础。经典数据 x 通过编码电路 U(x) 映射到量子态 ∣ϕ(x)⟩=U(x)∣ψ0⟩。通常,这种编码只进行一次,常常在量子电路的起始阶段,之后是一个参数化处理单元 W(θ)。尽管这种“单次上传”策略直接明了,但有时会限制您的量子模型可学习函数的复杂度。模型的表达能力,即它能表示的函数范围和丰富程度,受限于这种初始的、固定的映射与变分电路的结合。
为了构建可能更强大的量子机器学习模型,使其能够捕获数据中复杂的模式,我们可以采用数据重上传。我们不是只编码一次数据,而是将数据编码层与参数化量子门层交错排列。
设想将量子电路 W(θ) 的变分部分分解为更小的块或层,例如 W1(θ1),W2(θ2),…,WL(θL)。在数据重上传方案中,经典输入数据 x 会在这些变分块的每一个(或某些)之前被重复编码。
一般结构如下:
∣ψ(x,θ)⟩=WL(θL)U(x)WL−1(θL−1)U(x)…W1(θ1)U(x)∣ψ0⟩此处:
主要思想是,后面层 Wi 中的参数 θi 现在作用于一个量子态,该量子态已经受到之前参数 θj<i 和数据编码 U(x) 多次应用的影响。
数据重上传电路的示意图。经典数据 x 通过 U(x) 多次编码,并与参数化处理层 W(θi) 交错排列。
这为何有用?思考最终量子态是如何构建的。U(x) 的每次应用都可能以依赖于输入 x 的方式旋转或修改希尔伯特空间中的态矢量。参数化层 W(θi) 随后处理该态。当 U(x) 再次被应用时,它作用于这个已处理过的态。
这种交错排列使得在量子态幅值内创建关于输入数据 x 的更复杂函数成为可能。如果 U(x) 和 W(θ) 涉及非对易门(通常情况下确实如此),那么顺序很重要,重复作用会产生 θ 和 x 之间复杂的依赖关系。
设想一个简单类比:在经典神经网络中,重复应用非线性激活函数使得网络能够学习复杂的非线性决策边界。数据重上传可被视为在量子领域提供了一种类似的机制。每个 U(x) 层都会再次引入输入数据的影响,使得 W(θi) 层能够逐步建立与 x 相关的更复杂关联和特征。研究表明,这类分类器原则上可以近似输入数据的任何连续函数,与经典网络的通用近似定理类似。
数据重上传的主要益处在于其增加表达能力的潜力。这意味着模型可能能够:
然而,也存在重要的设计选择和潜在挑战:
数据重上传不仅仅是一种编码技巧;它是构建某些类型QML模型的根本组成部分,尤其是量子神经网络(QNNs)和变分量子分类器(VQCs)。这种结构自然地适合分层解释,类似于经典深度学习架构。当我们讨论变分量子算法(VQA,第4章)和量子神经网络(QNNs,第5章)时,将再次看到这些结构。
总之,数据重上传通过在参数化量子电路中重复编码经典数据,提供了一种增强量子机器学习模型表达能力的强大技术。这使得模型能够学习输入数据与所需输出之间更复杂的关系,可能在具有挑战性的任务上带来更好的性能,前提是关于电路设计、可训练性和硬件限制的考量得到仔细管理。接下来的章节将更详细地讨论通过数据重上传等技术创建的这些更丰富特征映射的属性。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造