量子生成对抗网络 (QGANs) 借鉴了经典生成对抗网络 (GANs) 的思想,在生成器和判别器这两个组件之间建立了一种竞争关系。然而,在 QGAN 框架中,一个或两个组件都可以运用量子计算。这种设置旨在比经典对应物或通过不同目标训练的 QCBMs 更有效地获取复杂数据分布。
量子背景下的对抗博弈
回顾经典的 GAN 设置:生成器 G 试图创建能欺骗判别器 D 的数据,而 D 则试图区分真实数据和 G 产生的伪造数据。这相当于一个极小极大博弈,其中 G 最小化 D 判断正确的概率,而 D 则最大化该概率。
QGAN 框架采用这种对抗原理,但允许量子处理。主要有四种配置:
- 经典生成器,经典判别器 (CC-GAN): 标准的经典 GAN。
- 量子生成器,经典判别器 (QC-GAN): 参数化量子电路通过测量生成数据,然后经典神经网络试图将其分类为真实或伪造。由于经典判别器的相对成熟,这是一个常见的关注方向。
- 经典生成器,量子判别器 (CQ-GAN): 经典生成器产生数据,而量子电路(例如,变分分类器或量子核方法)充当判别器。
- 量子生成器,量子判别器 (QQ-GAN): 生成器和判别器都使用量子电路实现。这在理论上具有趣味性,但在当前硬件上面临显著的实现难题。
我们将主要侧重于 QC-GAN 架构,因为它代表了量子生成能力和已有的经典判别能力的一个实际结合点。
量子生成器
在 QC-GAN 中,生成器 G(θ) 通常是一个参数化量子电路 (PQC)。它接收一个输入,通常是随机经典噪声的向量 z(从高斯或均匀分布等简单分布中采样),并用它来设置 PQC 中某些门的参数,或根据 z 准备一个初始状态。PQC 随后将一个固定的初始状态(例如 ∣0...0⟩)演化为一个最终状态 ∣ψ(z,θ)⟩。
∣0...0⟩U(z,θ)∣ψ(z,θ)⟩
这里,U(z,θ) 代表由 PQC 实现的幺正演化,其中包含可训练参数 θ 和输入噪声 z。为了生成经典判别器可以处理的经典数据样本 x,我们对最终状态 ∣ψ(z,θ)⟩ 在合适的基(通常是计算基)中进行测量。得到结果 x 的概率由玻恩规则给出:
pθ(x∣z)=∣⟨x∣ψ(z,θ)⟩∣2
生成器的目标是调整其参数 θ,使得测量样本 x 的分布模拟真实数据分布 pdata(x)。
经典判别器
判别器 D(ϕ) 通常是一个标准的经典神经网络(例如,多层感知机、CNN 或 RNN,取决于数据类型),带有可训练参数 ϕ。它接收数据样本 x 作为输入(可以是来自数据集的真实样本,也可以是通过测量由 G(θ) 生成的伪造样本),并输出一个标量值,表示 x 为真实的概率。
Dϕ:x↦[0,1]
它的目标是对于真实样本输出 Dϕ(x)≈1,对于由 G(θ) 生成的伪造样本输出 Dϕ(x)≈0。
训练动态与目标
训练过程遵循该方法。整体目标函数类似于经典 GAN 的目标:
θminϕmaxV(Dϕ,Gθ)=Ex∼pdata[logDϕ(x)]+Ez∼pz[log(1−Dϕ(Gθ(z)))]
这里,Gθ(z) 表示运行带有参数 θ 和输入 z 的量子电路,测量结果以获得样本 xfake,并将 xfake 输入判别器的过程。期望值 Ez∼pz 涉及采样噪声 z,运行量子生成器,测量,然后评估判别器项。
训练涉及交替更新:
- 更新判别器: 在保持 θ 不变的情况下,最大化 V(Dϕ,Gθ) 关于 ϕ 的值。这通常涉及对 ϕ 进行梯度上升,使用当前 Gθ 生成的真实数据和伪造数据的批次。
∇ϕ(m1i=1∑mlogDϕ(x(i))+m1i=1∑mlog(1−Dϕ(Gθ(z(i)))))
- 更新生成器: 在保持 ϕ 不变的情况下,最小化 V(Dϕ,Gθ) 关于 θ 的值。这通常涉及对 θ 进行梯度下降。一个常见的目标是最大化判别器的困惑度,通常通过最小化 Ez∼pz[−logDϕ(Gθ(z))] 来实现。
∇θ(m1i=1∑mlog(1−Dϕ(Gθ(z(i)))))≈−∇θ(m1i=1∑mlogDϕ(Gθ(z(i))))
计算梯度 ∇θ 需要对量子电路的期望值进行微分。这通常涉及参数移位规则等技术,在应用时需要仔细考虑测量过程及其与判别器输入的关系。
量子-经典生成对抗网络 (QC-GAN) 的流程图。随机噪声 z 作用于参数化量子电路 PQC U(z, θ)。测量产生 伪造样本 x_fake,它与 真实样本 x_real 一同输入经典神经网络 D(φ)。判别器的 真/假判决 引导对判别器参数 φ 和生成器参数 θ 的更新。
架构与考量
生成器 G(θ) 的 PQC 架构选择很重要。浅层电路可能难以捕捉复杂关联,而非常深的电路可能受到贫瘠高原问题的影响,使得训练变得困难。通常会考虑设计用于最小化特定量子硬件上的深度和门数量的硬件高效结构。
经典判别器 D(ϕ) 可以是适用于数据类型的任何合适架构(例如,图像的 CNN,表格数据的 MLP)。其能力需要足以有效挑战量子生成器。
与通常使用基于似然的方法(如最小化 Kullback-Leibler 或其他散度)训练的 QCBMs 相比,QGANs 依赖对抗性损失。这有时可能带来样本质量的更快收敛,但稳定性较低,且易出现模式崩溃(即生成器只产生有限种类的样本)等问题,这与经典 GANs 类似。衡量 QGAN 性能通常涉及训练损失中的指标,例如比较生成样本与真实数据的统计特征,或在适用时使用 Frกchet Inception Distance (FID) 等指标。