尽管纯量子神经网络结构,如 QCNNs 和 QCBMs,提供了有趣的可能性,但在当前和近期量子硬件上进行实际实现仍面临重大挑战,主要原因是噪声、有限的量子比特数量和连接限制。此外,经典深度学习已在多个方面取得显著成就,发展出高度优化的架构和训练过程。混合量子-经典神经网络旨在结合两者的优势:运用强大的经典深度学习框架来执行特征提取或后处理等任务,同时有策略地加入量子层(以参数化量子电路,PQCs 的形式实现),以期解决量子计算可能提供优势的特定子问题。核心思想是将 PQC 视为一个更大计算图中的专用层,该计算图可以包含标准经典神经网络层。这使得模型更具灵活性,并可能更强大,尤其是在噪声中等规模量子 (NISQ) 时代。将量子电路整合为神经网络层回顾第四章,PQC 接收经典输入数据(如第二章所述,编码成量子态),应用一系列参数化量子门 $U(\theta, x)$,并产生测量结果。我们可以将整个过程,即编码、参数化演化和测量,视为一个更大网络中的一个单独的层或块。令 $x$ 为输入数据(可能是前一个经典层的输出)。编码: 经典数据 $x$ 被编码成量子态 $|\psi_{in}(x)\rangle = E(x)|0\rangle^{\otimes n}$,其中 $E(x)$ 是一个编码电路。参数化处理: 应用一个带有可训练参数 $\theta$ 的PQC $U(\theta)$: $|\psi_{out}(x, \theta)\rangle = U(\theta)|\psi_{in}(x)\rangle$。测量: 测量一个可观测值 $M$,得到一个期望值 $\langle M \rangle_{x, \theta} = \langle \psi_{out}(x, \theta)| M |\psi_{out}(x, \theta) \rangle$。这个期望值(或一组来自不同测量的期望值)成为量子层的经典输出。这个经典输出 $\langle M \rangle_{x, \theta}$ 随后可以馈入后续经典层(例如,全连接层、激活函数)以进行进一步处理,例如分类或回归。常见架构模式已出现几种模式用于整合量子和经典组件:量子层作为分类器头部: 经典层执行初始特征提取(例如,使用卷积层处理图像数据),结果特征向量被传递给一个量子层 (PQC),该量子层执行最终的分类或决策任务。量子层的输出可能是一个经过 sigmoid 函数的单一期望值,用于二分类,或者多个经过 softmax 函数的期望值,用于多分类。量子层作为特征提取器: 量子层被放置在网络的较早位置。原始或经过最少处理的数据被编码到量子层中,测量结果作为学习到的特征,这些特征随后由后续经典层处理。这种方法假设量子层可能提取出复杂的相关性或特征,这些是经典层在原始数据空间中无法获得的。序列处理: 经典网络预处理输入,其输出被编码到量子电路中,PQC 执行一些转换,获得测量结果,这些结果随后由另一个经典网络进行后处理。这是一个简单混合模型的可视化,其中量子层嵌入在经典层中:digraph G { rankdir=LR; node [shape=box, style=filled, fontname="Helvetica", margin=0.2]; edge [fontname="Helvetica"]; subgraph cluster_classical_input { label = "经典输入层"; style=filled; color="#e9ecef"; // gray Input [label="输入数据 (x)", shape=ellipse, style=filled, fillcolor="#ffffff"]; Classical1 [label="经典层 1\n(例如,全连接层,CNN)", fillcolor="#a5d8ff"]; // blue Input -> Classical1; } subgraph cluster_quantum { label = "量子组件"; style=filled; color="#e9ecef"; // gray Encoding [label="编码 E(x')", shape=invhouse, style=filled, fillcolor="#d0bfff"]; // violet PQC [label="PQC U(θ)", shape=cds, style=filled, fillcolor="#b197fc"]; // violet Measure [label="测量 M", shape=house, style=filled, fillcolor="#d0bfff"]; // violet Encoding -> PQC [label=" |ψ_in(x')> "]; PQC -> Measure [label=" |ψ_out(x',θ)> "]; } subgraph cluster_classical_output { label = "经典输出层"; style=filled; color="#e9ecef"; // gray Classical2 [label="经典层 2\n(例如,全连接层)", fillcolor="#a5d8ff"]; // blue Output [label="输出 (y)", shape=ellipse, style=filled, fillcolor="#ffffff"]; Classical2 -> Output; } Classical1 -> Encoding [label="x'"]; Measure -> Classical2 [label=" <M> "]; }一个典型的混合架构。经典层处理输入数据,将特征 (x') 传递给编码电路。参数化量子电路 (PQC) 处理量子态,随后进行测量。经典测量结果 (<M>) 随后被馈入后续经典层以生成最终输出。训练混合模型训练混合网络涉及优化经典参数(经典层中的权重和偏置)以及量子参数(PQC 中的门旋转角度 $\theta$)。一种常见方法是使用梯度下降进行端到端训练,其中所有参数的梯度同时计算。经典梯度计算: 对于网络的经典部分,使用标准反向传播计算梯度。量子梯度计算: 对于 PQC 中的参数 $\theta$,需要计算期望值 $\langle M \rangle_{x, \theta}$ 相对于 $\theta$ 的梯度。如第四章所述,可以使用参数位移法则或有限差分等方法。这些方法通常需要多次执行修改后的量子电路版本。跨界链式法则: 链式法则用于组合跨量子-经典边界的梯度。如果量子层输出 $\langle M \rangle$ 被馈入一个带有函数 $f$ 和参数 $w$ 的经典层,则相对于量子参数 $\theta_i$ 的梯度包含 $\frac{\partial f}{\partial \langle M \rangle} \frac{\partial \langle M \rangle}{\partial \theta_i}$。类似地,相对于前一个经典层输出 $x'$ 的梯度包含 $\frac{\partial \langle M \rangle}{\partial x'} \frac{\partial x'}{\partial w_j}$ (尽管计算 $\frac{\partial \langle M \rangle}{\partial x'}$ 可能会因编码方式而复杂)。现代 QML 库,如 PennyLane、TensorFlow Quantum 和 Qiskit Machine Learning,提供工具自动化这种混合梯度计算,将量子梯度方法与经典自动微分框架(如 PyTorch、TensorFlow、JAX)整合。训练中的挑战:梯度方差: 量子梯度估计通常涉及从测量中进行统计采样,引入方差,可能减缓或破坏训练稳定性。贫瘠高原: 如前所述,深度 PQC 或某些架构选择可能导致梯度消失,阻碍优化。这个问题在混合模型中可能持续存在。计算成本: 评估量子层及其梯度需要运行量子电路,在模拟器上计算成本可能很高,在实际硬件上则受限于排队时间和噪声。优化算法: Adam 或 SGD 等标准优化器可能需要调整,或者专用优化器(如第四章中介绍的量子自然梯度)可能对量子部分有益。优点与考量潜在优势:发挥经典优势: 运用成熟的经典架构用于它们擅长的任务(例如,处理大型输入、标准特征提取)。NISQ 可行性: 允许加入小型量子电路,这些电路在当前硬件上更易于管理,并将其纳入更大的计算工作流程中。量子计算的潜在优势: 有策略地放置量子计算,使其在可能提供独特优势的地方发挥作用(例如,在处理高维希尔伯特空间进行特征表示时)。设计考量:量子层放置位置: PQC 应放置在架构的何处?该选择会影响量子组件处理的信息类型。量子层大小: PQC 应该有多少量子比特和参数?这涉及表达能力、可训练性(贫瘠高原)和硬件限制之间的权衡。经典-量子接口: 信息如何在经典和量子部分之间传递?编码策略 $E(x)$ 和测量 $M$ 的选择是重要的设计考量。资源分配: 训练需要经典计算资源以及量子资源(模拟器或硬件)。混合模型代表一种务实的方法,以研究量子机器学习的近期能力。它们使研究人员和实践者能够将量子处理单元整合到现有机器学习流程中,提供一个试验平台,用于理解量子计算何处能提供实际益处,同时依靠经典方法的可靠性来完成任务的其他部分。随着量子硬件和 QML 算法的成熟,这些混合系统的设计和应用将持续发展。