趋近智
经典卷积神经网络(CNN)在处理图像识别等网格状数据结构的任务中表现出色。它们通过应用卷积滤波器捕获局部模式的层以及在保留重要特征的同时降低维度的池化层来实现这一目的,从而形成输入的层次化表示。量子卷积神经网络(QCNN)的目标是将这些成功方法应用于量子环境,运用量子电路进行类似卷积和池化的操作。
主要原因在于处理量子态或编码为量子态的经典数据,这可能发现经典CNN无法获取的特征或关联。QCNN尤其适合处理具有固有空间结构的问题,例如分析多体系统量子模拟的数据或某些经典图像处理任务。
QCNN通常包含与经典对应物相似的量子层:
量子卷积层: 这一层在输入量子比特上局部施加参数化量子电路(通常是少量子比特酉算符)。可以设想一个小型量子电路在输入寄存器上“滑动”,如同经典滤波核。这些电路,即“量子滤波器”,通常是参数化的,并在不同空间位置共享相同参数,如同经典CNN中的权重共享。其作用是获取局部特征,并可能在相邻量子比特间产生纠缠。
量子池化层: 卷积之后,池化层减少表示数据的量子比特数量,从而降低空间维度。一种常见方法是测量特定量子比特(通常是卷积步骤中纠缠的辅助量子比特或用于池化的量子比特),并根据测量结果应用后续的受控酉操作。这个过程能有效选择并保留特征,同时减小系统规模。与经典池化(例如最大池化)不同,量子池化由于测量而可能具有固有的概率性,并且可以根据结果进一步改变状态。
这些层通常呈分层排列,一个池化层的输出量子比特作为下一个卷积层的输入。
设输入状态由 N 个量子比特表示,它们可能线性排列或在2D网格上。量子卷积层对 k 个相邻量子比特的一小部分施加参数化酉算符 U(θ)(例如 k=2 或 k=3)。这个酉算符在输入寄存器上重复应用,可能带步长,类似于经典卷积。
For instance, acting on qubits i and i+1: ∣ψout⟩=…Ui+2,i+3(θ)…Ui,i+1(θ)…∣ψin⟩
参数 θ 在 U 的所有应用中共享,这大大减少了参数数量,与作用于所有量子比特的通用PQC相比。U(θ) 的选择决定了滤波器;它可能是一种硬件高效的拟设或旨在产生特定关联的电路。
池化操作会减少量子比特的数量。一个简单的方案可以是:根据相邻量子比特的测量结果应用受控酉操作。例如,对于量子比特 i 和 i+1,我们可以施加一个CNOT门使它们纠缠,测量量子比特 i+1,然后将其舍弃。量子比特 i 的状态现在可能根据 i 和 i+1 之间共享的属性而被改变,且量子比特总数也减少了。
更复杂的池化操作也存在,有时会涉及多个量子比特、测量以及受经典控制的量子门。核心在于在减少量子比特数量的同时,保留剩余量子态中编码的相关特征。
一个QCNN层作用于4个输入量子比特的简化示意。局部参数化酉算符 U(θ) 作为卷积滤波器。池化操作(包含测量和受控门)减少量子比特数量,舍弃量子比特q2和q4,最终得到2个输出量子比特。
一个完整的QCNN架构通常是堆叠多个卷积层和池化层。最终层的输出可以直接测量以获得用于分类的经典结果,或者传递给另一个量子电路(如全连接层PQC),甚至是一个经典神经网络进行最终处理。
QCNN的训练沿用前面讨论的变分方法。
分层结构和参数共享使得QCNN与通用PQC相比,可能更能扩展到更多输入量子比特,尽管在深层架构中仍可能出现贫瘠高原等难题。卷积酉算符 U(θ) 的选择和池化策略是影响网络表达能力和可训练性的重要设计环节。
QCNNs正在被积极研究,以应用于以下方面:
具有吸引力,但构建高效且具有优势的QCNN面临挑战。设计最佳的卷积和池化操作,减轻近期硬件上的噪声,以及避免贫瘠高原等可训练性问题,这些都是重要的研究方向。QCNN的潜力在于它能够在受经典CNN成功启发的结构化、分层处理框架内,利用纠缠等量子现象。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造