趋近智
如我们所见,量子特征映射ϕ(x)提供了一条连接,将经典数据向量x∈X转换成可能很大的希尔伯特空间H中的量子态∣ϕ(x)⟩。这种映射不只是一种形式步骤;它从根本上规定了数据如何进行量子表示的几何结构。这些量子态之间的关系,特别是它们的内积∣⟨ϕ(x)∣ϕ(x′)⟩∣2,决定了后续量子算法,尤其是核方法可以加以利用的结构。
回顾经典核方法,例如支持向量机(SVMs),核函数k(x,x′)计算高维特征空间中特征向量的内积,k(x,x′)=⟨ϕclassical(x),ϕclassical(x′)⟩。这些方法的成功取决于ϕclassical所产生的几何结构是否使得数据在该特征空间中线性可分(或易于处理)。
类似地,量子特征映射∣ϕ(x)⟩隐含地定义了一个量子核: kq(x,x′)=∣⟨ϕ(x)∣ϕ(x′)⟩∣2 这个核衡量了数据点x和x′对应的量子态之间的相似度。这种重叠的大小与态之间的跃迁振幅相关,通常使用特定的测量电路进行估计(如SWAP测试或反演测试,尽管在开发过程中通过模拟器直接计算也很常见)。这个量子核kq随后可以插入到经典核机器中(如SVMs),从而产生诸如量子支持向量机(QSVM)之类的算法,我们将在第3章中了解这些算法。
但我们如何判断所选的特征映射∣ϕ(x)⟩是否为特定机器学习任务带来了有用的几何结构?一个特征映射可能会创建复杂的纠缠态,但如果其产生的几何结构与数据中潜在的模式(例如类别标签)不一致,那么量子核就不会带来良好的表现。这就引出了核对齐的说法。
核目标对齐提供了一种量化衡量方式,用于评估我们的量子特征映射(由量子核矩阵Kq表示)所产生的几何结构与学习任务结构(由一个理想的目标核矩阵Kt表示)的匹配程度。
给定数据集D={(x1,y1),…,(xm,ym)},我们可以计算m×m量子核矩阵Kq,其中(Kq)ij=kq(xi,xj)=∣⟨ϕ(xi)∣ϕ(xj)⟩∣2。
我们还根据标签yi定义一个目标核矩阵Kt。对于yi∈{−1,+1}的二分类任务,一种常见选择是理想分类核: (Kt)ij=yiyj 这个目标核将来自同一类别的样本对设为+1,将来自不同类别的样本对设为−1。它完美地捕捉了所需的区分结构。
核对齐A(Kq,Kt)随后被定义为这两个矩阵之间的余弦相似度,将其视为向量,使用弗罗贝尼乌斯内积: A(Kq,Kt)=∥Kq∥F∥Kt∥F⟨Kq,Kt⟩F=∑i,j=1m(Kq)ij2∑i,j=1m(Kt)ij2∑i,j=1m(Kq)ij(Kt)ij 此处,⟨⋅,⋅⟩F是弗罗贝尼乌斯内积(元素乘积之和),∥⋅∥F是弗罗贝尼乌斯范数。
对齐度A(Kq,Kt)的范围在-1到1之间(尽管对于标准的kq和Kt=yyT定义,通常是非负的)。
核对齐的图示。特征映射ϕ1产生的特征空间几何结构使类别(红色与蓝色)区分良好,从而与理想分类核的对齐度很高。特征映射ϕ2使类别混杂,导致对齐度较低。
核对齐不只是一种分析工具;它能主动指导量子特征映射的设计。当面对多种潜在的编码策略(不同的电路结构、基态与振幅编码等编码方法、数据重上传电路中的层数)时,你可以:
这个过程使得可以通过数据驱动的方式选择甚至优化特征映射,而无需在训练完整的QML模型(如QSVM)上投入计算资源。如果特征映射本身具有可调参数θ(如编码中使用的变分电路),则可以优化这些参数θ以最大化核对齐度A(Kq(θ),Kt)。
虽然功能强大,但核对齐的使用有一些实际考量:
研究核对齐的一个主要原因,是其与所得QML模型的泛化性能之间假设的关联。直观来看,在训练数据上能更好捕捉目标结构的核,在未见过的数据上也应表现更好。研究表明,较高的核对齐度通常与QSVM等模型的较低泛化误差相关联,使其成为衡量模型表现的一种有价值的指标。
总之,核对齐提供了一个有益的视角来分析量子特征映射所产生的几何结构。它量化了量子表示对给定学习任务的适用程度,并作为在QML中比较和设计有效数据编码策略的实用工具。理解特征映射设计、由此产生的特征空间几何结构与核对齐之间的关系,对于构建高性能量子机器学习模型来说是不可或缺的。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造