趋近智
在先前的讨论中,我们已经看到使用全连接层构建的标准自编码器如何学习数据的紧凑表示。它们的工作方式是接收一个输入向量,通过编码器将其转换为低维潜在空间,然后使用解码器重构原始输入。这种架构对于多种数据类型均表现出效果,比如表格数据集,其中向量中特征的顺序可能不具有很强的关系意义。
然而,在图像数据方面,全连接自编码器(通常缩写为FCAE或有时称为密集自编码器)开始显现其局限性。图像不仅仅是任意的像素值集合;它们拥有丰富的空间结构,有效利用这些结构是图像理解和处理的先决条件。FCAE在处理这类数据时表现不足的原因在于其无法有效捕捉这些空间特征。
主要难题源于FCAE处理输入的方式。为了将图像输入FCAE,你通常会将其展平。这意味着将一个2D像素网格(或彩色图像的3D张量,例如高 x 宽 x 通道)转换为一个单一的、长的1D向量。例如,一个28x28像素的灰度图像会变成一个784元素的向量。一个100x100像素的彩色图像(3通道,即100x100x3)将被展平为一个30,000元素的向量。
图像展平的一个图示。在2D网格中,像素P11在空间上与P12(水平方向)和P21(垂直方向)相邻。经过行优先展平后,P11仍然与P12相邻,但它与P21在向量中的直接相邻关系丢失了,被P12遮蔽。这种显式空间关系的丧失使得全连接自编码器更难学习局部图像特征。
这个展平步骤,虽然对FCAE的输入层是必需的,但它丢弃了有用的信息。具体来说,它丢失了像素之间的2D空间关系。图像中相邻的像素,形成局部模式如边缘或纹理,可能在1D向量中相距很远。自编码器此时面临一个更困难的任务:它必须尝试从一个混乱的表示中重新学习这些局部相关性,没有其原本拥有的显式2D邻域信息。这就像你试图通过查看一张图片像素颜色的任意排序列表来理解它,而不是按照它们在网格中的正确排列来观察。
另一个主要缺点是参数效率低下。图像数据通常是高维的。即使是一个小的100x100像素灰度图像,也会产生10,000个输入特征。如果你的编码器第一个隐藏层有,比如说,500个神经元,这种单一连接就需要 个权重。对于彩色图像(例如,100x100x3 = 30,000个输入特征),这个数字会增加三倍,达到仅第一层就需要15,000,000个权重。
如此大量的参数使得FCAE:
全连接层将每个输入特征与神经元的连接视为独特。这意味着如果一个FCAE学习在图像的某个位置检测一个特定模式,比如一个垂直边缘,当该模式出现在不同位置时,它必须再次学习检测相同的模式,几乎是从头开始。没有内在的权重共享机制,即同一组学习到的权重(代表一个特征检测器)可以应用于输入的不同部分。
这直接关联到平移不变性(或者更准确地说,是中间层的等变性)的问题。理想情况下,模型应该识别物体或特征,而不管它出现在图像的哪个位置。FCAE在这方面表现困难,因为物体位置的一个小位移会产生一个显著不同的展平输入向量。网络本身并不理解这是相同的模式,只是发生了位移;它将其视为需要单独学习的新输入。
图像本身具有分层结构:像素组合形成简单的元素,如边缘和角;这些元素组合形成纹理和图案;这些反过来组装成物体的一部分,最后形成完整的物体。想想你如何识别一张脸:你看到眼睛、鼻子、嘴巴,它们本身由线条和曲线组成。
尽管具有多个隐藏层的深度FCAE理论上可以学习分层特征,但它们并非天生就适合以有效或高效地反映这种视觉层次的方式来完成。每个全连接层都学习其输入的全局变换,使得学习图像数据中显著的局部、空间连贯的分层模式变得不那么直观。
这些局限性突出了对一种更适合图像数据独特属性的架构的需求。我们需要一种方法来:
这正是卷积自编码器(ConvAE)发挥作用的地方。通过引入卷积层,这些层从一开始就是为了解决上述问题而设计的,ConvAEs提供了一种更强大、更合适的工具,用于从图像中提取特征。在接下来的部分,我们将分析这些卷积组件如何集成到自编码器框架中,以克服其全连接对应物的不足。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造