趋近智
本质上,自编码器是一种用于无监督学习的人工神经网络。它的主要目的听起来表面简单:学习如何将其输入复制到其输出。也就是说,如果你输入数据 x,它会尝试生成 x^,使 x^ 尽可能接近 x。虽然这可能显得微不足道,但自编码器的有效性在于网络架构上的限制,特别是存在一个“瓶颈”,迫使其学习输入的压缩表示。
自编码器的基本构造通常是对称的,包含三个主要部分,我们将在后续章节中更具体地介绍这些部分:
这种构造促使自编码器学习数据中重建所必需的最主要特征。设想一下,你尝试将一篇长文档总结成几句重要的话(编码过程),然后请另一个人仅根据你的总结来重构原始文档(解码过程)。要做好这项工作,你的总结必须包含最主要的信息。
下面是说明此基本架构的图表:
自编码器通过编码器处理输入数据,将其送至压缩的瓶颈层,然后使用解码器重建数据。目的是使重建数据与原始输入尽可能地接近。
我们简要说明每个部分的作用:
整个自编码器是一个前馈神经网络,通过最小化重建损失函数进行训练。此损失函数衡量原始输入 x 与重建输出 x^ 之间的差异。例如,如果你的输入是数值向量,均方误差(MSE)是一个常用选项。如果你的输入是二进制(如黑白图像),二进制交叉熵可能更适合。我们将在本章后面部分更具体地讨论损失函数。
这种基本构造的精巧之处在于其能够无须明确标签即可学习有用的表示,使其成为无监督特征学习的一个有益工具。通过训练网络使其通过受限的瓶颈来重现输入,我们促使其找到数据中潜在的模式和结构。这些瓶颈层中包含的学到模式,随后可以被提取并用作各种后续任务的特征,例如分类、聚类或异常检测。这种基本架构是构建更高级自编码器变体(我们也将介绍)的根本。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造