趋近智
在大量标注数据集以及 He 或 Xavier 初始化、批量归一化 (normalization)和残差连接等先进方法普及之前,训练非常深的神经网络 (neural network)是出了名的困难。随机初始化的权重 (weight)经常导致梯度消失或梯度爆炸,使得收敛缓慢或不可能。无监督预训练 (pre-training),尤其是使用自动编码器,成为一种重要方法来缓解这些问题。其核心理念是首先以无监督方式学习输入数据的有用表示,然后将这种学习到的、嵌入 (embedding)在网络权重中的表示,作为后续监督任务的更优起点。
为什么学习重建输入数据会帮助完成分类或回归等不同任务?这个假设在其鼎盛时期在实践中得到很大验证,即:将数据压缩到较低维度潜在空间(编码器),然后重建它(解码器),这个过程迫使编码器捕获数据中最显著和统计上重要的变动。这些习得的特征通常形成一个层次化表示:早期层捕获简单模式(边缘、纹理),而深层则捕获更复杂的结构或语义。
这种无监督的特征学习提供了几个潜在优势:
自动编码器主要通过两种方式用于预训练:
贪婪逐层预训练(历史方法): 这是最初受到重视的方法。
这种贪婪方法将深度网络的复杂优化问题分解为一系列较浅的问题。尽管具有基础意义,但由于现代端到端训练方法的有效性,此方法今天已很少使用。
贪婪逐层预训练后进行微调的流程。每个自动编码器都在前一个学习到的表示上进行训练。
端到端自动编码器预训练: 一种更现代的方法,涉及在未标注数据上训练一个完整的、可能是深层的自动编码器。
这种方法比逐层方法实现起来更简单,并且利用了编码器在无监督重建任务中学习到的特征提取能力。去噪自动编码器(DAE)常为此方法所青睐,因为噪声注入鼓励学习出对输入扰动更具抗性的特征。
使用端到端自动编码器预训练的两阶段过程。训练好的编码器被重用于监督任务。
尽管上述专门的自动编码器预训练 (pre-training)在当今标准监督任务中已较不常见(归功于更好的架构、归一化 (normalization)和初始化),但其核心原则仍然高度相关。它已演变为自监督学习(SSL)这一更宽广的范畴。
许多现代SSL方法可视为自动编码的精巧形式。例如:
因此,理解自动编码器预训练为更好地理解当前最先进的自监督方法提供了有价值的背景。其核心理念依然存在:充分利用未标注数据以学习有效的特征表示,这些表示随后能提升下游任务的性能,尤其当标注数据有限时。在缺乏大量标注数据但拥有充足未标注数据的专业场景下,例如某些类型的医学影像或工业传感器读数,这仍然是一种可行策略。
这部分内容有帮助吗?
© 2026 ApX Machine LearningAI伦理与透明度•