趋近智
单层感知机虽然是基础,但存在一个显著的局限性:它只能学习线性可分模式。像经典的XOR(异或)函数这样的问题超出了它的能力范围,因为在输入空间中,这些类别(0和1输出)无法通过一条直线来分开。为了处理这种非线性关系,我们需要为网络结构引入更多的复杂性。多层感知机(MLP)便因此出现。
多层感知机背后的主要思想简单而有效:在输入层和输出层之间插入一个或多个神经元层。这些中间层被称为隐藏层。它们之所以“隐藏”,是因为它们的输出不直接作为网络的最终结果被观察到;相反,它们充当后续层的输入。
多层感知机由以下部分组成:
在多层感知机中,信息通常沿一个方向流动:从输入层,经过隐藏层,到达输出层。这种架构被称为前馈网络。在前向传播(预测阶段)期间,层结构内部没有循环或将信息回传的连接。通常,一层中的每个神经元都连接到后续层中的每个神经元,形成所谓的全连接层或密集层。
一个简单的多层感知机,包含一个输入层(2个神经元)、一个隐藏层(3个神经元)和一个输出层(1个神经元)。连接表示信息的前馈流动。
隐藏层如何解决单层感知机面临的问题?主要在于多层结构与非线性激活函数的结合(我们将在下一章中详细探讨)。
设想第一个隐藏层中的每个神经元学习一个简单的线性边界,类似于单个感知机。然而,这些神经元的输出在经过非线性激活函数转换后,成为下一层的输入。随后层中的神经元可以组合这些非线性变换。
实际上,隐藏层学习将输入数据转换为新的表示空间。在这个转换后的空间中,最初的非线性可分问题可以变为线性可分。对于XOR问题,隐藏层可以学习表示,使得属于不同类别的点随后可以通过输出层神经元用一条直线分开。增加层次(更多层)使得网络能够从数据中学习日益复杂的函数和分层特征。
为了使多层感知机学习非线性函数,隐藏神经元中使用的激活函数必须是非线性的(例如,Sigmoid、Tanh、ReLU)。如果整个网络中只使用线性激活函数,那么整个多层感知机,无论有多少层,都将在数学上退化为一个等效的单层线性模型,从而使我们回到感知机的局限性。
总而言之,多层感知机通过引入隐藏层克服了单层模型的限制。这些层结合非线性激活函数,使得多层感知机能够学习输入和输出之间复杂的非线性映射,使其成为各种机器学习任务的有力工具。它们为许多更高级深度学习架构奠定了根基。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造