本章将介绍神经网络的基本思想。我们首先分析人工神经元的结构和功能,它是最基本的处理单元。您将学习输入如何通过权重和偏置进行处理,这些是可学习的参数,在诸如 $z = \sum(weight \times input) + bias$ 的计算中得以体现。接着,我们将介绍Sigmoid、Tanh和ReLU等激活函数,解释它们在引入非线性($a = f(z)$)中的作用,这对学习复杂模式是必需的。最后,我们将看到这些单个神经元如何被组织成层(输入层、隐藏层和输出层),并连接起来形成前馈神经网络的基本架构。到本章结束时,您将理解主要组成部分以及它们如何配合处理信息。