趋近智
前馈神经网络,即多层感知机 (MLP),提供了扎实的根基。然而,对于特定数据结构,特别是网格状数据(如图像)和序列数据(如文本或时间序列),它们并非总是最佳选择。本章将介绍为更有效地处理这些特定数据类型而发展出的专用架构。
首先,我们将介绍卷积神经网络 (CNN)。你将学习其核心组成部分,如卷积层和池化层,并理解为何这些结构在处理空间信息时表现出色。
接下来,我们将讨论循环神经网络 (RNN)。我们将讨论 RNN 如何通过引入循环和保持隐藏状态来处理序列信息,从而对序列中时间或位置上的依赖关系进行建模。本章将对 CNN 和 RNN 的设计思路、结构及基本运作方式进行基本阐述。
7.1 前馈网络的局限性
7.2 卷积神经网络 (CNNs): 动因
7.3 CNN核心操作:卷积
7.4 CNN核心操作:池化
7.5 典型CNN架构
7.6 循环神经网络(RNN):缘由
7.7 循环与隐藏状态
7.8 基本RNN架构
7.9 简单循环神经网络的挑战 (梯度消失/梯度爆炸)
7.10 概述:LSTM与GRU
© 2026 ApX Machine Learning用心打造