趋近智
在上一章中,我们已经了解了序列数据的特点以及标准前馈网络的局限性,现在我们将重点放在专门为处理序列而设计的模型上。本章将介绍循环神经网络(RNN)的基本知识。
您将学习RNN的核心思想:即逐个元素地处理序列,同时保持内部的“记忆”或隐藏状态。我们将分析一个简单RNN单元的结构,理解在时间步 t 的输入 xt 如何与前一个隐藏状态 ht−1 结合,以生成当前隐藏状态 ht 和一个可选输出 yt。控制此过程的数学运算,通常表示为:
ht=f(Whhht−1+Wxhxt+bh) yt=g(Whyht+by)
(其中 f 和 g 是激活函数,如 tanh 或 sigmoid)将进行详细说明。我们将展示信息如何随时间流动,并介绍RNN的重要训练算法:随时间反向传播(BPTT),包括网络展开的思想。
在本章结束时,您将掌握基本RNN的运行原理以及其训练过程的运作方式。
2.1 核心思想:迭代处理序列
2.2 简单RNN架构
2.3 隐藏状态的作用
2.4 RNN 单元的数学表述
2.5 循环神经网络中的信息流动
2.6 沿时间的反向传播 (BPTT)
2.7 展开网络进行训练
© 2026 ApX Machine Learning用心打造