趋近智
我们之前讨论了训练简单循环神经网络(RNN)的困难之处,特别是梯度消失和梯度爆炸问题。这些问题使得基本RNN难以捕捉序列中相距较远元素之间的依赖关系。
本章介绍长短期记忆(LSTM)网络,这是一种专门的RNN架构,旨在克服这些局限。我们将观察让LSTM能够选择性地记忆或遗忘长序列中信息的核心组成部分。
您将学到:
在本章结束时,您将理解LSTM单元的内部工作原理,并认识到它们在现代序列建模中的重要性。
5.1 通过门控应对循环神经网络的局限
5.2 LSTM单元结构
5.3 遗忘门
5.4 输入门
5.5 更新细胞状态
5.6 输出门
5.7 LSTM单元中的信息流动
5.8 LSTM 的优势
© 2026 ApX Machine Learning用心打造