趋近智
前几章主要处理的是顺序不是主要考量点的模型输入数据,例如分类静态图片。本章将把重点转向序列很重要的资料,例如文本中的句子或时间序列中的数值。我们会介绍循环神经网络 (neural network) (RNN),这是一种特别适合处理序列资料的神经网络结构。
你会学习 RNN 如何运作,通过维护一个内部状态(通常称为隐藏状态),这使它们在处理当前元素时,能“记住”序列中先前元素的信息。我们会从 Keras 中基础的 SimpleRNN 层开始,并考察其能力与不足之处,包括梯度消失问题。接着,我们会学习更复杂的变体,例如长短期记忆 (LSTM) 和门控循环单元 (GRU) 网络,这些网络旨在更有效地捕获更长距离的关联。你将获得实际操作经验,如何为这些模型准备序列资料,以及如何使用 Keras 实现 RNN 和 LSTM,用于文本分类等常见任务。
5.1 序列数据概述
5.2 循环神经网络要点
5.3 Keras中的SimpleRNN层
5.4 梯度消失问题
5.5 长短期记忆(LSTM)网络
5.6 Keras中的LSTM层
5.7 门控循环单元 (GRU)
5.8 用于RNN的序列数据准备
5.9 实践:构建RNN/LSTM用于文本分类