趋近智
前馈网络,例如多层感知机(MLP),独立处理输入。给定一个输入向量 x,网络计算一个输出 y。如果你提供另一个输入向量 x′,它会计算一个相应的 y′,而不会记住就在此前处理过 x。当每个输入都是独立的,例如分类单张图片或分析电子表格中每行代表一个独立的观测时,这种方式运作良好。
然而,许多重要的数据类型本质上是序列化的。试想:
对于这类数据,标准前馈网络做出的输入独立性假设不再成立。独立处理序列中的每个元素(例如句子中的一个词或时间序列中的一个数据点)会丢失隐含在顺序中的有价值的上下文信息。如果一个标准MLP在处理到句子末尾时忘记了句子的开头,它如何有效地翻译一个句子呢?它如何在不记住前面音符的情况下预测旋律中的下一个音符呢?
这种局限性凸显了对一种不同网络架构的需求,一种具有某种形式记忆的架构。我们需要能够逐步处理序列输入,同时保留关于先前步骤信息的模型。序列中特定点的输出或决策不仅应受到当前输入的影响,还应受到迄今为止已处理输入历史的影响。
这正是**循环神经网络(RNN)**背后的缘由。RNN专门设计用于处理序列。它们引入了循环机制,并维护一个内部“状态”或“记忆”,捕获关于序列中先前处理过的信息。此状态在每个步骤更新,使网络能够展现动态的时间行为,并建模输入序列中不同位置之间的依赖关系。这种处理顺序和上下文的固有能力使RNN成为处理涉及序列数据任务的基本工具。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造