趋近智
门控循环单元(GRU)是一种循环神经网络架构,旨在有效捕捉序列数据中的依赖关系。它们通过使用门控机制来实现这一点,这些机制能够调节信息流。一个 GRU 单元包含两个主要门:重置门和更新门。这些门控制着新输入数据和先前的隐藏状态信息如何被用于更新当前的隐藏状态。GRU 通过将单元状态和隐藏状态的功能直接合并为一个单一的隐藏状态向量 ht 来简化其内部结构。这种设计通常比其他循环架构(例如 LSTM,其通常使用三个门以及单独的单元和隐藏状态)更为简单。
现在,我们来了解在时间步 t 的单个 GRU 单元内的组成部分和信息流。该单元接收当前输入 xt 和来自上一时间步的隐藏状态 ht−1。然后,它计算新的隐藏状态 ht,该状态也作为此时间步的输出。
组成部分包括:
以下是 GRU 单元结构的视图:
GRU 单元结构的一个简化视图。输入 xt 和 ht−1 送入重置门 (rt) 和更新门 (zt)。重置门调节 ht−1 对候选状态 h~t 的影响。更新门控制 ht−1 和 h~t 之间的混合,以生成最终输出 ht。
现在,我们来看看单元内执行的计算。
重置门决定在计算候选隐藏状态 h~t 时,应忽略多少来自之前隐藏状态 ht−1 的信息。它以当前输入 xt 和之前隐藏状态 ht−1 作为输入。
计算方式如下:
rt=σ(Wrxt+Urht−1+br)这里,Wr 和 Ur 是权重矩阵,br 是偏置向量,σ 是 sigmoid 激活函数。sigmoid 函数输出 0 到 1 之间的值。一个接近 0 的值表示“重置”或忽略之前状态中对应的元素,而一个接近 1 的值表示在计算候选状态时“保留”它。
更新门控制隐藏状态更新新信息的程度以及保留旧信息的程度。它决定了之前隐藏状态 ht−1 有多少会传递到最终隐藏状态 ht。与重置门类似,它使用当前输入 xt 和之前隐藏状态 ht−1。
计算方式如下:
zt=σ(Wzxt+Uzht−1+bz)同样,Wz、Uz 和 bz 是学习参数(权重和偏置),σ 是 sigmoid 函数。zt 的值接近 1 表示新的隐藏状态 ht 主要应基于候选状态 h~t,而接近 0 的值则表示保留大部分之前的状态 ht−1。
候选隐藏状态的计算方式与简单 RNN 中的隐藏状态类似,但涉及重置门的修改。它的目标是捕获来自当前输入 xt 的新信息,并可能通过之前状态 ht−1 的相关部分进行调节。
计算涉及当前输入 xt 和之前隐藏状态 ht−1,并与重置门的输出 rt 进行元素级乘法 (⊙):
h~t=tanh(Whxt+Uh(rt⊙ht−1)+bh)这里,Wh、Uh 和 bh 是学习参数。tanh 激活函数将输出压缩到 -1 和 1 之间。元素级乘法 rt⊙ht−1 很重要:如果 rt 中的一个元素接近 0,则来自 ht−1 的相应元素对 h~t 的计算贡献很小,从而允许单元在生成候选状态时有效地“遗忘”不相关的过去信息。
当前时间步的最终隐藏状态 ht 是通过在之前隐藏状态 ht−1 和候选隐藏状态 h~t 之间进行线性插值计算的。更新门 zt 控制此插值。
计算方式如下:
ht=(1−zt)⊙ht−1+zt⊙h~t此方程展示了 GRU 如何更新其状态。向量 zt 进行元素级操作:
这种机制使 GRU 能够在长序列中保持信息(当 zt 在许多时间步接近 0 时),或者根据新输入快速更新(当 zt 接近 1 时)。值得注意的是,GRU 没有像 LSTM 那样独立的单元状态;隐藏状态 ht 携带所有必要信息前进。
这种结构,凭借其两个门和组合状态表示,提供了一种有效但可能计算效率更高的方式来处理序列数据,与 LSTM 相比,我们将在本章后面进行更直接的比较。
这部分内容有帮助吗?
© 2026 ApX Machine Learning用心打造