为什么GRU和LSTM能够缓解梯度消失或梯度爆炸问题?

2023-12-19 22:48:52

1、什么是梯度消失(gradient vanishing)?

? ? ? 参数更新过小,在每次更新时几乎不会移动,导致模型无法学习。

2、什么是梯度爆炸(gradient exploding)?

? ? ? 参数更新过小大,破坏了模型的稳定收敛。

3、利用梯度截断来缓解梯度爆炸问题

\textbf{g}\leftarrow min\left ( 1,\frac{\theta }{\left \| \mathbf{g} \right \|} \right )\mathbf{g}

4、门控循环单元(GRU)与普通的循环神经网络之间的关键区别是:GRU支持隐状态门控。模型有专门的机制来确定应该何时来更新隐状态,以及何时重置隐状态。这些机制是可学习的。

5、长短期记忆网络(LSTM)引入记忆元,记忆元的设计目的是用于记录附加的信息。为了控制记忆元,需要许多门,输入门、遗忘门和输出门。

6、GRU和LSTM中的门控设计策略,能够有助于缓解梯度消失或梯度爆炸问题。主要是解决长序列梯度计算中幂指数大小的问题(长序列意味着高阶幂指数计算,容易导致梯度极大或极小),可以通过门控设计来直接减少幂指数大小(直接干掉大阶数,替换为合理数值),从而缓解梯度消失或梯度爆炸问题。

文章来源:https://blog.csdn.net/xw555666/article/details/135090923
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。