27:RNN循环神经网络-RNN训练难题

1:RNN训练难题:梯度爆炸以及梯度弥散

(1.1)原因

 

 [注]由于W**k的存在导致梯度出现爆炸或者弥散

2:解决办法

(2.1)梯度爆炸的解决办法:梯度压缩

 [注]可以通过对w的梯度进行压缩:(w.grad/||w.gard||)*threashold解决梯度爆炸的问题

 【注】norm()函数可以求二范数或者是向量的模或欧几里得长度。

(2.2)梯度弥散(梯度消失)的解决办法:LSTM

 [注]在CNN中随着网络层数的加深,由于误差的存在会导致后面几层的梯度=0,参数长时间得不到更新,这样就导致了优化效果不好。

原文地址:https://www.cnblogs.com/jiafeng1996/p/15119596.html