关于梯度消失,梯度爆炸的问题

  随着神经网络层数的增加,会出现梯度消失或者梯度爆炸的问题,下面细说下问什么会出现:

      起初的学习率固定。

      下面来看几组通过增加隐藏层层数后的学习率变化图:

   

  

   

    

   

     

 

    

   

原文地址:https://www.cnblogs.com/DjangoBlog/p/7699559.html