两个经典问题

  • 为什么在CNN等结构中将原先的sigmoid、tanh换成ReLU可以取得比较好的效果?
  • 为什么在RNN中,将tanh换成ReLU不能取得类似的效果?

链接

原文地址:https://www.cnblogs.com/TMatrix52/p/10891070.html