https://www.bilibili.com/video/BV184411Q7Ng?p=74
注解:
- 这是一个230*240的彩色图片。
- 卷积层相当于做特征,把特征提取出来。
为何函数使用relu(),不是sigmoid()函数了,原因:
- 1.sigmoid()计算量大。
- 如果网络深度深的话,在权重反向传播的时候,容易造成梯度爆炸。
- 经过激活成后,输出没有发生变化,只是一些负值变成0了。
https://www.bilibili.com/video/BV184411Q7Ng?p=74
注解:
为何函数使用relu(),不是sigmoid()函数了,原因: