循环神经网络总结

循环神经网络总结

一、总结

一句话总结:

$$y _ { t } = operatorname { softmax } ( h _ { t } w _ { h y } + b y )$$
$$h _ { t } = anh ( x _ { t } w _ { x h } + h _ { t - 1 } w _ { h h } + bh )$$

1、循环神经网络这两个公式如何理解?

|||-begin

$$y _ { t } = operatorname { softmax } ( h _ { t } w _ { h y } + b y )$$
$$h _ { t } = anh ( x _ { t } w _ { x h } + h _ { t - 1 } w _ { h h } + bh )$$

|||-end

就是y=激活(wx+b),只不过对循环神经网络,是 之前状态节点的信息加上当前状态节点的信息,很简单的

二、循环神经网络总结

博客对应课程的视频位置:

其实真的挺简单的,就上面一个图,下面的两个公式,真的很简单

$$y _ { t } = operatorname { softmax } ( h _ { t } w _ { h y } + b y )$$
$$h _ { t } = anh ( x _ { t } w _ { x h } + h _ { t - 1 } w _ { h h } + bh )$$

-------------------------------------

公式仔细的想想其实也很简单:

就是y=wx+b,对应这里的话,就是当前状态的y加上之前状态的y,b的话就合在一起了,

所以是x_t*w_xh+h_(t-1)*w_hh+bh

当前状态:x_t*w_xh

之前状态:h_(t-1)*w_hh

h_(t-1)就是上一轮y,也就是这一轮的x

最后就是加个tanh激活函数,真的非常简单

就是之前状态节点的信息加上当前状态节点的信息

-------------------------------------

这个公式就更加简单了

y=激活(wx+b)

-------------------------------------

这里可以总结一下:

无论是全连接、还是卷积、还是循环神经网络,基本节点的话都特别简单,

都是y=激活(wx+b)

-------------------------------------

实例

 
我的旨在学过的东西不再忘记(主要使用艾宾浩斯遗忘曲线算法及其它智能学习复习算法)的偏公益性质的完全免费的编程视频学习网站: fanrenyi.com;有各种前端、后端、算法、大数据、人工智能等课程。
博主25岁,前端后端算法大数据人工智能都有兴趣。
大家有啥都可以加博主联系方式(qq404006308,微信fan404006308)互相交流。工作、生活、心境,可以互相启迪。
聊技术,交朋友,修心境,qq404006308,微信fan404006308
26岁,真心找女朋友,非诚勿扰,微信fan404006308,qq404006308
人工智能群:939687837

作者相关推荐

原文地址:https://www.cnblogs.com/Renyi-Fan/p/13716384.html