神经网络与深度学习邱锡鹏学习笔记7神经网络

 神经网络与深度学习(更新至第6讲 循环神经网络)_哔哩哔哩_bilibili

axon

英 [ˈæksɒn]  美 [ˈæksɑːn] 
  • n. 轴索,[解剖]轴突(神经细胞)

telodendria

 终端(树)突

nucleus

英 [ˈnjuːkliəs]  美 [ˈnuːkliəs] 
  • n. 原子核;细胞核;核心,中心;神经核;(彗星的)核

 

注解:

1.x1,x2,...xn代表一个神经元接受到的信号。

2.w1,w2,...wn代表不同的权重,代表一个神经元的不同的轴突之间的连接的强度(老师说的是:用来模拟不同神经元之间的连接强度)。

3.对轴突上的值进行加权求和之后,再流入一个激活函数,由这个激活函数决定这个神经元是抑制(不兴奋)还是激活(兴奋)。

注解:

1.学习算法在神经网络中指的是误差的反向传播。

2.学习算法通常意义上指的是梯度下降。

注解:

1.就算是混合形式的神经网络,相对于人脑的神经网络还是非常简单的网络。

 

注解:

1.这张图说明的是神经网络和深度学习的对应,即多层神经网络的组合学习就是深度学习。

2.第三层的映射函数f3是分类器。

3.每一层都可以看作是特征的抽取器。

4.整个的神经网络的学习可以认为是端到端的学习。

5.我称这个多层嵌套的函数为神经网络函数。

6.第一个隐藏层可以看成是和f1对应。

 

注解:

1.神经网络函数其实是连续可导的。

2.怎样看自变量x对因变量的影响有多大呢?对自变量x做一个扰动,看看y的变动有大多,这样就可以看出x的变化对y的影响有多大。

 3.斜率就表示了x的变化对y造成的影响。如果在一个点上的斜率大,就说明在这一点处,一个微小的扰动就能造成y的较大的变化。

4.把y看成是神经网络的输出,w可以看成是每一层的参数,如果这个参数重要的话,对参数做一个小扰动,y应该变化很大,这意味着这个参数的贡献度很大。

5.如果计算的结果不好,可以先调节那些重要的参数。

原文地址:https://www.cnblogs.com/yibeimingyue/p/15426591.html