【读书报告--02】神经网络基础学习

1.线性单元

定义:使用一个可导的线性函数来替代感知器的阶跃函数,这种感知器就叫做线性单元

个人理解:感知器还是那个感知器,只是激活函数变成一个可导的线性函数:如f(x)=x

如下图:线性单元与前面所学的感知器(使用阶跃函数)的对比,只有激活函数改为”可导的线性函数“

2.监督学习和无监督学习的概念

监督学习:为了训练一个模型,我们要提供这样一堆训练样本:每个训练样本既包括输入特征x,也包括对应的输出y(也叫做标记,label)

无监督学习:训练样本中只有x而没有y

目前只考虑监督学习:

其中监督学习的所有样本误差的和函数为:

其中:

所以可以写成

 由公式可知:模型的训练,实际上就是求取到合适的w,使(式2)取得最小值。这在数学上称作优化问题,而E(W)就是我们优化的目标,称之为目标函数

 个人理解:模型的训练是求取到合适的w,而通过观察误差和函数,实际上模型的训练的过程即对E(w)求取最小值,因此可以通过梯度下降算法优化我们的模型

3.梯度下降算法  

公式和介绍:

因此我们的E(w)可以套入梯度下降的算法,对于神经网络模型训练的权值w

我们可以写出:

最终:

个人见解:

与上一节的感知器学习对比,权重w的训练更新公式替换成了如上图所示的公式,这样可以更快地训练出合适的w

总结:1.使用”可导的线性函数“作为感知器的激活函数,此时感知器叫做“线性单元”

2.监督学习和无监督学习的区别在于训练样本有无y,即实际值

3.梯度下降的算法可以优化神经网络模型,具体使用在对权值w的训练上

原文地址:https://www.cnblogs.com/zjinwei/p/10131844.html