线性神经网络

线性神经网络的结构与感知器相似,激活函数采用线性函数purelin,假设输入样本为m维向量x={p1,p2,p3,...pr},网络有s个神经元,则第j个神经元的输出为vj:

                     vj=Σi=1 to rpiwji+bj

网络的第j个神经元的最终输出yj=purelin(vj)

将上述写成矩阵形式:

p(n)=[1,p1(n),p2(n),...,pm(n))

W(n)=[b1(n),w11(n),w12(n),...w1m(n);b2(n),w21(n),w22(n),...w2m(n);...;bs(n),ws1(n),ws2(n),...wsm(n)]

线性神经网络的学习算法是W-H学习算法,也叫最小均方误差算法LMS,该学习规则是基于梯度下降的原则来减小权值误差,LMS学习的定义式为

              E=1/mΣk=1 to se(k)2------1

             e(k)=d(k)-y(k)-------2

             y(k)=p(k)W(k)T----------3

其中e(k),d(k),y(k)均为向量,长度为神经元个数s

基于梯度下降的原则:

                    W(n+1)=W(n)-α∂E/∂W

由根据1,2,3式得:

                   ∂E/∂W=-2e(k)p(k)T

所以W(n+1)=W(n)+2αe(n)p(n)T

最后一个问题,学习率的选择,学习率过大,收敛速度快,但是可以导致训练不稳定,学习率小,收敛速度慢

原文地址:https://www.cnblogs.com/semen/p/6821103.html