感知机学习算法

1.感知机

感知机是二类分类线性分类模型,输出的值为{+1, -1}两种类型;感知机是利用超平面将两类分离的算法。

假设输入空间(特征空间)是X∈Rn,输出空间是Y={+1, -1}。输入x∈X表示实例特征向量。对应于输出空间(特征空间)的点:输出y∈Y表示实例类别,由输入空间到输出空间的如下函数:

f(x) = sign(w*x+b)

线性方程:

w*x+b=0

对应于特征空间Rn 中的一个超平面S,其中w是超平面的法向量,b是超平面的截距。

2.感知机学习策略

单个点x0到超平面S的距离是:
这里写图片描述

对于误分类来说,-yi(w*xi+b)>0。因此误分类点到超平面S的距离
这里写图片描述
假设超平面S误分类点集合为M,则总距离:
这里写图片描述

因此,感知机sign(wx+b)的损失函数可以简写为:
这里写图片描述

3.感知机原始形式

假设M集合是固定,那么损失函数的梯度为:
这里写图片描述
随机一个选取一个误分类点(xi, yi)对w和b进行更新。

这里写图片描述

 1  # coding:utf-8
 2 import matplotlib.pyplot as plt
 3 import numpy as np
 4 
 5 def dataN(length):#生成数据
 6     x=[[1,x/100.0,x/100.0+ (x%2)*1.5 + np.random.uniform(0,1.2)] for x in range(length)]
 7     y=[(-1)**(y%2-1) for y in range(length)]
 8     x=np.mat(x)
 9     return x,y
10 
11 def percepT(x,y, iter):#感知机原始形式
12     n =np.shape(x)[1]
13     m=len(x)
14     theta=np.ones(n)
15     alpha=0.02
16     for it in range(iter):
17        l=0
18        print it  #0 1 2 3 4 5 6 7
19        for k in range(m):
20            if (x[k].dot(theta.T))*y[k]<0:
21                l=1
22                theta=np.add(theta,alpha*y[k]*x[k])
23        if l==0:
24             break
25     return theta
26 
27 def showP(x,y,theta):#作图
28     plt.figure(1)
29     color=['','or','ob']
30     for i in xrange(length):
31         plt.plot(x[i, 1], x[i, 2],color[int(y[i])])
32     theta=theta.getA()
33     plt.plot([0,length/100],[-theta[0][0],-theta[0][0]-theta[0][1]*length/100]/theta[0][2])
34     plt.show()
35     
36 length=200
37 iter=200
38 x,y=dataN(length)
39 theta=percepT(x,y,iter)
40 print theta   #[[-0.38       -0.2464      0.25287193]]
41 showP(x,y,theta)

4.感知机对偶形式

对偶形似的基本想法是:将w和b表示实例xi和标记yi的线性组合形式,通过求解器系数的到w和b。在原始形式中,通过
这里写图片描述
逐步修改w和b,假设修改了n次,则w和b关于(xi, yi)的增量分别是aixiyi和aiyi,这里的ai=niη。最后学习到的w和b是:
这里写图片描述

 1  # coding:utf-8
 2 import matplotlib.pyplot as plt
 3 import numpy as np
 4 
 5 def dataN(length):#生成数据
 6     x=[[x/100.0,x/100.0+ (x%2)*1.5 + np.random.uniform(0,1.2)] for x in range(length)]
 7     y=[(-1)**(y%2-1) for y in range(length)]
 8     x=np.mat(x)
 9     return x,y
10 
11 def percepTG(x,y, iter):#感知机对偶形式
12     m=len(x)
13     theta=np.zeros(m)
14     b=0
15     alpha=0.1
16     for it in range(iter):
17        l=0
18        print it  #0 1 2
19        for k in range(m):
20            if y[k]*(np.sum([theta[j]*y[j]*x[j]*x[k].T for j in range(m)])+b)<=0:
21                l=1
22                theta[k]+=alpha
23                b+=alpha*y[k]
24        if l==0:
25             break
26     return theta,b
27 
28 def showP(x,y,theta,b):#作图
29     plt.figure(1)
30     color=['','or','ob']
31     for i in xrange(len(x)):
32         plt.plot(x[i, 0], x[i, 1],color[int(y[i])])
33     c= np.zeros(2)
34     for j in range(len(x)):
35         c=np.add(c,theta[j]*y[j]*x[j])
36     c=c.getA()
37     print c,b  #[[-0.351     0.402276]] -0.6
38     plt.plot([0,length/100],[-b,-b-c[0][0]*length/100]/c[0][1])
39     plt.show()
40 
41 length=200
42 iter=5
43 x,y=dataN(length)
44 theta,b=percepTG(x,y,iter)
45 showP(x,y,theta,b)

原文地址:https://www.cnblogs.com/qw12/p/5657613.html