我眼中的支持向量机(SVM)

看吴恩达支持向量机的学习视频,看了好几遍,才有一点的理解,梳理一下相关知识。

(1)优化目标:

  支持向量机也是属于监督学习算法,先从优化目标开始。

    优化目标是从Logistics regression一步步推导过程,推导过程略

  

  这里cost1和cost0函数图像为:

                                              

  Z是theta的转置和x的内积。当Z>=1时,cost1 = 0.  当Z<=-1时,cost0 = 0.

  因为要最小化损失函数

  if y = 0 :我们希望Z >=1 (不仅仅要大于零,这里是与逻辑回归相比,如下图)

  if y = 0 :我们希望Z <=-1 (不仅仅要小于零,这里是与逻辑回归相比,如下图)

 通过这样的对比发现支持向量机的要求要比逻辑回归更加严格,这也说明了支持向量机的安全距离更高。就像下图中黑线,如果你想知道为什么,下一部分将会揭晓。

  有的时候样本并没有上图分的那样好,可能有几个点不符合,支持向量机将会对此很敏感,例如下图,这样的分割(红线)并不是我们想要的,这就需要调整参数C的值,当C的值不是很大的时候将会忽略一些异常点,让分割更加合理。

接下来从数学层面上分析,为什么会得到上图的分割

将会对进一步转化,学习向量内积的相关知识,可以转化为,如下图,表示距离

 

  那么我们替换一下上面的表达式为下图

 

  好,接下来,用一个例子说明,假如要对下图划分,假如,简化问题,使:

  

如果把它分割成这样,绿色线是决策边界和theta向量成90度夹角:

如果这样分的话,可以看到P1和P2的值相对较小,而要满足这样就会导致theta增大,所以还要进行优化调整。

如果这样分呢,显然距离P1,P2增大了,相应的theta的值也要减小,有人问,为什么要theta减小,别忘了我们最初的目的是让最小,这样做是不是更加合理了呢,所以说支持向量机是一个大间距分类器。

当然,以上都是简单的线性分类,如果变得更复杂点该怎样解决呢?例如

对于这样的样本,你可能会使用多项式来设置假设函数,但是如果特征再多点,像一张图片,那么将会十分麻烦,所以就有了核函数。

根据我的理解,假如你想在地图上确定你现在属于哪一个区域,你需要找到几个地标性建筑,然后把自己的位置和地标建筑进行比较,就能确定了。就是这个道理。

给定一个训练样本x,我们利用x的各个特征与我们预先选定的地标(landmarks)L1,L2,L3的近似程度来选取新的特征f1,f2,f3

变换用的核函数有很多,这里使用高斯核函数,,也就是x距离L1近了为1,远了为0,其它也是一样道理。

假如我们已经知道theta1,theta2,theta3的值,那么给一个测试样本x,根据高斯核函数计算出三个特征值。大于零预测y值为1,小于零为0,如下图所示。

如何得到地标,可以把训练集中的样本点当成地标,这样

m表示训练集元素的个数。这样损失函数为:

当然还可以选择其他核函数。

原文地址:https://www.cnblogs.com/zhxuxu/p/9590685.html