B站 机器学习的数学

吴恩达机器学习:https://www.bilibili.com/video/av9912938/?p=43

 有一个很好的文章:https://blog.csdn.net/qq_39422642/article/details/78725278

https://blog.csdn.net/LeviAckerman/article/details/80353135

视频来自:https://www.bilibili.com/video/av38272602/?p=10

SVM的核心是:最大间隔

SVM和其他不同的算法类似的是:都是划分了决策边界。

不同是:决策边界划分的方法不同。

核心思想2:

引入y,把之前的两个式子,合并成一个。这也是个小trick

支持向量满足这个式子(式2)。

 

这个式子非常重要!。

 

 拉格朗日乘子是需要学出来的东西

我们不关心x具体为什么,而是关心两个x的点乘。这其实也是一种kernel。

代入决策公式得

其中为测试集中的数据。

 

 测试集的点和路边的点两两乘内积,求完内积再求加权的和,如果>0,则为+。这就是最简单的SVM的形式。

不为0时,Xi就不是路边的点了。只有为0时,才是路边的点。

核函数太难了。

但是可以求出来。

因为两两点乘为一个常数,所以k是一个线性函数。

上面的是多项式核,下面的为高斯(RBF)核

在建模的时候,我们只需要知道核函数是什么,而不需要非线性变换的函数是什么。

这样我们就把上面的式子转化成了下面的式子。

现在就剩下一个问题:如何求

有了,就会有w,b。

题外话:SVM的所有优化都是凸优化。深度学习的时候,达到局部最优就可以了。不一定非要全局最优。

SMO如何做的?

每次固定2个变量,求极值,依次迭代。

原文地址:https://www.cnblogs.com/JasonPeng1/p/12110139.html