统计学习方法 –> 支持向量机

前言

定义: 在特征空间上间隔最大的线性分类器。

核是SVM非常重要的一个特性。

支持向量机的学习策略就是间隔最大化,可形式化为一个求解凸二次规划的问题。

分类 1》线性可分支持向量机 2》线性支持向量机 3》非线性支持向量机

如果训练数据线性可分,那么可以通过硬间隔最大化,学习一个线性分类器,就是线性可分支持向量机,就是硬间隔支持向量机。

类似,如果训练数据近似线性可分,那么可以通过软间隔最大化来学习一个线性的分类器。成为软间隔支持向量机。

训练数据线性不可分的时候,就必须动用核函数来处理了。

核函数表示的是将输入从输入空间映射到特征空间得到的特征向量之间的内积。

线性可分支持向量机

正例 && 负例

分离超平面将特征空间划分为两部分,一部分是正类,一部分是负类。

超平面关于样本点的函数间隔的几何距离的公式应该要会写。

所以目标函数就是间隔r最大化。 见统计学习方法7.9

间隔边界,很重要的概念。

学习的对偶算法

为求解SVM的目标函数。可以用拉格朗日对偶性,通过求解对偶问题来得到原始问题的最优解。这就是线性可分支持向量机的对偶算法。

松弛变量,有了松弛变量之后,可以使函数间隔加上松弛变量大于等于1。

核技巧

用线性分类方法求解非线性分类问题分为两步:首先使用一个变换将原空间的数据映射到新空间。然后在新空间里面用线性分类学习方法从训练数据之中学习分类模型。

核函数定义:很重要,别忘了。

将内积用核函数来代替,

正定核

核函数必须要是正定核函数。 K(x,z)的Gram矩阵是版正定的。

常用核函数

1.多项式

2.高斯核函数

字符串核函数

原文地址:https://www.cnblogs.com/chengxuyuanxiaowang/p/4777066.html