线性判别函数

模式识别课堂笔记

假定用于分类的判别函数的参数形式已知,直接从样本来估计判别函数的参数。不需要有关概率密度函数的确切的参数形式。因此,属于无参数估计方法。

注:虽然判别函数有需要学习的参数,但却与前面所讲的非参数估计是一个框架下的,因为线性判别法并不关心数据的生成机理,完全由样本来确定类别情况。

分类:

线性判别函数、支持向量机、Fisher线性判别函数

广义线性判别函数、非线性判别函数、核学习机

基本思想:

步1:给定一个判别函数,且已知该函数的参数形式;

步2:采用样本来训练判别函数的参数;

步3:对于新样本,采用判别函数对其进行决策,并按照一些准则来完成分类。


技术路线:

–假定有 n 个 d 维空间中的样本,每个样本的类别标签已知,且一共有 c 个不同的类别。

–假定判别函数的形式已知,寻找一个判别函数。

–对于给定的新样本 x属于d维空间,判定它属于c中的哪个类别。

从两类分类函数入手,再设计多类问题,最后推广到广义线性模型。第二部分是关于如何训练这些函数。

1.先说二类分类函数;

 

g(x)=0,定义了一个决策面H

性质:w是H 的法向量,任意一点到H的距离为

这个r是有正负的,代表是否与法向量同方向。

 

2.接下来是多类分类:是建立在二类分类基础上的

2.1一对多情况,把第i类标记为正,其他类标记为负,这样可以构造c个二类分类面;

但是存在明显缺陷

2.2一对一情况,两两进行构造分类面,构造时不考虑其他类(完全忽略),这样可以构造c(c-1)/2个分类面;

同样有缺陷,但相较于上一个不确定的区域少一点,因为分类面多了(三个的话没有效果,四个以上才有对比)

2.3对应与这种投票表决的方法有一种改进的叫最大决策的方法

 

3.最后,由于线性机器有两个限制,决策区域要是凸的,而且要是单连通的。所以要对这种线性机制进行推广,得到广义线性判别函数。

原理是将低维中线性不可分的数据点x,通过非线性变化映射到高维空间中形成数据点y,以期望新的数据点y在高维空间中线性可分。

 

讨论完线性函数,在下一篇我们要讨论如何通过数据学习这些函数。

   

原文地址:https://www.cnblogs.com/simayuhe/p/5316943.html