统计学习方法(Machine Learning)------- 第1章 统计学习方法概论

 

  第1章 统计学习方法概论

----------------------------------------------------------------------------------------------------------------------------

注: 这是机器学习的入门知识,也是很规范化的东西,我力求用最简单,最通俗的语言描述出来,然后附上Python版本代码和例子。

本人南京理工大学计算机硕士,主攻方向 : 自然语言处理,数据挖掘和机器学习,导师:RuiXia

----------------------------------------------------------------------------------------------------------------------------

本章讲解内容:

1.1 统计学习

1.2 监督学习

1.3 统计学习三要素

1.4 模型评估与模型选择

1.5 正则化与交叉验证

1.6 泛化能力

1.7 生成模型与判别模型

1.8 分类问题,标注问题与回归问题

--------------------------------------------------------------------------------------------------------------------------------------------------------------------

 1.1 统计学习

<统计学习方法3要素 = 模型 + 策略 + 算法>

      统计学习以计算机及网络为平台,以数据为研究对象(数据分为两类:连续变量和离散变量),构建模型并应用模型进行分析和预测。其主要流程就是:从数据出发,提取数据的特征,抽象出数据的模型,发现数据中的知识,又回到对数据的分析与预测中去。特别是对未知新数据进行预测与分析。

(1)统计学习方法的总步骤:

后面关于模型,策略,算法 我们会一一解释。

 (2)统计学习方法的分类

  • 监督学习(supervised learning)
  • 非监督学习(unsupervised learning)
  • 半监督学习(semi-supervised learning)
  • 强化学习(reinforcement learning)

强烈推荐 谷歌scikit-learn 总结了 6大类 (分类 回归 聚合 降维 模型选择 预处理 )及Python源代码:http://scikit-learn.org/stable/

----------------------------------------------------------------------------------------------------------------------------------------------------------------

1.2 监督学习

概念:利用一组已知类别的样本调整分类器参数,使其达到所要求性能的 过程,也称为监督训练。也就是说样本必须带 类别或者称为标签

(1)输入空间:在监督学习中,将输入所有可能取值的集合称为 输入空间

(2)特征空间:每个具体的输入是一个实例,通常由特征向量表示,特征向量的空间叫做特征空间

(3)输出空间:在监督学习中,将输出所有可能取值的集合称为 输出空间

监督学习 从 训练数据集(训练集 training data)  中学习模型调整参数,对 测试数据集(测试集 test data )进行预测

  • 回归问题:输入变量与输出变量均为连续变量的预测问题
  • 分类问题:输出变量为有限个离散变量输入的预测问题
  • 标注问题:输入变量与输出变量均为变量序列的预测问题

-----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

1.3 统计学习三要素

(1)模型

分两类:判别式模型 和 生成式模型(后面会细细讲解)

判别式模型:也成决策函数:主要通过最后函数和某个值得比较,例如  F>0 为第一类,F<0为第二类来判别,多类的话就有多个F ,通过多个F值交叉判断类别

生成式模型:又称为 概率模型,主要最后根据那个概率大,就是那个类别,当然所有概率之和必为 1

(2) 策略

有了假设模型之后呢,我们接下来考虑的就是 按照什么规则或准则,方法保证我们的模型会向着我们期望的方向发展呢

在这我们必须了解两个概念:  损失函数  风险函数

损失函数 度量模型一次预测的好坏。风险函数 度量平均意义下的模型预测的好坏。

(2.1)损失函数(loss function),又叫做 代价函数(cost function)

通俗的说呢:就是预测值和我们理想值之间的差距大小。

损失函数值越小,模型就越好,因为我们预测值更接近真实值啊,这就是策略,至于如何让损失函数减小,我们就要看后面的算法了。

(2.2)风险函数(risk function),又叫做 期望损失(excepted loss)

概念:就是 理论上的假设模型 f(X) 关于 联合分布 P(X,Y)的平均意义下的损失,说白了就是平均损失啊

 

------------------------结论:-------------------------

当样本容量很大时,采用经验风险最小化,效果理想

当样本容量较小时,如果还采用这种方式,很容易 形成  ‘过拟合现象 (over-fitting)’

因此我们需要引入 结构风险最小化(structual risk minimization),是为了防止过拟合现象而提出的策略,结构风险最小化等价于正则化(regularization),结构风险就是在经验风险上加上表示模型复杂度的正则化项(regularizer)或者罚项(penalty term)

 

(3) 算法

问题:策略选取正确了,就是说能保证我们的 loss fucntion 损失函数或代价函数的值变小,但是具体的改如何变小呢?改用那些方法呢??

其实这个主要 就是  最优化工程里的知识了,我还没学哦

主要有:

  • 梯度下降法
  • 牛顿法和拟牛顿法
  • 坐标轮转法

----------------------------------------------------------------------------------------------------------------------------------------------------------------------

1.4  模型评估和模型选择

统计学习的目的不仅仅是对已知数据 更加重要的是对未知的数据都能有很好的预测能力

不同的学习方法我们会有不同的模型。基于我们提出了 

  • 训练误差(training error):
  • 测试误差(test error)

误差率用 e 表示 就是估计错误的个数除以总个数,正确率用 r 表示,就是 估计正确的个数除以总个数

 (1)过拟合与模型选择

过拟合:是指学习的时候选择的模型所包含的参数过多,以致于这一模型对已知数据预测的很好,但是对于未知的数据预测效果却很差的现象

模型选择:旨在避免过拟合现象并提高模型的预测能力

 

从图中我们可以看到,M =0 ,M= 1是均是直线,效果很差,M=9是百分百拟合,这样对未来未知数据效果也会很差,而M=3才是我们所要选择的模型啊

 

原文地址:https://www.cnblogs.com/levone/p/3531054.html