应用机器学习建议

本文是Andrew Ng在Coursera的机器学习课程的笔记。

动机

当一个算法在训练集表现优秀,但在测试集表现不佳时,我们需要考虑如何改良算法。方法包括:

  • 修改拟合函数的最高阶数
  • 增加或者减少特征数
  • 修改regularization参数λ
  • 增加样本数,扩大数据集
  • ...

该从何处下手?乱试是不行的,我们可以按照以下步骤来评估各种方法的效能。

在评估之前,我们先将数据集划分为{训练集交叉验证集,测试集}三个子集,这三个子集可以分别占总集的60%,20%,20%,我们用训练集来训练模型,用交叉验证集来挑选模型参数,用测试集来测试模型的泛化能力。

挑选拟合函数

拟合函数的阶数太小的时候,拟合函数表现能力弱,太大时,表现能力加强。因此,拟合函数的阶数:

  • 过小时,容易发生欠拟合
  • 过大时,容易发生过拟合

对于神经网络,增加hidden layer相当于增加拟合函数的阶。增加hidden layer、多项式组合等,都是增加feature的个数的方法。

正则化参数

正则化参数用于限制学习得到的参数,使参数不会太大,以此来防止过拟合。

  • 过小时,限制有限,容易发生过拟合
  • 过大时,限制过度,容易发生欠拟合

数据集合大小

给定一个数据集合,如果我们学到一个欠拟合模型,那么:

  • 数据集很小时,训练集的误差代价比较小,但是交叉验证集的误差代价会很大
  • 数据集很大时,训练集交叉验证集的代价都会很大

反之,如果我们学到一个过拟合模型,那么:

  • 数据集很小时,训练集的误差代价比较小,但是交叉验证集的误差代价会很大(同上),二者之间存在较大的的gap
  • 数据集很大时,模型的泛化能力变强,不再容易出现过拟合现象,训练集交叉验证集的误差代价都会降下来

小结

一个判断欠拟合(high bias)还是过拟合(high variance)的方法:

  • 欠拟合:J_trainJ_cv 的值相近,且都很大
  • 过拟合:J_train 值很小,且 J_cv 的值远大于J_train的值

(2014年7月25日补充)

在作业中,利用梯度下降法计算θ的值时,需要考虑正则项,但是计算代价函数J_train与J_cv时,不考虑正则项。

原文地址:https://www.cnblogs.com/ericxing/p/3863489.html