泛化--过渡拟合的风险

泛化


本单元将重点介绍泛华。为了让您直观地理解这一概念,我们将展示3张图片。假设每个点代表一棵树在深林中的位置。图中的两种颜色分别代表一下含义:

  • 蓝点代表生病的树。
  • 橙色代表健康的树。

接下来,我们来看看图1。

image

图1 生病(蓝色)和健康(橙色)的树

您能设想出一个有效的模型来预测以后的生病或健康的树吗?花点时间在脑海中绘制一条曲线将蓝色和橙色分开,或者在脑海中圈定一些橙色或蓝色。然后再看看图2,它显示某种机器学习模型如何将生病的树与健康的树区分开。注意,该模型产生的损失率非常低。

该图包含的蓝点和橙点排列与图 1 相同。不过,该图使用一系列复杂形状准确涵盖了几乎所有的蓝点和橙点。

图 2. 用于区分生病的树与健康的树的复杂模型。

乍一看,图 2 所示的模型在将健康的树与生病的树区分开方面似乎表现得非常出色。真的是这样吗?


损失率很低,但任然是很糟糕的模型?

图三显示我们向该模型中添加数据后所发生的的情况。结果表明,该模型在处理数据方面的表现非常糟糕。注意,该模型对绝大部分新数据的分类都是不正确的。

除了增加了大约 100 个点之外,其余与图 2 相同。许多新点落在预测模型之外。

图 3. 该模型在预测新数据方面表现非常糟糕。


总结

图2和图3所示的模型过拟合了训练数据的特征。过拟合模型在训练过程中产生的损失很低,但是在预测新数据方面的表现却非常糟糕。如果某个模型在拟合当前样本表现的良好,那么我们如何相信该模型会对新数据做出好的预测呢?正如您稍后看到的,过拟合是由于模型复杂度程度超出了所需程度造成的。机器学习的基本冲突时适当拟合我们的数据,但是也要尽可能简单地拟合数据。

机器学习的目标是对从真实概率分布中抽取的新数据做出良好的预测。遗憾的是,模型无法查看整体的情况;模型只能从训练数据集中抽样。如果某个模型在拟合当前样本方面表现良好,那么您如何相信该模型也会对未见过的样本做出良好的预测呢?

奥卡姆威廉是14世纪一位崇尚简单的修士和哲学家。他认为科学家应该优先采用简单的模型或公式。奥卡姆剃刀定律在机器学习方面的运用如下:

机器学习模型越简单,良好的实证结果就越可能不仅仅基于样本的特征。

如今,我们将奥卡姆剃刀定律正式应用于统计学习理论计算学习理论领域。这些领域已经形成了泛化边界,即统计化描述模型根据以下因素泛化到新数据的能力:

  • 模型的复杂程度
  • 模型在处理训练数据方面的表现

虽然理论分析在理想化假设下可提供正式保证,但是实践中却很难应用。机器学习侧重于实证评估,以判断模型泛化到新数据的能力。

机器学习模型旨在根据以前未见过的新数据做出良好的预测。但是,如果您想要根据数据集构建模型,如何获得以前从未见过的数据呢?一种方案是将您的数据集分为两个子集:

  • 训练集 用于训练模型的子集
  • 测试集 用于测试模型的子集

一般来说,在测试集上表现是否良好是衡量能否在新的数据上表现良好的有用指标,前提是:

  • 测试集足够大
  • 您不会反复使用相同的测试集来假设

机器学习细则

以下三项基本假设阐明了泛化:

  • 我们从分布中随机抽取独立同分布 (i.i.d) 的样本。换言之,样本之间不会互相影响。(另一种解释:i.i.d. 是表示变量随机性的一种方式)。
  • 分布是平稳的;即分布在数据集内不会发生变化。
  • 我们从同一分布的数据划分中抽取样本。

在实践中,我们有时会违背这些假设。例如:

  • 想象有一个选择要展示的广告的模型。如果该模型在某种程度上根据用户以前看过的广告选择广告,则会违背 i.i.d. 假设。
  • 想象有一个包含一年零售信息的数据集。用户的购买行为会出现季节性变化,这会违反平稳性。

如果违背以上三项基本假设中的任何一项,那么我们就必须密切注意指标。

总结:

  1. 如果某个模型尝试紧密拟合训练数据,但却不能很好地泛化到新数据,就会发生过拟合。
  2. 如果不符合监督式学习的关键假设,那么我们将失去对新数据进行预测这项能力的重要理论保证。

引用

泛化 (Generalization):过拟合的风险

原文地址:https://www.cnblogs.com/taro/p/8637430.html