融合集成模型

1. Bagging

  1. 将多个模型,也就是基学习器的预测结果进行简单的加权平均或者投票。它的好处是可以并行地训练基学习器。Random Forest就用到了Bagging的思想


2. Boosting


Boosting的思想有点像知错能改,每个基学习器是在上一个基学习器学习的基础上,对上一个基学习器的错误进行弥补。我们将会用到的AdaBoost,Gradient
Boost就用到了这种思想。


3. Stacking


Stacking是用新的次学习器去学习如何组合上一层的基学习器。如果把Bagging看作是多个基分类器的线性组合,那么Stacking就是多个基分类器的非线性组合。Stacking
可以将学习器一层一层地堆砌起来,形成一个网状的结构。 相比来说Stacking的融合框架相对前面二者来说在精度上确实有一定的提升,所以在下面的模型融合上,我们也使用Stacking方法。
Stacking框架是堆叠使用基础分类器的预测作为对二级模型的训练的输入。


4. Blending


Blending和Stacking很相似,但同时它可以防止信息泄露的问题。

原文地址:https://www.cnblogs.com/Alexisbusyblog/p/12403582.html