寒假自学2.05

集成学习(Ensemble Learning)

集成学习就是将很多分类器集成在一起,每个分类器有不同的权重,将这些分类器的分类结果合并在一起,作为最终的分类结果。最初集成方法为贝叶斯决策。

集成算法用一些相对较弱的学习模型独立地就同样的样本进行训练,然后把结果整合起来进行整体预测。集成算法的主要难点在于究竟集成哪些独立的较弱的学习模型以及如何把学习结果整合起来。这是一类非常强大的算法,同时也非常流行。

常见的算法包括:

  • Boosting, Bootstrapped Aggregation(Bagging),
  • AdaBoost,堆叠泛化(Stacked Generalization, Blending),
  • 梯度推进机(Gradient Boosting Machine, GBM),随机森林(Random Forest)。
原文地址:https://www.cnblogs.com/sunhongbin/p/14915235.html