Gradient Boosting Decision Tree

GBDT中的树是回归树(不是分类树),GBDT用来做回归预测,调整后也可以用于分类。当采用平方误差损失函数时,每一棵回归树学习的是之前所有树的结论和残差,拟合得到一个当前的残差回归树,残差的意义如公式:残差 = 真实值 - 预测值 。

https://zhuanlan.zhihu.com/p/30654833

机器学习算法GBDT的面试要点总结-上篇

分类树与回归树的区别

GBDT算法原理深入解析

原文地址:https://www.cnblogs.com/TMatrix52/p/11707846.html