[11-1] adaboost DTree

        main idea:用与$u_t$成正比的概率sampling生成的数据集$widetilde{D}$训练DTree;用整个数据集$D$计算weighted$epsilon_n$,计算$g_t$的权重$alpha_t =lnlacklozenge t$,其中$lacklozenge t = sqrt{frac{1-epsilon}{epsilon}}$

sampling模拟权重,adaboost:

原始的adaboost需要在每笔资料的err上加上权重u

image

由于使用这种方法,需要修改原DTree的算法过程,所以使用sampling代替

方法如下---

数据i的权重为ui,则抽到的概率pi=ui/sum(ui) 正比于ui

image

训练生成每个小g的权重计算

image

由于DTree在所有数据都被sample到的情况下完全生长,其Ein=0,使at无限大,会消除adaboost的效果

所以需要对DTree进行限制,通常可以采用   1 剪枝   2 限制树高度  的方法

(adaboost decision stump是 height=1的adaboost DTree)

总结:image

原文地址:https://www.cnblogs.com/porco/p/4268545.html