04-02 AdaBoost算法


更新、更全的《机器学习》的更新网站,更有python、go、数据结构与算法、爬虫、人工智能教学等着你:https://www.cnblogs.com/nickchen121/p/11686958.html

AdaBoost算法

集成学习中弱学习器之间有强依赖关系的,称之为Boosting系列算法,而AdaBoost则是Boosting系列算法中最著名的算法之一。

AdaBoost算法强大之处在于既可以解决分类问题,又可以解决回归问题。

一、AdaBoost算法学习目标

  1. AdaBoost算法目标函数优化
  2. 强分类器和强回归器流程
  3. AdaBoost算法优缺点

二、AdaBoost算法详解

2.1 Boosting算法回顾

Boosting算法的流程是:首先训练处一个弱学习器,根据弱学习器的误差率更新训练样本的权重,然后基于调整权重后的训练集训练第二个弱学习器,直到弱学习器达到事先指定的数目T,停止算法。

对于Boosting算法的流程,可以看到如果我们解决以下4个问题,既可以得到完整的Boosting算法

  1. 弱学习器的误差率
  2. 训练样本的权重w更新方法
  3. 更新样本权重的方法
  4. 结合策略

2.2 AdaBoost算法

上面讲到了Boosting算法需要解决的4个问题,因为AdaBoost算法隶属于Boosting算法,那么AdaBoost算法也需要解决这4个问题,其实也可以说成只要是Boosting系列的算法,都需要解决这4个问题。

2.3 AdaBoost算法目标函数优化

AdaBoost算法可以理解成模型是加法模型、目标函数是指数函数、学习算法是前向分步算法时的学习方法。其中加法模型可以理解成强学习器是由之前所有的弱学习器加权平均得到的;前向分步算法则可以理解成弱学习器训练数据的权重通过前一个弱学习器更新。

AdaBoost算法的模型是加法模型,即强学习器的模型为

f(x)=k=1KαkGk(x)

其中KK个弱学习器。

AdaBoost算法的事前向分步算法,即经过k1次迭代后,第k1轮后强学习器为

(1)fk1(x)=α1G1(x)+α2G2(x)++αk1Gk1(x)(2)=fk2(x)+αk1Gk1(x)

经过k次迭代后,第k轮后强学习器为

fk(x)=i=1kαiGi(x)=fk1(x)+αkGk(x)

得到第k轮强学习器后,我们知道AdaBoost的目标函数是指数函数,因此我们的目标是使前向分步算法得到的αkGk(x)使fk(x)在训练数据集上的指数损失最小,即AdaBoost的目标函数为

(3)(αk,Gk(x))=argminα,Gi=1meyifk(x)(4)=argminα,Gi=1me[yi(fk1(xi)+αG(xi))](5)=argminα,Gi=1me[yi(fk1(xi))]e[yi(αG(xi))]

由于e[yi(fk1(xi))]的值不依赖α,G,因此他与最小化无关,它仅仅依赖于随着每一轮迭代而变化的fk1(x),因此可以把e[yi(fk1(xi))]看做w¯ki,即目标函数变为

(αk,Gk(x))=argminα,Gi=1mw¯kie[yi(αG(xi))]

现在的目标就是最优化AdaBoost的目标函数得到能使目标函数最小化的αkGk(x)

首先,对于任意的α>0Gk(x)表示第k轮能够使得加训练数据分类误差率最小的基本分类器,分类误差率为

ek=i=1mw¯kiI(yiGk(xi))i=1mw¯ki=i=1mw¯kiI(yiGk(xi))=yiGk(xi)w¯ki

Gk(x)

Gk(x)=argminGi=1mw¯kiI(yiG(xi))

Gk(x)即为学习器的Gk(x),把Gk(x)代入目标函数对α求导并使导数为0,可以把上述的目标函数优化成

(6)(αk,Gk(x))=argminα,Gi=1mw¯kie[yi(αG(xi))](7)=argminα,Gyi=Gk(xi)w¯kieα+yiGk(xi)w¯kieα(8)=argminα,G(1ek)eα+ekeα

既得最小的α

αk=12log1ekek

最后看样本的权重更新,利用fk(x)=fk1(x)+αkGk(x)w¯ki=e[yifk1(xi)]可得

(9)w¯k+1,i=e[yifk(xi)](10)=e[yi(fk1(xi))yi(αkGk(xi))](11)=w¯kie[yiαkGk(x)]

w¯k+1,i即接下来要讲到的AdaBoost算法的训练数据权重的更新公式。

三、AdaBoost算法流程

AdaBoost算法既可以解决分类问题,又可以解决回归问题。对于分类问题,此处我们讲述的AdaBoost算法流程主要是针对二分类问题,二分类问题和多分类问题的区别主要在于弱分类器的系数上,本文会介绍AdaBoost SAMME算法如何计算弱分类器的系数;对于回归问题,由于AdaBoost用来解决回归问题的变种有很多,本文只对AdaBoost R2算法做一个介绍。

3.1 输入

m个样本n个特征的训练数据集T={(x1,y1),(x2,y2),,(xm,ym)}

针对二分类问题,yiY={1,1}

3.2 输出

最终强学习器G(x)

3.3 强分类器流程

  1. 初始化训练数据的权重

D1=(w11,,w1i,,w1m),w1i=1m,i=1,2,,m

  1. 生成弱分类器

Gk(x),k=1,2,,K

  1. 计算弱分类器Gk(x)在训练集上的分类误差率为

(12)ek=i=1mP(Gk(xi)yi)(13)=i=1mwkiI(Gk(xi)yi)

  1. 计算Gk(x)的权重系数

(14)αk=12log1ekek二分类问题(15)αk=12log1ekek+log(R1)多分类问题

二分类问题的权重系数中,可以看出如果分类误差率ek越大,则对应的弱分类器的权重系数αk越小,即误差率小的弱分类器权重系数越大。

多分类问题使用的是AdaBoost SAMME算法,其中R为类别数,如果R=2,则该多元分类的权重系数将变成二元分类的权重系数。
5. 更新训练数据的权重

(16)Dk+1=(wk+1,1,,wk+1,i,,wk+1,m)(17)wk+1,i=wkiZkeαkyiGk(xi),i=1,2,,m

其中Zk是规范因子

Zk=i=1mwkieαkyiGk(xi)

wk+1,i的计算公式中可以看出,如果第i个样本分类错误,则yiGk(xi)<0,导致样本的权重在第k+1个弱分类器中变大,反之,则样本权重在第k+1个弱分类器中变小。
6. 结合策略

(18)f(x)=k=1KαkGk(X)线性模型(19)G(x)=sign(k=1KαkGk(X))最终强分类器G(x)

3.4 强回归器流程

  1. 初始化训练数据的权重

D1=(w11,,w1i,,w1m),w1i=1m,i=1,2,,m

  1. 生成弱分类器

Gk(x),k=1,2,,K

  1. 计算弱回归器Gk(x)在训练集上的最大误差

Ek=max|yiGk(xi)|,i=1,2,,m

  1. 计算每个样本之间的相对误差

eki=|yiGk(xi)|Ek

此处也可以使用均方误差,即eki=(yiGk(xi))2Ek2
5. 计算第k弱回归器的误差率和权重系数

(20)ek=i=1mwkieki误差率(21)αk=ek1ek权重系数

  1. 更新训练数据的权重

wk+1,i=wkiZkαk1eki

其中Zk是规范因子

Zk=i=1mwkiαk1eki

  1. 结合策略

G(x)=Gk(x)

其中Gk(x)是所有ln1αk,k=1,2,,K的中位数对应序号k对应的弱回归器

四、AdaBoost算法优缺点

4.1 优点

  1. 不容易过拟合
  2. 分类精准度高
  3. 由于弱分类器既可以是分类器又可以是回归器,使用灵活

4.2 缺点

  1. 由于是对训练数据加权,有可能会赋予训练数据中的异常值较高的权重,影响模型的准确度

五、小结

AdaBoost算法并没有使用较深的数学知识,而是推导过程涉及较为复杂的逻辑。如果看完一遍还不是很理解,需要自己多多揣摩。

AdaBoost算法目前是一个比较流行的Boosting算法,他的弱学习器既可以是回归器,又可以是分类器,这也是AdaBoost较为强大的一点。虽然理论上任何学习器都可以作为AdaBoost的弱学习器,但是AdaBoost算法用的较多的弱学习器一般还是决策树和神经网络。

相信有了第一个集成算法AdaBoost的基础,对于接下来的第二个用的较为广泛的Boosting系列算法你也能很快熟悉他,即梯度提升树(gradient boosting decision tree,GBDT)

原文地址:https://www.cnblogs.com/abdm-989/p/14111571.html