AdaBoost算法公式形象的解释

0. 问题引入

AdaBoost算法公式形象的解释_第1张图片AdaBoost算法公式形象的解释_第2张图片

以上是李航的《统计学习方法》中对AdaBoost算法的描述,虽然后文中也对这里的式子进行了注释,但还不是很明朗,下面是我自己的解读。

1. 几个式子的解释

在这里插入图片描述
这里的m代表第m个分类器,第m个分类器的分类误差率为分类错误的样本个数乘以一个系数 w m i w_{mi} wmi。m=1时这个系数是1/N,之后会按照下面的公式不断变化:
在这里插入图片描述

这个式子中的关键是 α m \alpha_m αm
在这里插入图片描述

由上式可知:
e m e_m em小于等于1/2时, α m \alpha_m αm大于等于0,当 e m e_m em大于1/2时, α m \alpha_m αm小于0。这里我自己来规定一下,当 e m e_m em小于等于1/2时,被认为是弱分类器,当 e m e_m em大于1/2时,被认为是错分类器

然后来看式(8.4),首先把这个式子分解为前后两个部分,第一个部分是上一个分类器分类时的系数(这里除以了一个规范化因子 Z m Z_m Zm),第二部分就是一个指数函数,指数函数的图像如下:
AdaBoost算法公式形象的解释_第3张图片

如果指数小于0,指数函数会大于0且小于1,如果指数大于0,指数函数会大于1 。也就是说指数的大小决定着系数 w m + 1 w_{m+1} wm+1会增大还是减小。这样的话就要对 α m , y i G m ( x i ) \alpha_m,y_iG_m(x_i) αm,yiGm(xi)进行分情况讨论了。

项目 弱分类器(误差小于0.5, α m > 0 \alpha_m>0 αm>0) 错分类器(误差大于0.5, α m < 0 \alpha_m<0 αm<0
正确分类( y i G m ( x i ) = 1 y_iG_m(x_i)=1 yiGm(xi)=1) 权值减小 权值增大
错误分类 ( y i G m ( x i ) = − 1 y_iG_m(x_i)=-1 yiGm(xi)=1) 权值增大 权值减小

根据AdaBoost的算法思路:“提高那些被前一轮弱分类器错误分类样本的权值。” 我们可以看到上面表格中可以满足这一思路;另外,对于错分类器,我们只要把它的分类结果取反,它就变成了一个弱分类器,结果就像上表中所示。

在这里插入图片描述

最终分类器是所有弱分类器构成的,这里 α m \alpha_m αm也会起很大作用。首先对于弱分类器来说分类的错误率越低 α m \alpha_m αm的绝对值越大,相应的它在最终分类器中所占表决权越大;另外如果是错分类器 α m < 0 \alpha_m<0 αm<0,相当于把 G m ( x ) G_m(x) Gm(x)预测的结果取反,这样就成了弱分类器。

你可能感兴趣的:(统计学习方法)