六、集成学习三、集成学习(Boosting、一)

Boosting

    个体学习器之间存在强依赖关系,必须串行生成基分类器的方法,提升(boosting)

常见提升算法:Adaboost、GBDT、lightBGM、XGBoost

一、Adaboost

    Adaboost是英文“Adaptive Boosting(自适应增强)”的缩写,其自适应在于:前一个基本分类器被错误分类的样本权值会增大(被抽样的概率会增大),而正确分类的样本的权值会减小,并再次用来训练下一个基本分类器。同时,在每一轮迭代中加入一个新的弱分类器,直到达到某个预定的足够小的错误率或者达到预先指定的最大迭代次数才确定最终的强分类器。

思想:将学习器的重点放在“易出错”的样本上。可以提升学习器的性能。

eg:原始训练数据集    {0,1,2,3,4,5,6,7,8,9}

        Boosting采样:    {7,2,6,7,5,4,8,8,1,0}

                                     {1,3,8,4,3,5,4,0,1,4}

                                     {4,9,4,2,44,3,0,1,4}

步骤:1、首先,是初始化训练数据的权值分布D1,假设有N个训练样本数据,则每个训练样本最开始时,都被赋予相同的权值     即

            2、然后,对于   m=1,2,...,M   ,使用具有权值分布训练数据集进行学习,得到弱分类器,具体的训练过程为:如果某个训练样本点,被弱分类器准确地分类,那么在构造下一个训练集中,其对应的权值要减小;相反则权值增大。权值更新过的样本集被用于训练下一个分类器,整个训练过程如此迭代地进行下去。

    a、计算在训练集上的分类误差率:

    b、计算在强分类器中所占的权重:

    c、更新训练集的权值分布(这里是归一化因子,为了使样本的概率分布和为1)

            3、最后,将各个训练得到的弱分类器组合成一个强分类器。各个弱分类器的训练过程结束后,加大分类误差率小的弱分类器的权重,使其在最终的分类函数中起7着较大的决定作用,而降低分类误差率大的弱分类器的权重,使其起较小的决定作用。

以上步骤中的核心问题在于 分类器的权重的确定,下面是证明

假设经过m-1伦迭代,得到弱分类器,根据向前分布,有:

Adaboost的代价函数是指数损失,则有:

对于上式,是已知的,所以将其前移

其中:是每轮迭代的样本权重,

继续化简

 Loss =  \sum_{i=1}^N  \tilde{w_{m,i}}  exp(-y_{i}\alpha _{m}G_{m}(x_{i}))  = \sum_{y_{i}=G_{m}(x_{i})}   \tilde{w_{m,i}}exp(-\alpha _{m}) + \sum_{y_{i}=G_{m}(x_{i})}   \tilde{w_{m,i}}exp(\alpha _{m})

=\sum_{i=1}^N \tilde{w_{m,i}}(\frac{\sum\nolimits_{y_{i}=G_{m}(x_{i})} \tilde{w_{m,i}}} {\sum_{i=1}^N\tilde{w_{m,i}}}exp(-\alpha _{m})+       \frac{\sum\nolimits_{y_{i}\neq G_{m}(x_{i})} \tilde{w_{m,i}}} {\sum_{i=1}^N\tilde{w_{m,i}}}exp(\alpha _{m}) )

其中,为分类误差率

所以

对求偏导,并令其为0,则有:

Adaboost可以看作是加法模型代价函数为指数函数、学习算法为前向分布算法时的二分类学习方法

from sklearn.ensembleimport AdaBoostClassifier

# adaboost模型

model = AdaBoostClassifier(DecisionTreeClassifier(max_depth=3),n_estimators=10)

# 训练模型

model.fit(x_data, y_data)

二、GBDT

a、BDT(Boosting Decision Tree)提升树

    提升树是以CART决策树为基学习器的集成学习方法


    提升树实际上就是加法模型和向前分布算法,将其表示为:

//初始化提升树

//为迭代m次,包含m棵决策树的提升树,为第m棵决策树

//包含M棵决策树的提升树

    在前向分布算法第m步时,给定当前的模型,求解:

得到第m棵决策树。不同问题的提升树的区别在于损失函数的不同,比如分类用指数损失函数回归使用平方误差损失

当提升树采用平方损失函数时,第m次迭代时表示为:

残差,所以第m棵决策树是对该残差的拟合。要注意的是提升树算法中的基学习器CART树是回归树


输入:训练集D={(x1,y1), (x2,y2),......,(xN,yN)}

1、初始化

2、For m = 1,2,......,M

3、    针对每一个样本计算残差                          

4、    利用训练一个决策树(回归树),得

5、    更新

6、完成以上迭代,得到提升树



b、GBDT(Gradient Boosting Decision Tree)梯度提升决策树

    GBDT = 梯度提升 + 决策树

利用最速下降的近似方法,利用损失函数的负梯度拟合基学习器:

以Loss为平方损失函数为例

代价函数:

对求导,则有:

残差r是梯度的相反数,即:

在GBDT中使用负梯度作为残差进行拟合。

过程

输入:训练集,

1、初始化:

2、for t=1 to T do

            计算负梯度:

            拟合残差得到基学习器:

            得到基学习器的权重:

            更新

GBDT与提升树的区别是残差使用梯度替代,且每个基学习器有对应的参数权重。

GBDT是使用梯度提升的决策树(CART),CART树回归将空间划分为K个不相交的区域,并确定每个区域的输出,数学表达式:



GBDT的流程(回归):

输入:训练集,

1、初始化:

2、for t=1 to T do

             计算负梯度:

            拟合残差得到回归树,得到第t棵树的叶节点区域:

            更新

3、得到加法模型:



GBDT的流程(分类):

    仍然使用CART回归树,使用softmax镜进行概率的映射,然后对概率的残差进行拟合

1、针对每个类别都先训练一个回归树,如三个类别,训练三棵树。就是比如对于样本为第二类,则输入三棵树分别为;这其实是典型的OneVsRest的多分类训练方式。而每棵树的训练过程就是CART的训练过程。这样,对于样本就得出了三棵树的预测值,模仿多分类的逻辑回归,用Softmax来产生概率,以类别1为例:

2、对每个分类分别计算残差,如类别1:,类别2:,类别3:

3、开始第二轮的训练,针对第一类,输入为,针对第二类输入为,针对第三类输入为,继续训练出三棵树。

4、重复3直到迭代M轮,就得到了最后的模型。预测时只要找出概率最高的即为对应的类别。

你可能感兴趣的:(六、集成学习三、集成学习(Boosting、一))