# Boosting

Boosting, Bagging, Stacking -- combining weaker classifier into a good one.

### Adaboost:

> AdaBoost是英文"Adaptive Boosting"（自适应增强）的缩写，它的自适应在于：前一个基本分类器被错误分类的样本的权值会增大，而正确分类的样本的权值会减小，并再次用来训练下一个基本分类器。同时，在每一轮迭代中，加入一个新的弱分类器，直到达到某个预定的足够小的错误率或达到预先指定的最大迭代次数才确定最终的强分类器。
>
> Adaboost算法可以简述为三个步骤：&#x20;
>
> （1）首先，是初始化训练数据的权值分布D1。假设有N个训练样本数据，则每一个训练样本最开始时，都被赋予相同的权值：w1=1/N。&#x20;
>
> （2）然后，训练弱分类器hi。具体训练过程中是：如果某个训练样本点，被弱分类器hi准确地分类，那么在构造下一个训练集中，它对应的权值要减小；相反，如果某个训练样本点被错误分类，那么它的权值就应该增大。权值更新过的样本集被用于训练下一个分类器，整个训练过程如此迭代地进行下去。&#x20;
>
> （3）最后，将各个训练得到的弱分类器组合成一个强分类器。各个弱分类器的训练过程结束后，加大分类误差率小的弱分类器的权重，使其在最终的分类函数中起着较大的决定作用，而降低分类误差率大的弱分类器的权重，使其在最终的分类函数中起着较小的决定作用。
>
> 误差率低的弱分类起在最终分类器中占的权重较大，否则较小。

### Compare Boosting with Bagging:

> Bagging和Boosting都是将已有的分类或回归算法通过一定方式组合起来，形成一个性能更加强大的分类器，更准确的说这是一种分类算法的组装方法。即将弱分类器组装成强分类器的方法。
>
> 首先介绍Bootstraping，即自助法：它是一种有放回的抽样方法（可能抽到重复的样本）。
>
> 1、Bagging (bootstrap aggregating)
>
> Bagging即套袋法，其算法过程如下：
>
> A）从原始样本集中抽取训练集。每轮从原始样本集中使用Bootstraping的方法抽取n个训练样本（在训练集中，有些样本可能被多次抽取到，而有些样本可能一次都没有被抽中）。共进行k轮抽取，得到k个训练集。（k个训练集之间是相互独立的）
>
> B）每次使用一个训练集得到一个模型，k个训练集共得到k个模型。（注：这里并没有具体的分类算法或回归方法，我们可以根据具体问题采用不同的分类或回归方法，如决策树、感知器等）
>
> C）对分类问题：将上步得到的k个模型采用投票的方式得到分类结果；对回归问题，计算上述模型的均值作为最后的结果。（所有模型的重要性相同）
>
> 2、Boosting
>
> 其主要思想是将弱分类器组装成一个强分类器。在PAC（概率近似正确）学习框架下，则一定可以将弱分类器组装成一个强分类器。
>
> 关于Boosting的两个核心问题：
>
> 1）在每一轮如何改变训练数据的权值或概率分布？
>
> 通过提高那些在前一轮被弱分类器分错样例的权值，减小前一轮分对样例的权值，来使得分类器对误分的数据有较好的效果。
>
> 2）通过什么方式来组合弱分类器？
>
> 通过加法模型将弱分类器进行线性组合，比如AdaBoost通过加权多数表决的方式，即增大错误率小的分类器的权值，同时减小错误率较大的分类器的权值。
>
> 而提升树通过拟合残差的方式逐步减小残差，将每一步生成的模型叠加得到最终模型。
>
> 3、Bagging，Boosting二者之间的区别
>
> Bagging和Boosting的区别：
>
> 1）样本选择上：
>
> Bagging：训练集是在原始集中有放回选取的，从原始集中选出的各轮训练集之间是独立的。
>
> Boosting：每一轮的训练集不变，只是训练集中每个样例在分类器中的权重发生变化。而权值是根据上一轮的分类结果进行调整。
>
> 2）样例权重：
>
> Bagging：使用均匀取样，每个样例的权重相等
>
> Boosting：根据错误率不断调整样例的权值，错误率越大则权重越大。
>
> 3）预测函数：
>
> Bagging：所有预测函数的权重相等。
>
> Boosting：每个弱分类器都有相应的权重，对于分类误差小的分类器会有更大的权重。
>
> 4）并行计算：
>
> Bagging：各个预测函数可以并行生成
>
> Boosting：各个预测函数只能顺序生成，因为后一个模型参数需要前一轮模型的结果。
>
> 4、总结
>
> 这两种方法都是把若干个分类器整合为一个分类器的方法，只是整合的方式不一样，最终得到不一样的效果，将不同的分类算法套入到此类算法框架中一定程度上会提高了原单一分类器的分类效果，但是也增大了计算量。
>
> **下面是将决策树与这些算法框架进行结合所得到的新的算法：**
>
> **1）Bagging + 决策树 = 随机森林**
>
> **2）AdaBoost + 决策树 = 提升树**
>
> **3）Gradient Boosting + 决策树 = GBDT**

### Gradient Boost Decision Tree

> Gradient Boosting是一种实现Boosting的方法，它的主要思想是，每一次建立模型，是在之前建立模型损失函数的梯度下降方向。损失函数描述的是模型的不靠谱程度，损失函数越大，说明模型越容易出错。如果我们的模型能够让损失函数持续的下降，说明我们的模型在不停的改进，而最好的方式就是让损失函数在其梯度的方向下降。
>
> 以代表性的**GBDT**为例子：（《统计学习方法》中的例子也很好理解）
>
> 举一个简单的例子。GBDT的核心就在于，每一棵树学的是之前所有树结论和的残差，这个残差就是一个加预测值后能得真实值的累加量。比如A的真实年龄是18岁，我们训练的时候，第一棵树的拟合过后预测年龄是12岁，我们与真实数据比对差了6岁，即残差为6岁。那么在第二棵树里我们把A的年龄设为6岁去拟合学习，如果第二棵树真的能把A分到6岁的叶子节点，那累加两棵树的结论就是A的真实年龄；如果第二棵树的结论是5岁，则A仍然存在1岁的残差，第三棵树里A的年龄就变成1岁，继续学。\
> 如果还有疑问，请看下面这个例子：\
> 还是年龄预测，简单起见训练集只有4个人，A,B,C,D，他们的年龄分别是14,16,24,26。其中A、B分别是高一和高三学生；C,D分别是应届毕业生和工作两年的员工。如果是用一棵传统的回归决策树来训练，会得到如下图1所示结果：![](https://pic3.zhimg.com/v2-7cebc8578c4836dd4271c95a00f3964a_b.jpg)![](https://pic3.zhimg.com/80/v2-7cebc8578c4836dd4271c95a00f3964a_hd.jpg)
>
> 这是一棵普通的回归树，我们可以看到，我们通过年龄平均值将少年和青年分开\
> ，再用上网时长将每个分支继续细分到不能分割或者达到要求为止。\
> 接下来看BDT实现：
>
> \
> ![](https://pic4.zhimg.com/v2-4e89e7f7d1c7e5668d60db98ab1d8b17_b.jpg)![](https://pic4.zhimg.com/80/v2-4e89e7f7d1c7e5668d60db98ab1d8b17_hd.jpg)
>
> 在第一棵树分枝和图1一样，由于A,B年龄较为相近，C,D年龄较为相近，他们被分为两拨，每拨用平均年龄作为预测值。此时计算残差（残差的意思就是： A的预测值 + A的残差 = A的实际值），所以A的残差就是16-15=1（注意，A的预测值是指前面所有树累加的和，这里前面只有一棵树所以直接是15，如果还有树则需要都累加起来作为A的预测值）。进而得到A,B,C,D的残差分别为-1,1，-1,1。然后我们拿残差替代A,B,C,D的原值，到第二棵树去学习，如果我们的预测值和它们的残差相等，则只需把第二棵树的结论累加到第一棵树上就能得到真实年龄了。这里的数据显然是我可以做的，第二棵树只有两个值1和-1，直接分成两个节点。此时所有人的残差都是0，即每个人都得到了真实的预测值。
>
> 换句话说，现在A,B,C,D的预测值都和真实年龄一致了:
>
> 1. 14岁高一学生，购物较少，经常问学长问题；预测年龄A = 15 – 1 = 14
> 2. 16岁高三学生；购物较少，经常被学弟问问题；预测年龄B = 15 + 1 = 16
> 3. 24岁应届毕业生；购物较多，经常问师兄问题；预测年龄C = 25 – 1 = 24
> 4. 26岁工作两年员工；购物较多，经常被师弟问问题；预测年龄D = 25 + 1 = 26
>
> GBDT核心思想就是这样，但是既然普通的树和GBDT结果一样，那为什么还需要GBDT呢？\
> 原因就是过拟合。过拟合就是模型在训练数据集上表现的过于好，分的过于细。以致于容错能力很低，也可以称作”泛化能力“低。这就会导致在实际测试数据中表现明显差很多。我们发现图1为了达到100%精度使用了3个feature（上网时长、时段、网购金额），其中分枝“上网时长>1.1h” 很显然已经过拟合了，这个数据集上A,B也许恰好A每天上网1.09h, B上网1.05小时，但用上网时间是不是>1.1小时来判断所有人的年龄很显然是有悖常识的；\
> 相对来说图2的boosting虽然用了两棵树 ，但其实只用了2个feature就搞定了，后一个feature是问答比例，显然图2的依据更靠谱（这是杜撰的数据，为了显示效果夸张的一下，实际有实验证明以上论点）。
