Adaboost学习笔记

Adaboost

自适应增强树

boosting过程

Boosting分类方法,其过程如下所示:

1.先通过对N个训练数据的学习得到第一个弱分类器h1;

2.将h1分错的数据和其他的新数据一起构成一个新的有N个训练数据的样本,通过对这个样本的学习得到第二个弱分类器h2;

3.将h1和h2都分错了的数据加上其他的新数据构成另一个新的有N个训练数据的样本,通过对这个样本的学习得到第三个弱分类器h3;

4.最终经过提升的强分类器h_final=Majority Vote(h1,h2,h3)。即某个数据被分为哪一类要通过h1,h2,h3的多数表决
上述Boosting算法,存在两个问题:

如何调整训练集,使得在训练集上训练弱分类器得以进行
如何将训练得到的各个弱分类器联合起来形成强分类器

针对以上两个问题,AdaBoost算法进行了调整:

1.使用加权后选取的训练数据代替随机选取的训练数据,这样将训练的焦点集中在比较难分的训练数据上
2.将弱分类器联合起来时,使用加权的投票机制代替平均投票机制。让分类效果好的弱分类器具有较大的权重,而分类效果差的分类器具有较小的权重

这个很好理解

上一篇:Less原理


下一篇:第十八节 css3动画之css权重