集成学习归纳总结

       集成学习通过建立几个模型来解决单一预测问题。它的工作原理是生成多个分类器/模型,各自独立地学习和作出预测。这些预测最后结合成组合预测,因此优于任何一个单分类的做出预测.
       弱分类器&强分类器(弱学习器&强学习器):一个分类器的分类准确在60%-80%,即:比随机预测略好,但准确率却不太高,我们可以称之为“弱分类器”,比如CART(classification and regression tree分类与回归树)。反之,如果分类精度90%以上,则是强分类器。

一、bagging集成原理

step1:在所有数据集中随机采取一部分数据集如图,采取三个样本。
step2:对三个样本进行训练分类器。
step3:如果是分类算法预测,则T个弱学习器投出最多票数的类别或者类别之一为最终类别。如果是回归算法,T个弱学习器得到的回归结果进行算术平均得到的值为最终的模型输出。(上图为分类算法)
注:bagging集成优点
​ Bagging + 决策树/线性回归/逻辑回归/深度学习… = bagging集成学习方法

集成学习归纳总结最先出现在Python成神之路

版权声明:
作者:Mr李
链接:https://www.techfm.club/p/10105.html
来源:TechFM
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>