https://blog.csdn.net/qq547276542/article/details/78304454?utm_medium=distribute.pc_relevant_t0.none-task-blog-OPENSEARCH-1.nonecase&depth_1-utm_source=distribute.pc_relevant_t0.none-task-blog-OPENSEARCH-1.nonecase
可以看到样本会有权值,每个分类器也会有权值,而且误差越小的分类器权值越大,这样你就好理解了吧。
而且它的每个分类器不是并行同事存在的,而是时间顺序的,是依次的
所以周志华这么分类集成学习的嘛,现在就理解了为什么。
boosting是个体学习器间存在强依赖关系,必须串行生成的序列化方法(我感觉就是一个嘛,一个不断变变变依次变出多个)
bagging个体学习器间不存在强依赖关系,可同时生成的并行化方法。
boosting本质我感觉就一个分类器在那反复训练,当然是偏差小,方差大些。拟合程度高些。
bagging是多个分类器,当然方差小嘛,普适性可能更好些。
感觉boosting和bagging所应对的不是一类问题,两种方法似乎有种辩证法般的对立关系。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)