中科院人工智能学院面试的时候有问到,集成学习有哪些方法,各自的优缺点。
是因为我在简历上写了KPI异常检测最后需要通过无监督学习或者集成学习来解决。
说实话我对集成学习的概念没那么清晰了,我只记得裴丹用的随机森林,我就把随机森林讲了下,但是说实话,还理解得不够透彻,因为事先也没有很细致地准备。
还有我以后再写不写基于LSTM的KPI异常检测的了,写基于集成学习的KPI异常检测。
boosting主要关注降低偏差,Bagging主要关注降低方差。周志华西瓜书190面。
集成学习的目的是通过结合多个基学习器的预测结果来改善单个学习器的泛化能力和鲁棒性。
目前主流方法有三种:
1.Boosting方法:包括Adaboost,GBDT, XGBoost等
2.Bagging方法:典型的是Random Forest
3.Stacking算法
。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)