2021-04-07
閱讀量:
795
集成模型選擇Bagging算法還是Boosting 好?
問:
集成模型選擇Bagging算法還是Boosting 好?
答:
可以根據(jù)bagging和boosting的特點進(jìn)行選擇:
1. 并?計算方面
Bagging:各個預(yù)測函數(shù)可以并??成,對于極為耗時的學(xué)習(xí)?法, Bagging可通過并?訓(xùn)練
節(jié)省?量時間開銷。
Boosting:各個預(yù)測函數(shù)只能順序?成,因為后?個模型參數(shù)需要前?輪模型的結(jié)果。
2. 擬合程度
單個評估器存在過擬合問題的時候, Bagging能在?定程度上解決過擬合問題,?Boosting
可能會加劇過擬合的問題。
單個評估其學(xué)習(xí)能?較弱的時候, Bagging?法提升模型表現(xiàn), Boosting有?定可能提升模
型的表現(xiàn)。
3. 算法?標(biāo)
Bagging:降低?差,提?模型整體的穩(wěn)定性。
Boosting:降低偏差,提?模型整體的精確度。
Bagging和Boosting都可以有效地提?分類的準(zhǔn)確性。在?多數(shù)數(shù)據(jù)集中, Boosting的準(zhǔn)確
性要?于Bagging






評論(0)


暫無數(shù)據(jù)
推薦帖子
0條評論
0條評論
0條評論