2021-04-07
閱讀量:
836
集成模型選擇Bagging算法還是Boosting 好?
問:
集成模型選擇Bagging算法還是Boosting 好?
答:
可以根據(jù)bagging和boosting的特點(diǎn)進(jìn)行選擇:
1. 并?計(jì)算方面
Bagging:各個(gè)預(yù)測(cè)函數(shù)可以并??成,對(duì)于極為耗時(shí)的學(xué)習(xí)?法, Bagging可通過(guò)并?訓(xùn)練
節(jié)省?量時(shí)間開銷。
Boosting:各個(gè)預(yù)測(cè)函數(shù)只能順序?成,因?yàn)楹?個(gè)模型參數(shù)需要前?輪模型的結(jié)果。
2. 擬合程度
單個(gè)評(píng)估器存在過(guò)擬合問題的時(shí)候, Bagging能在?定程度上解決過(guò)擬合問題,?Boosting
可能會(huì)加劇過(guò)擬合的問題。
單個(gè)評(píng)估其學(xué)習(xí)能?較弱的時(shí)候, Bagging?法提升模型表現(xiàn), Boosting有?定可能提升模
型的表現(xiàn)。
3. 算法?標(biāo)
Bagging:降低?差,提?模型整體的穩(wěn)定性。
Boosting:降低偏差,提?模型整體的精確度。
Bagging和Boosting都可以有效地提?分類的準(zhǔn)確性。在?多數(shù)數(shù)據(jù)集中, Boosting的準(zhǔn)確
性要?于Bagging






評(píng)論(0)


暫無(wú)數(shù)據(jù)
CDA考試動(dòng)態(tài)
CDA報(bào)考指南
推薦帖子
0條評(píng)論
0條評(píng)論
0條評(píng)論
0條評(píng)論