模型如何根據(jù)樣本的權(quán)重來進行調(diào)整:
在更新樣本權(quán)重之后,模型會通過更改自身模型的形狀,更加小心的對待這些權(quán)重大的樣本,從而達到這樣一個效果!犧牲權(quán)重小的樣本,嘗試將權(quán)重大的樣本預(yù)測正確。這時,模型會在每一次分類的情況下計算分類之后的誤差率,選擇誤差率最小的分類結(jié)果
adaboost在處理多分類問題時,可參考邏輯回歸將多分類問題轉(zhuǎn)化為二分類問題。
如果存在樣本不均衡的問題,那么可以在基分類器決策樹中通過class_weight參數(shù)設(shè)置
adaboost方法只有在訓練集中中的數(shù)據(jù)通過擬合的模型全部預(yù)測正確之后,才會停止迭代,否則會一直迭代下去,在實際的代碼實現(xiàn)中可以通過參數(shù)n_eatimators的設(shè)置來控制模型迭代的次數(shù)
adaboost可以解決模型的欠擬合問題,但是會出現(xiàn)嚴重的過擬合
1/2法則:
在adaboost中,預(yù)測正確的樣本的權(quán)重和肯定是0.5,預(yù)測錯誤的樣本的權(quán)重和也肯定是0.5
當前這次一次迭代,預(yù)測錯的樣本,這些樣本在進行增加權(quán)重之后能,增加權(quán)重后的樣本總和肯定為1/2
當前這次一次迭代,預(yù)測正確的樣本,這些樣本在減小權(quán)重之后能,這些樣本新權(quán)重總也肯定為1/2
代碼:
adaboot的基分類器可以自己選擇,可以是決策樹、邏輯回歸、高斯回歸,甚至是集成算法中的隨機森林、Adaboost本身也可以,但是基分類器種類確定之后,所有的基分類器都是同一個種類。
sample_weight,在決策樹/邏輯回歸中,fit和score中有這樣一個參數(shù),可以通過這個參數(shù)的設(shè)置來進行權(quán)重的設(shè)置
必須要有sample_weight的參數(shù)才能放入到adaboost模型中
分類問題,必須使用AdaBoostClassifier,并且基分類器也是分類型
回歸問題,必須使用AdaRegresser,并且基分類器必須是回歸類的








暫無數(shù)據(jù)