2021-01-23
閱讀量:
1292
Adaboost中的learning_rate參數不明白
最優(yōu)化的算法是逐次逼近最優(yōu)值的,每次調整一小步,逐步趨向于最優(yōu)解。但是每一次更新參數利用多少誤差,就需要通過一個參數來控制,這個參數就是學習率,也稱為步長,控制每次權重調整的比例,官方解釋為Learning rate shrinks the contribution of each classifier by learning_rate






評論(0)


暫無數據
推薦帖子
0條評論
0條評論
0條評論