2021-03-04
閱讀量:
467
邏輯回歸過擬合是在包里怎么處理的
問:
邏輯回歸過擬合是在包里怎么處理的
答:
sklearn中在邏輯回歸模型處理過擬合現(xiàn)象主要是通過設(shè)置penalty參數(shù),penalty的說明如下:
penalty='l2'
: 字符串‘l1’或‘l2’,默認(rèn)‘l2’。
用來指定懲罰的基準(zhǔn)(正則化參數(shù))。只有‘l2’支持‘newton-cg’、‘sag’和‘lbfgs’這三種算法。
如果選擇‘l2’,solver參數(shù)可以選擇‘liblinear’、‘newton-cg’、‘sag’和‘lbfgs’這四種算法;如果選擇‘l1’的話就只能用‘liblinear’算法。
如果選擇L2正則化發(fā)現(xiàn)還是過擬合,即預(yù)測效果差的時候,就可以考慮L1正則化;如果模型的特征非常多,希望一些不重要的特征系數(shù)歸零,從而讓模型系數(shù)稀疏化的話,也可以使用L1正則化,也就是對特征做了篩選。






評論(0)


暫無數(shù)據(jù)
推薦帖子
0條評論
0條評論
0條評論