2021-03-04
閱讀量:
498
邏輯回歸過(guò)擬合是在包里怎么處理的
問(wèn):
邏輯回歸過(guò)擬合是在包里怎么處理的
答:
sklearn中在邏輯回歸模型處理過(guò)擬合現(xiàn)象主要是通過(guò)設(shè)置penalty參數(shù),penalty的說(shuō)明如下:
penalty='l2'
: 字符串‘l1’或‘l2’,默認(rèn)‘l2’。
用來(lái)指定懲罰的基準(zhǔn)(正則化參數(shù))。只有‘l2’支持‘newton-cg’、‘sag’和‘lbfgs’這三種算法。
如果選擇‘l2’,solver參數(shù)可以選擇‘liblinear’、‘newton-cg’、‘sag’和‘lbfgs’這四種算法;如果選擇‘l1’的話就只能用‘liblinear’算法。
如果選擇L2正則化發(fā)現(xiàn)還是過(guò)擬合,即預(yù)測(cè)效果差的時(shí)候,就可以考慮L1正則化;如果模型的特征非常多,希望一些不重要的特征系數(shù)歸零,從而讓模型系數(shù)稀疏化的話,也可以使用L1正則化,也就是對(duì)特征做了篩選。






評(píng)論(0)


暫無(wú)數(shù)據(jù)
CDA考試動(dòng)態(tài)
CDA報(bào)考指南
推薦帖子
0條評(píng)論
0條評(píng)論
0條評(píng)論
0條評(píng)論