99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
2018-10-23 閱讀量: 1371
SVM、LR、決策樹的對(duì)比?

SVM既可以用于分類問(wèn)題,也可以用于回歸問(wèn)題,并且可以通過(guò)核函數(shù)快速的計(jì)算,LR實(shí)現(xiàn)簡(jiǎn)單,訓(xùn)練速度非???,但是模型較為簡(jiǎn)單,決策樹容易過(guò)擬合,需要進(jìn)行剪枝等。

從優(yōu)化函數(shù)上看,soft margin的SVM用的是hinge loss,而帶L2正則化的LR對(duì)應(yīng)的是cross entropy loss,另外adaboost對(duì)應(yīng)的是exponential loss。所以LR對(duì)遠(yuǎn)點(diǎn)敏感,但是SVM對(duì)outlier不太敏感,因?yàn)橹魂P(guān)心support vector,SVM可以將特征映射到無(wú)窮維空間,但是LR不可以,一般小數(shù)據(jù)中SVM比LR更優(yōu)一點(diǎn),但是LR可以預(yù)測(cè)概率,而SVM不可以,SVM依賴于數(shù)據(jù)測(cè)度,需要先做歸一化,LR一般不需要,對(duì)于大量的數(shù)據(jù)LR使用更加廣泛,LR向多分類的擴(kuò)展更加直接,對(duì)于類別不平衡SVM一般用權(quán)重解決,即目標(biāo)函數(shù)中對(duì)正負(fù)樣本代價(jià)函數(shù)不同,LR可以用一般的方法,也可以直接對(duì)最后結(jié)果調(diào)整(通過(guò)閾值),一般小數(shù)據(jù)下樣本維度比較高的時(shí)候SVM效果要更優(yōu)一些。

0.0000
2
關(guān)注作者
收藏
評(píng)論(0)

發(fā)表評(píng)論

暫無(wú)數(shù)據(jù)
推薦帖子