99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁精彩閱讀文本分類常用算法比較
文本分類常用算法比較
2017-12-10
收藏

文本分類常用算法比較

本文對(duì)文本分類中的常用算法進(jìn)行了小結(jié),比較它們之間的優(yōu)劣,為算法的選擇提供依據(jù)。 

一、決策樹(Decision Trees)

優(yōu)點(diǎn): 

1、決策樹易于理解和解釋.人們?cè)谕ㄟ^解釋后都有能力去理解決策樹所表達(dá)的意義。 

2、對(duì)于決策樹,數(shù)據(jù)的準(zhǔn)備往往是簡單或者是不必要的.其他的技術(shù)往往要求先把數(shù)據(jù)一般化,比如去掉多余的或者空白的屬性。 

3、能夠同時(shí)處理數(shù)據(jù)型和常規(guī)型屬性。其他的技術(shù)往往要求數(shù)據(jù)屬性的單一。 

4、決策樹是一個(gè)白盒模型。如果給定一個(gè)觀察的模型,那么根據(jù)所產(chǎn)生的決策樹很容易推出相應(yīng)的邏輯表達(dá)式。 

5、易于通過靜態(tài)測試來對(duì)模型進(jìn)行評(píng)測。表示有可能測量該模型的可信度。

6、在相對(duì)短的時(shí)間內(nèi)能夠?qū)Υ笮蛿?shù)據(jù)源做出可行且效果良好的結(jié)果。

7、可以對(duì)有許多屬性的數(shù)據(jù)集構(gòu)造決策樹。 

8、決策樹可很好地?cái)U(kuò)展到大型數(shù)據(jù)庫中,同時(shí)它的大小獨(dú)立于數(shù)據(jù)庫的大小。  

缺點(diǎn): 

1、對(duì)于那些各類別樣本數(shù)量不一致的數(shù)據(jù),在決策樹當(dāng)中,信息增益的結(jié)果偏向于那些具有更多數(shù)值的特征

2、決策樹處理缺失數(shù)據(jù)時(shí)的困難。

3、過度擬合問題的出現(xiàn)。 

4、忽略數(shù)據(jù)集中屬性之間的相關(guān)性。 

二、人工神經(jīng)網(wǎng)絡(luò)

優(yōu)點(diǎn):

分類的準(zhǔn)確度高,并行分布處理能力強(qiáng),分布存儲(chǔ)及學(xué)習(xí)能力強(qiáng),對(duì)噪聲神經(jīng)有較強(qiáng)的魯棒性和容錯(cuò)能力,能充分逼近復(fù)雜的非線性關(guān)系,具備聯(lián)想記憶的功能等。 

缺點(diǎn):

神經(jīng)網(wǎng)絡(luò)需要大量的參數(shù),如網(wǎng)絡(luò)拓?fù)浣Y(jié)構(gòu)、權(quán)值和閾值的初始值;不能觀察之間的學(xué)習(xí)過程,輸出結(jié)果難以解釋,會(huì)影響到結(jié)果的可信度和可接受程度;學(xué)習(xí)時(shí)間過長,甚至可能達(dá)不到學(xué)習(xí)的目的。 

三、遺傳算法 

優(yōu)點(diǎn): 

1、與問題領(lǐng)域無關(guān)切快速隨機(jī)的搜索能力。 

2、搜索從群體出發(fā),具有潛在的并行性,可以進(jìn)行多個(gè)個(gè)體的同時(shí)比較,魯棒性好。 

3、搜索使用評(píng)價(jià)函數(shù)啟發(fā),過程簡單。

4、使用概率機(jī)制進(jìn)行迭代,具有隨機(jī)性。

5、具有可擴(kuò)展性,容易與其他算法結(jié)合。  

缺點(diǎn): 

1、遺傳算法的編程實(shí)現(xiàn)比較復(fù)雜,首先需要對(duì)問題進(jìn)行編碼,找到最優(yōu)解之后還需要對(duì)問題進(jìn)行解碼, 

2、另外三個(gè)算子的實(shí)現(xiàn)也有許多參數(shù),如交叉率和變異率,并且這些參數(shù)的選擇嚴(yán)重影響解的品質(zhì),而目前這些參數(shù)的選擇大部分是依靠經(jīng)驗(yàn).沒有能夠及時(shí)利用網(wǎng)絡(luò)的反饋信息,故算法的搜索速度比較慢,要得到比較精確的解需要較多的訓(xùn)練時(shí)間。 

3、算法對(duì)初始種群的選擇有一定的依賴性,能夠結(jié)合一些啟發(fā)算法進(jìn)行改進(jìn)。 

四、KNN算法(K-Nearest Neighbour)  

優(yōu)點(diǎn): 

1、簡單、有效。 

2、重新訓(xùn)練的代價(jià)較低(類別體系的變化和訓(xùn)練集的變化,在Web環(huán)境和電子商務(wù)應(yīng)用中是很常見的)。 

3、計(jì)算時(shí)間和空間線性于訓(xùn)練集的規(guī)模(在一些場合不算太大)。 

4、由于KNN方法主要靠周圍有限的鄰近的樣本,而不是靠判別類域的方法來確定所屬類別的,因此對(duì)于類域的交叉或重疊較多的待分樣本集來說,KNN方法較其他方法更為適合。 

5、該算法比較適用于樣本容量比較大的類域的自動(dòng)分類,而那些樣本容量較小的類域采用這種算法比較容易產(chǎn)生誤分。  

缺點(diǎn): 

1、KNN算法是懶散學(xué)習(xí)方法(lazy learning,基本上不學(xué)習(xí)),比一些積極學(xué)習(xí)的算法要快很多。 

2、類別評(píng)分不是規(guī)格化的(不像概率評(píng)分)。 

3、輸出的可解釋性不強(qiáng),例如決策樹的可解釋性較強(qiáng)。 

4、該算法在分類時(shí)有個(gè)主要的不足是,當(dāng)樣本不平衡時(shí),如一個(gè)類的樣本容量很大,而其他類樣本容量很小時(shí),有可能導(dǎo)致當(dāng)輸入一個(gè)新樣本時(shí),該樣本的K個(gè)鄰居中大容量類的樣本占多數(shù)。該算法只計(jì)算“最近的”鄰居樣本,某一類的樣本數(shù)量很大,那么或者這類樣本并不接近目標(biāo)樣本,或者這類樣本很靠近目標(biāo)樣本。無論怎樣,數(shù)量并不能影響運(yùn)行結(jié)果??梢圆捎脵?quán)值的方法(和該樣本距離小的鄰居權(quán)值大)來改進(jìn)。 

5、計(jì)算量較大。目前常用的解決方法是事先對(duì)已知樣本點(diǎn)進(jìn)行剪輯,事先去除對(duì)分類作用不大的樣本。 

五、支持向量機(jī)SVM

優(yōu)點(diǎn): 

1、可以解決小樣本情況下的機(jī)器學(xué)習(xí)問題。

2、可以提高泛化性能。

3、可以解決高維問題。

4、可以解決非線性問題。 

5、可以避免神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)選擇和局部極小點(diǎn)問題。 

缺點(diǎn): 

1、對(duì)缺失數(shù)據(jù)敏感。

2、對(duì)非線性問題沒有通用解決方案,必須謹(jǐn)慎選擇Kernelfunction來處理。 

六、樸素貝葉斯 

優(yōu)點(diǎn): 

1、樸素貝葉斯模型發(fā)源于古典數(shù)學(xué)理論,有著堅(jiān)實(shí)的數(shù)學(xué)基礎(chǔ),以及穩(wěn)定的分類效率。   

2、NBC模型所需估計(jì)的參數(shù)很少,對(duì)缺失數(shù)據(jù)不太敏感,算法也比較簡單。

缺點(diǎn): 

1、理論上,NBC模型與其他分類方法相比具有最小的誤差率。但是實(shí)際上并非總是如此,這是因?yàn)镹BC模型假設(shè)屬性之間相互獨(dú)立,這個(gè)假設(shè)在實(shí)際應(yīng)用中往往是不成立的(可以考慮用聚類算法先將相關(guān)性較大的屬性聚類),這給NBC模型的正確分類帶來了一定影響。在屬性個(gè)數(shù)比較多或者屬性之間相關(guān)性較大時(shí),NBC模型的分類效率比不上決策樹模型。而在屬性相關(guān)性較小時(shí),NBC模型的性能最為良好。 

2、需要知道先驗(yàn)概率

3、分類決策存在錯(cuò)誤率 

七、Adaboosting方法 

1、adaboost是一種有很高精度的分類器。 

2、可以使用各種方法構(gòu)建子分類器,Adaboost算法提供的是框架。 

3、當(dāng)使用簡單分類器時(shí),計(jì)算出的結(jié)果是可以理解的。而且弱分類器構(gòu)造極其簡單。 

4、簡單,不用做特征篩選。

5、不用擔(dān)心overfitting。 

八、Rocchio算法 

優(yōu)點(diǎn):

容易實(shí)現(xiàn),計(jì)算(訓(xùn)練和分類)特別簡單,它通常用來實(shí)現(xiàn)衡量分類系統(tǒng)性能的基準(zhǔn)系統(tǒng),而實(shí)用的分類系統(tǒng)很少采用這種算法解決具體的分類問題。 

九、各種分類算法綜合比較

Calibrated boosted trees的性能最好,

隨機(jī)森林第二,

uncalibrated bagged trees第三,

calibratedSVMs第四,

uncalibrated neural nets第五。    

性能較差的是樸素貝葉斯,決策樹。    

有些算法在特定的數(shù)據(jù)集下表現(xiàn)較好。


數(shù)據(jù)分析咨詢請(qǐng)掃描二維碼

若不方便掃碼,搜微信號(hào):CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機(jī)數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進(jìn)行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個(gè)參數(shù)驗(yàn)證碼對(duì)象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個(gè)配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺(tái)檢測極驗(yàn)服務(wù)器是否宕機(jī) new_captcha: data.new_captcha, // 用于宕機(jī)時(shí)表示是新驗(yàn)證碼的宕機(jī) product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說明請(qǐng)參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計(jì)時(shí)完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請(qǐng)輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請(qǐng)輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }