99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁(yè)大數(shù)據(jù)時(shí)代樸素貝葉斯(Naive Bayes)和校正曲線(Calibration Curve)
樸素貝葉斯(Naive Bayes)和校正曲線(Calibration Curve)
2020-06-10
收藏

算法回顧

圖片來(lái)源:https://medium.com/machine-learning-101/chapter-1-supervised-learning-and-naive-bayes-classification-part-1-theory-8b9e361897d5

貝葉斯分類(lèi)算法屬于有監(jiān)督機(jī)器學(xué)習(xí)(Supervised Learning)。貝葉斯分類(lèi)器是一類(lèi)分類(lèi)算法的總稱(chēng),這類(lèi)算法均以貝葉斯定理為基礎(chǔ),故統(tǒng)稱(chēng)為貝葉斯分類(lèi)。其中樸素貝葉斯分分類(lèi)是貝葉斯分類(lèi)中最簡(jiǎn)單的,也是最常見(jiàn)的一種分類(lèi)方法。

樸素貝葉斯分類(lèi)算法的核心如下公式:

P(A):它是先驗(yàn)該率(Prior Probability),是A發(fā)生的概率。

P(B): 是邊際可能性(Marginal Likelihood):是B發(fā)生的概率。

P(B|A):是可能性(likelihood),基于給定的A,B發(fā)生的概率,即已知A發(fā)生,B發(fā)生的概率。

P(A|B):是后驗(yàn)概率(Posterior Probability):基于給定的B,A發(fā)生的概率,即已知B發(fā)生,A發(fā)生的概率。

換個(gè)表達(dá)式可能理解的就會(huì)更加透徹:

以下是從Udemy上借鑒的一個(gè)例子:

假設(shè)有兩個(gè)特征,分別為工資(Salary)和年齡(Age),已知有兩種分類(lèi)分別為:步行(Walks)和自駕(Drives),如上圖所示。

當(dāng)有一個(gè)新數(shù)據(jù)點(diǎn)進(jìn)來(lái)時(shí)(如灰色點(diǎn)),基于給定它的特征工資和年齡,應(yīng)該把它分為哪類(lèi)?

其中,$P(Walks) = {10} \over {30}$,$P(Drives)={20} \over {30}$。

首先計(jì)算P(Walks|X)的概率,可以參見(jiàn)如下公式:

首先,需要自定義一個(gè)參考集,如下圖中虛線所示。

  • 先驗(yàn)概率(步行上班發(fā)生的概率)為:$P(Walks)={10} \over {40}$;
  • 邊際可能性為:$P(X)={4} \over {30}$;
  • 可能性為:$P(X|Walks)={3} \over {10}$;
  • 后驗(yàn)概率(給定特征情況下,步行上班發(fā)生的概率)為:$P(Walks|X) = {0.3 * 0.25} \over {4 \over 30} = 0.75$。

計(jì)算$P(Walks|X)$后計(jì)算$P(Drivers|X)$,通過(guò)比較兩個(gè)概率的大小,來(lái)決定灰色點(diǎn)屬于哪類(lèi)(Walks 或者 Drives)。通過(guò)比較不難得出灰色點(diǎn)屬于“步行上班”類(lèi)別(此處省略計(jì)算過(guò)程)。

機(jī)器學(xué)習(xí)中,樸素貝葉斯分類(lèi)器是基于貝葉斯理論(該理論中有很強(qiáng)的特征間獨(dú)立性假設(shè))的一個(gè)簡(jiǎn)單“概率分類(lèi)”的家族。因此,樸素貝葉斯分類(lèi)算法屬于概率的機(jī)器學(xué)習(xí)(probabilistic machine learning),并且可應(yīng)用于很多分類(lèi)的任務(wù)中。典型的應(yīng)用有垃圾郵件篩選(filtering spam),分類(lèi)文件(classifying documents),情緒預(yù)測(cè)(sentiment prediction)。

在scikit-learn中,一共提供三種樸素貝葉斯的方法,分別為高斯樸素貝葉斯(Gaussian Naive Bayes)、二項(xiàng)式樸素貝葉斯(Multinomial Naive Bayes),伯努利樸素貝葉斯(Bernoulli Naive Bayes)和補(bǔ)足樸素貝葉斯(Complement Naive Bayes)。官方文檔中給出以高斯樸素貝葉斯為例的代碼,示例如下:

>>> from sklearn.datasets import load_iris
>>> from sklearn.model_selection import train_test_split
>>> from sklearn.naive_bayes import GaussianNB
>>> X, y = load_iris(return_X_y=True)
>>> X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.5, random_state=0)
>>> gnb = GaussianNB()
>>> y_pred = gnb.fit(X_train, y_train).predict(X_test)
>>> print("Number of mislabeled points out of a total %d points : %d"
...       % (X_test.shape[0], (y_test != y_pred).sum()))
Number of mislabeled points out of a total 75 points : 4 

概率校正

分類(lèi)概率在一些機(jī)器模型中應(yīng)用廣泛,在scikit-learn中,大多數(shù)機(jī)器學(xué)習(xí)算法通過(guò)使用predict_proba函數(shù),允許計(jì)算樣本各類(lèi)別的概率。這個(gè)功能對(duì)于一些情況下是極為有效的,例如,如果某一類(lèi)的模型預(yù)測(cè)概率是大于歐90%的。但是,包括樸素貝葉斯等模型,它的模型預(yù)測(cè)概率與現(xiàn)實(shí)中的概率不盡相同。例如,函數(shù)predict_proba預(yù)測(cè)某個(gè)樣本屬于某類(lèi)的樣本概率是70%,而實(shí)際只有0.1或者0.99。尤其對(duì)于樸素貝葉斯模型而言,盡管不同目標(biāo)類(lèi)的預(yù)測(cè)概率有效(valid),但原始概率往往采用接僅0和1的極端值。

為了得到有意義的預(yù)測(cè)概率,需要采用模型“校正”(calibration)。在scikit-learn中,使用CalibratedClassifierCV分類(lèi),通過(guò)k折交叉驗(yàn)證(k-fold cross-validation)來(lái)生成“好的”校正的預(yù)測(cè)概率。在CalibratedClassifierCV中,訓(xùn)練集用于訓(xùn)練模型,測(cè)試集用于矯正模型預(yù)測(cè)概率。返回的預(yù)測(cè)概率是k-fold的均值。詳見(jiàn)參考 文章。

代碼示例如下:

# 導(dǎo)入相關(guān)的庫(kù) 
from sklearn import datasets
from sklearn.naive_bayes import GaussianNB
from sklearn.calibration import CalibratedClassifierCV 

# 載入鶯尾花數(shù)據(jù)集 
iris = datasets.load_iris()
X = iris.data
y = iris.target 

# 構(gòu)建樸素貝葉斯分類(lèi)對(duì)象 
clf = GaussianNB() 

# 構(gòu)建校正器 
clf_sigmoid = CalibratedClassifierCV(clf, cv=2, method='sigmoid') 

# 構(gòu)建帶有校正概率的分類(lèi)器 
clf_sigmoid.fit(X, y) 

# 構(gòu)建新樣本 
new_observation = [[ 2.6,  2.6,  2.6,  0.4]]

# 得到矯正后的概率 
clf_sigmoid.predict_proba(new_observation) 

根據(jù)Alexandru和Rich在2005年發(fā)表的題為“Predicting Good Probabilities With Supervised Learning”論文[1]中指出:對(duì)于樸素貝葉斯模型而言,對(duì)于不同校正集合的大小,Isotonic Regression的表現(xiàn)都優(yōu)于Platt Scaling方法(在CalibratedClassifierCV中,用參數(shù)method定義)。因此,這對(duì)樸素貝葉斯模型的參數(shù)設(shè)置,可以?xún)?yōu)先考慮Isotonic Regression方法。

參考文章:

[1] Niculescu-Mizil, A., & Caruana, R. (2005, August). Predicting good probabilities with supervised learning. In Proceedings of the 22nd international conference on Machine learning (pp. 625-632).

數(shù)據(jù)分析咨詢(xún)請(qǐng)掃描二維碼

若不方便掃碼,搜微信號(hào):CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢(xún)
客服在線
立即咨詢(xún)
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機(jī)數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進(jìn)行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個(gè)參數(shù)驗(yàn)證碼對(duì)象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個(gè)配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺(tái)檢測(cè)極驗(yàn)服務(wù)器是否宕機(jī) new_captcha: data.new_captcha, // 用于宕機(jī)時(shí)表示是新驗(yàn)證碼的宕機(jī) product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說(shuō)明請(qǐng)參見(jiàn):http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計(jì)時(shí)完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請(qǐng)輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請(qǐng)輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }