
算法回顧
圖片來(lái)源:https://medium.com/machine-learning-101/chapter-1-supervised-learning-and-naive-bayes-classification-part-1-theory-8b9e361897d5
貝葉斯分類算法屬于有監(jiān)督機(jī)器學(xué)習(xí)(Supervised Learning)。貝葉斯分類器是一類分類算法的總稱,這類算法均以貝葉斯定理為基礎(chǔ),故統(tǒng)稱為貝葉斯分類。其中樸素貝葉斯分分類是貝葉斯分類中最簡(jiǎn)單的,也是最常見(jiàn)的一種分類方法。
樸素貝葉斯分類算法的核心如下公式:
P(A):它是先驗(yàn)該率(Prior Probability),是A發(fā)生的概率。
P(B): 是邊際可能性(Marginal Likelihood):是B發(fā)生的概率。
P(B|A):是可能性(likelihood),基于給定的A,B發(fā)生的概率,即已知A發(fā)生,B發(fā)生的概率。
P(A|B):是后驗(yàn)概率(Posterior Probability):基于給定的B,A發(fā)生的概率,即已知B發(fā)生,A發(fā)生的概率。
換個(gè)表達(dá)式可能理解的就會(huì)更加透徹:
以下是從Udemy上借鑒的一個(gè)例子:
假設(shè)有兩個(gè)特征,分別為工資(Salary)和年齡(Age),已知有兩種分類分別為:步行(Walks)和自駕(Drives),如上圖所示。
當(dāng)有一個(gè)新數(shù)據(jù)點(diǎn)進(jìn)來(lái)時(shí)(如灰色點(diǎn)),基于給定它的特征工資和年齡,應(yīng)該把它分為哪類?
其中,$P(Walks) = {10} \over {30}$,$P(Drives)={20} \over {30}$。
首先計(jì)算P(Walks|X)的概率,可以參見(jiàn)如下公式:
首先,需要自定義一個(gè)參考集,如下圖中虛線所示。
計(jì)算$P(Walks|X)$后計(jì)算$P(Drivers|X)$,通過(guò)比較兩個(gè)概率的大小,來(lái)決定灰色點(diǎn)屬于哪類(Walks 或者 Drives)。通過(guò)比較不難得出灰色點(diǎn)屬于“步行上班”類別(此處省略計(jì)算過(guò)程)。
在機(jī)器學(xué)習(xí)中,樸素貝葉斯分類器是基于貝葉斯理論(該理論中有很強(qiáng)的特征間獨(dú)立性假設(shè))的一個(gè)簡(jiǎn)單“概率分類”的家族。因此,樸素貝葉斯分類算法屬于概率的機(jī)器學(xué)習(xí)(probabilistic machine learning),并且可應(yīng)用于很多分類的任務(wù)中。典型的應(yīng)用有垃圾郵件篩選(filtering spam),分類文件(classifying documents),情緒預(yù)測(cè)(sentiment prediction)。
在scikit-learn中,一共提供三種樸素貝葉斯的方法,分別為高斯樸素貝葉斯(Gaussian Naive Bayes)、二項(xiàng)式樸素貝葉斯(Multinomial Naive Bayes),伯努利樸素貝葉斯(Bernoulli Naive Bayes)和補(bǔ)足樸素貝葉斯(Complement Naive Bayes)。官方文檔中給出以高斯樸素貝葉斯為例的代碼,示例如下:
>>> from sklearn.datasets import load_iris >>> from sklearn.model_selection import train_test_split >>> from sklearn.naive_bayes import GaussianNB >>> X, y = load_iris(return_X_y=True) >>> X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.5, random_state=0) >>> gnb = GaussianNB() >>> y_pred = gnb.fit(X_train, y_train).predict(X_test) >>> print("Number of mislabeled points out of a total %d points : %d" ... % (X_test.shape[0], (y_test != y_pred).sum())) Number of mislabeled points out of a total 75 points : 4
分類概率在一些機(jī)器模型中應(yīng)用廣泛,在scikit-learn中,大多數(shù)機(jī)器學(xué)習(xí)算法通過(guò)使用predict_proba函數(shù),允許計(jì)算樣本各類別的概率。這個(gè)功能對(duì)于一些情況下是極為有效的,例如,如果某一類的模型預(yù)測(cè)概率是大于歐90%的。但是,包括樸素貝葉斯等模型,它的模型預(yù)測(cè)概率與現(xiàn)實(shí)中的概率不盡相同。例如,函數(shù)predict_proba預(yù)測(cè)某個(gè)樣本屬于某類的樣本概率是70%,而實(shí)際只有0.1或者0.99。尤其對(duì)于樸素貝葉斯模型而言,盡管不同目標(biāo)類的預(yù)測(cè)概率有效(valid),但原始概率往往采用接僅0和1的極端值。
為了得到有意義的預(yù)測(cè)概率,需要采用模型“校正”(calibration)。在scikit-learn中,使用CalibratedClassifierCV分類,通過(guò)k折交叉驗(yàn)證(k-fold cross-validation)來(lái)生成“好的”校正的預(yù)測(cè)概率。在CalibratedClassifierCV中,訓(xùn)練集用于訓(xùn)練模型,測(cè)試集用于矯正模型預(yù)測(cè)概率。返回的預(yù)測(cè)概率是k-fold的均值。詳見(jiàn)參考 文章。
代碼示例如下:
# 導(dǎo)入相關(guān)的庫(kù) from sklearn import datasets from sklearn.naive_bayes import GaussianNB from sklearn.calibration import CalibratedClassifierCV # 載入鶯尾花數(shù)據(jù)集 iris = datasets.load_iris() X = iris.data y = iris.target # 構(gòu)建樸素貝葉斯分類對(duì)象 clf = GaussianNB() # 構(gòu)建校正器 clf_sigmoid = CalibratedClassifierCV(clf, cv=2, method='sigmoid') # 構(gòu)建帶有校正概率的分類器 clf_sigmoid.fit(X, y) # 構(gòu)建新樣本 new_observation = [[ 2.6, 2.6, 2.6, 0.4]] # 得到矯正后的概率 clf_sigmoid.predict_proba(new_observation)
根據(jù)Alexandru和Rich在2005年發(fā)表的題為“Predicting Good Probabilities With Supervised Learning”論文[1]中指出:對(duì)于樸素貝葉斯模型而言,對(duì)于不同校正集合的大小,Isotonic Regression的表現(xiàn)都優(yōu)于Platt Scaling方法(在CalibratedClassifierCV中,用參數(shù)method定義)。因此,這對(duì)樸素貝葉斯模型的參數(shù)設(shè)置,可以優(yōu)先考慮Isotonic Regression方法。
參考文章:
[1] Niculescu-Mizil, A., & Caruana, R. (2005, August). Predicting good probabilities with supervised learning. In Proceedings of the 22nd international conference on Machine learning (pp. 625-632).
數(shù)據(jù)分析咨詢請(qǐng)掃描二維碼
若不方便掃碼,搜微信號(hào):CDAshujufenxi
LSTM 模型輸入長(zhǎng)度選擇技巧:提升序列建模效能的關(guān)鍵? 在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)家族中,長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)憑借其解決長(zhǎng)序列 ...
2025-07-11CDA 數(shù)據(jù)分析師報(bào)考條件詳解與準(zhǔn)備指南? ? 在數(shù)據(jù)驅(qū)動(dòng)決策的時(shí)代浪潮下,CDA 數(shù)據(jù)分析師認(rèn)證愈發(fā)受到矚目,成為眾多有志投身數(shù) ...
2025-07-11數(shù)據(jù)透視表中兩列相乘合計(jì)的實(shí)用指南? 在數(shù)據(jù)分析的日常工作中,數(shù)據(jù)透視表憑借其強(qiáng)大的數(shù)據(jù)匯總和分析功能,成為了 Excel 用戶 ...
2025-07-11尊敬的考生: 您好! 我們誠(chéng)摯通知您,CDA Level I和 Level II考試大綱將于 2025年7月25日 實(shí)施重大更新。 此次更新旨在確保認(rèn) ...
2025-07-10BI 大數(shù)據(jù)分析師:連接數(shù)據(jù)與業(yè)務(wù)的價(jià)值轉(zhuǎn)化者? ? 在大數(shù)據(jù)與商業(yè)智能(Business Intelligence,簡(jiǎn)稱 BI)深度融合的時(shí)代,BI ...
2025-07-10SQL 在預(yù)測(cè)分析中的應(yīng)用:從數(shù)據(jù)查詢到趨勢(shì)預(yù)判? ? 在數(shù)據(jù)驅(qū)動(dòng)決策的時(shí)代,預(yù)測(cè)分析作為挖掘數(shù)據(jù)潛在價(jià)值的核心手段,正被廣泛 ...
2025-07-10數(shù)據(jù)查詢結(jié)束后:分析師的收尾工作與價(jià)值深化? ? 在數(shù)據(jù)分析的全流程中,“query end”(查詢結(jié)束)并非工作的終點(diǎn),而是將數(shù) ...
2025-07-10CDA 數(shù)據(jù)分析師考試:從報(bào)考到取證的全攻略? 在數(shù)字經(jīng)濟(jì)蓬勃發(fā)展的今天,數(shù)據(jù)分析師已成為各行業(yè)爭(zhēng)搶的核心人才,而 CDA(Certi ...
2025-07-09【CDA干貨】單樣本趨勢(shì)性檢驗(yàn):捕捉數(shù)據(jù)背后的時(shí)間軌跡? 在數(shù)據(jù)分析的版圖中,單樣本趨勢(shì)性檢驗(yàn)如同一位耐心的偵探,專注于從單 ...
2025-07-09year_month數(shù)據(jù)類型:時(shí)間維度的精準(zhǔn)切片? ? 在數(shù)據(jù)的世界里,時(shí)間是最不可或缺的維度之一,而year_month數(shù)據(jù)類型就像一把精準(zhǔn) ...
2025-07-09CDA 備考干貨:Python 在數(shù)據(jù)分析中的核心應(yīng)用與實(shí)戰(zhàn)技巧? ? 在 CDA 數(shù)據(jù)分析師認(rèn)證考試中,Python 作為數(shù)據(jù)處理與分析的核心 ...
2025-07-08SPSS 中的 Mann-Kendall 檢驗(yàn):數(shù)據(jù)趨勢(shì)與突變分析的有力工具? ? ? 在數(shù)據(jù)分析的廣袤領(lǐng)域中,準(zhǔn)確捕捉數(shù)據(jù)的趨勢(shì)變化以及識(shí)別 ...
2025-07-08備戰(zhàn) CDA 數(shù)據(jù)分析師考試:需要多久?如何規(guī)劃? CDA(Certified Data Analyst)數(shù)據(jù)分析師認(rèn)證作為國(guó)內(nèi)權(quán)威的數(shù)據(jù)分析能力認(rèn)證 ...
2025-07-08LSTM 輸出不確定的成因、影響與應(yīng)對(duì)策略? 長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)作為循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的一種變體,憑借獨(dú)特的門控機(jī)制,在 ...
2025-07-07統(tǒng)計(jì)學(xué)方法在市場(chǎng)調(diào)研數(shù)據(jù)中的深度應(yīng)用? 市場(chǎng)調(diào)研是企業(yè)洞察市場(chǎng)動(dòng)態(tài)、了解消費(fèi)者需求的重要途徑,而統(tǒng)計(jì)學(xué)方法則是市場(chǎng)調(diào)研數(shù) ...
2025-07-07CDA數(shù)據(jù)分析師證書(shū)考試全攻略? 在數(shù)字化浪潮席卷全球的當(dāng)下,數(shù)據(jù)已成為企業(yè)決策、行業(yè)發(fā)展的核心驅(qū)動(dòng)力,數(shù)據(jù)分析師也因此成為 ...
2025-07-07剖析 CDA 數(shù)據(jù)分析師考試題型:解鎖高效備考與答題策略? CDA(Certified Data Analyst)數(shù)據(jù)分析師考試作為衡量數(shù)據(jù)專業(yè)能力的 ...
2025-07-04SQL Server 字符串截取轉(zhuǎn)日期:解鎖數(shù)據(jù)處理的關(guān)鍵技能? 在數(shù)據(jù)處理與分析工作中,數(shù)據(jù)格式的規(guī)范性是保證后續(xù)分析準(zhǔn)確性的基礎(chǔ) ...
2025-07-04CDA 數(shù)據(jù)分析師視角:從數(shù)據(jù)迷霧中探尋商業(yè)真相? 在數(shù)字化浪潮席卷全球的今天,數(shù)據(jù)已成為企業(yè)決策的核心驅(qū)動(dòng)力,CDA(Certifie ...
2025-07-04CDA 數(shù)據(jù)分析師:開(kāi)啟數(shù)據(jù)職業(yè)發(fā)展新征程? ? 在數(shù)據(jù)成為核心生產(chǎn)要素的今天,數(shù)據(jù)分析師的職業(yè)價(jià)值愈發(fā)凸顯。CDA(Certified D ...
2025-07-03