
來源:數(shù)據(jù)STUDIO
作者:云朵君
導讀:大家好,我是云朵君!自從分享了一篇能夠?qū)懺诤啔v里的企業(yè)級數(shù)據(jù)挖掘實戰(zhàn)項目,深受讀者朋友們青睞,許多讀者私信云朵君,希望多一些類似的數(shù)據(jù)挖掘實際案例。這就來了。
本項目旨在探討影響學生學業(yè)表現(xiàn)的人口統(tǒng)計學和家庭特征。本項目中,使用多種不平衡數(shù)據(jù)處理方法以及各種分類器,如決策樹,邏輯回歸,k近鄰,隨機森林和多層感知器的分類機器。
本案例數(shù)據(jù)集來自Balochistan的6000名學生。其基本情況:一共13個字段,其中RESULT為結(jié)果標簽;語言字段是經(jīng)過獨熱編碼后的四個字段,分別為Lang1, Lang2, Lang3, Lang4;
另外性別、學校、是否殘疾、宗教信仰四個字段為二分類離散字段;
其余如兄弟姐妹、在校兄弟姐妹數(shù)量為連續(xù)性變量。
本次數(shù)據(jù)為清洗過后"干凈"數(shù)據(jù),可以直接輸入到機器學習模型中直接建模使用。
探索性數(shù)據(jù)分析有多種方法,這里直接通過繪制柱狀圖查看每個字段的分布狀況。
從數(shù)據(jù)集特點來看,13個字段可以分為四大類。
考試結(jié)果為PASS的共有4562名學生,而結(jié)果為FAIL的共有1047名學生,從下圖中也可以明顯看出,該樣本為不平衡數(shù)據(jù)集,因此本次案例重點在于不平衡數(shù)據(jù)分類方法。
性別有男女,學校有學校1和學校2,身體健康狀況有是否殘疾,宗教信仰分是否是穆斯林。
本次數(shù)據(jù)集中兄弟姐妹數(shù)量及在校兄弟姐妹數(shù)量分布情況可以由下面四張分布圖很好地展示出來。
啞變量
本次數(shù)據(jù)集共有四種語言,其數(shù)量分布由下圖所示。接近一半的學生都是說的一種語言(Lang1)。
從上一步的探索性數(shù)據(jù)分析結(jié)果,本次學生成績數(shù)據(jù)集為不平衡數(shù)據(jù)集,那么處理不平衡數(shù)據(jù)集處理方法都有哪些呢。
在本文云朵君從三個方面總結(jié)了多種處理方法,見下面思維導圖。
這里主要介紹下數(shù)據(jù)預處理層面的數(shù)據(jù)重采樣方法。數(shù)據(jù)重采樣主要分為上采樣和下采樣。
下采樣,也稱為欠采樣(Under-Sampling),是一個為平衡數(shù)據(jù)類分布的移除大類數(shù)據(jù)的非啟發(fā)式的方法。此方法的底層邏輯是平衡數(shù)據(jù)集進而克服算法的特異性。
常用的方法有隨機欠采樣(Random Under-Sampling, RUS),即隨機排除大類的觀察值,和聚焦欠采樣(Focused Under-Sampling, FUS), 即移除兩類邊界處的大類數(shù)據(jù)。
上采樣,也稱為過采樣(Over-Samplig),是通過復制小類觀察值,從而增加小類比例的一個方法。類似的,過采樣也有隨機過采樣和聚焦過采樣兩種方法。
來源:kaggle
過采樣代表SMOTE方法,其主要概念也就是在少數(shù)樣本位置近的地方,人工合成一些樣本,整個算法的流程如下:
相對于過采樣,欠采樣是將多數(shù)樣本按比例減少,使得模型的加權(quán)權(quán)重改變,少考慮一些多數(shù)樣本,上圖很好地展示了兩種方法的差異 。
Tomek Link 算法
會針對所有樣本去遍歷一次,如有兩個樣本點x, y分屬不同的class,即一個為多數(shù)樣本而另一個為少數(shù)樣本,則可以去計算它們之間的距離d(x , y) 。
此時如果找不到第三個樣本點z,使得任一樣本點到z 的距離比樣本點之間的距離還小,則稱為Tomek Link,一張圖幫助理解 :
來源:Kaggle
Tomek Link 的關鍵思路在于,找出邊界那些鑒別度不高的樣本,認為這些樣本點屬于雜訊,應該剔除,因此可以見上圖最右邊,剔除以后兩種類別的樣本點可以更好地區(qū)分開來。
ENN算法(Edited Nearest Neighbor)
與上面Tomek Links的觀念相同,ENN算法也是透過某種方式來剔除鑒別度低的樣本,只是這邊的方式改成了對多數(shù)類的樣本尋找K個近鄰點,如果有一半以上(當然,門檻可以自己設定)都不屬于多數(shù)樣本,就將該樣本剔除,通常這些樣本也會出現(xiàn)在少數(shù)樣本之中。
SMOTE + ENN、SMOTE + Tomek Links算法都是結(jié)合過采樣與欠采樣算法SMOTEENN使用 SMOTE 進行過采樣,然后使用 Edited Nearest Neighbours 進行欠采樣。
SMOTETomek使用 SMOTE 進行過采樣,然后使用 Tomek Links 進行欠采樣。
控制變量法選擇合適的處理方法。選用決策樹為基分類器,并分別選擇不使用數(shù)據(jù)重采樣,使用SMOTE、SMOTEENN和SMOTETomek共三種數(shù)據(jù)重采樣方法,比較這四種情況下的模型評價指標AUC得分情況。
最后分別選用五種不同分類器,且分別采用不同的數(shù)據(jù)重采樣方法,繪制ROC曲線及得到的AUC得分情況。
ROC曲線繪制采用不同分類閾值的TPR和FPR,降低分類閾值會將更多的樣本判為正類別,從而增加FP和TP的個數(shù)。為了繪制ROC曲線,需要使用不同的分類閾值多次評估回歸模型,很麻煩。有一種基于排序的高效算法可以為我們提供此類信息,這種算法稱為曲線下的面積(AUV,area under roc curve)。
ROC曲線的橫軸為FPR,越低越好,縱軸為TPR,越高越好,故如果有兩個不同的模型,曲線位于左上方的模型優(yōu)于曲線位于右下方的模型,這一點可以拿曲線的面積(AUV)來量化。
完美的分類為TPR=1,F(xiàn)PR=0;ROC曲線過(0,0)和(1,1)點
AUC計算的物理意義為:任取一對(正、負)樣本,正樣本的score大于負樣本的score的概率,也即是隨機正類別樣本位于隨機負類別樣本右側(cè)的概率。
將所有主要方法定義為函數(shù),包括數(shù)據(jù)重采樣、劃分測試集和訓練集、模型訓練、模型評價和結(jié)果可視化。
此外,由于是比較不平衡數(shù)據(jù)集處理方法選擇的優(yōu)劣,這里所有的機器學習模型都采用默認參數(shù)。
def reSampler(X, y, samp):"""不同的數(shù)據(jù)重采樣策略"""if(samp == 'None'):return splitter(X, y, 0.1)if(samp == 'SMOTE'):sm = SMOTE('auto', 42)X_resampled , y_resampled = sm.fit_resample(X, Y)return splitter(X_resampled , y_resampled, 0.1)if(samp == 'SMOTEENN'):sm = SMOTEENN()X_resampled , y_resampled = sm.fit_resample(X, Y)return splitter(X_resampled , y_resampled, 0.1)if(samp == 'SMOTETomek'):sm = SMOTEENN()X_resampled , y_resampled = sm.fit_resample(X, Y)return splitter(X_resampled , y_resampled, 0.1)def splitter(X, y, test_Size):"""劃分測試集和訓練集"""xtrain, xtest, ytrain, ytest = train_test_split(X, y, test_size = test_Size, random_state=12)return xtrain, xtest, ytrain, ytestdef rocPlotter(actu, pred, clf, samp):"""AUC曲線繪圖函數(shù)"""false_positive_rate, true_positive_rate, thresholds = roc_curve(actu, pred)roc_auc = auc(false_positive_rate, true_positive_rate)Title = str('ROC: ' + str(clf) + ' using ' + str(samp))plt.title(Title)plt.plot(false_positive_rate, true_positive_rate, 'b',label='AUC = %0.2f'% roc_auc)plt.legend(loc='lower right')plt.plot([0,1],[0,1],'r--')plt.xlim([-0.1,1.2])plt.ylim([-0.1,1.2])plt.ylabel('True Positive Rate')plt.xlabel('False Positive Rate')plt.show()return roc_aucdef applyModel(clfr, X_, y_, xt, yt):"""使用模型"""a = globals()[clfr]()a.fit(X_, y_)scor = a.score(xt, yt)*100pred = a.predict(xt)actu = ytreturn pred, actu, scordef tryAll(clfList, sampList, Inputs, Outputs):"""主函數(shù)"""rep = np.zeros( (len(clfList), len(sampList)), dtype=float)for clf, clfIndex in zip(clfList, range(len(clfList))):# 不同的分類器for samp, sampIndex in zip(sampList, range(len(sampList))):# 不同的重采樣策略X_train, X_test, Y_train, Y_test = reSampler(Inputs, Outputs, samp)prediction , actual, score =applyModel(clf, X_train, Y_train, X_test, Y_test)currentAUC = rocPlotter(prediction, actual, clf, samp)print(clf, ' with ', samp, ' scored = ', score,' on test set with AUC = ', currentAUC)rep[clfIndex, sampIndex] = currentAUCreturn rep
Classifiers = ['DecisionTreeClassifier', 'KNeighborsClassifier','LogisticRegression', 'MLPClassifier','RandomForestClassifier']Samplers = ['None', 'SMOTE', 'SMOTETomek', 'SMOTEENN']report = tryAll(Classifiers, Samplers, X, Y)
下面以單個模型四種不同重采樣策略,和五種模型單個重采樣策略為例展示可視化結(jié)果。大家可以運行上述代碼以得到完整的結(jié)果展示。
決策樹模型在四種不同重采樣策略下,得到的四種不同的結(jié)果。很明顯地看到?jīng)]有使用數(shù)據(jù)重采樣的模型得分最差只有0.54,而使用混合采樣算法的兩個結(jié)果的得分都比較理想,分別是0.973275和0.979196分。
接下來以上述結(jié)果中得分最高的混合采樣算法SMOTETomek為例,將不平衡數(shù)據(jù)集經(jīng)過SMOTETomek算法處理后,分別用
DecisionTreeClassifier決策樹分類器,KNeighborsClassifierK近鄰分類器,LogisticRegression邏輯回歸,MLPClassifier多層感知機,RandomForestClassifier隨機森林分類器五種機器學習模型訓練和測試數(shù)據(jù),并得到如下結(jié)果。
從結(jié)果可知道,并不是所有模型在使用混合采樣算法SMOTETomek后都能達到令人滿意的效果。
為方便查看所有結(jié)果,將所模型、所有重采樣方法匯總到如下圖所示的DataFrame中。從AUC結(jié)果看,使用混合采樣算法SMOTEENN對數(shù)據(jù)集處理,并使用決策樹模型對結(jié)果進行預測,將會得到最佳預測效果。其AUC=0.979。
pd.DataFrame(report, columns = Samplers, index = Classifiers)
上節(jié)中選用五種不同分類器,三種不同的數(shù)據(jù)重采樣方法,結(jié)合ROC曲線及AUC得分情況來確定重采樣方法對選擇。
本節(jié)可以理解為是上節(jié)的拓展。
# 實例化五種分類器模型dTree = DecisionTreeClassifier()logReg = LogisticRegression()knn = KNeighborsClassifier(n_neighbors=5)rF = RandomForestClassifier()MLP = MLPClassifier()# 實例化十種數(shù)據(jù)重采樣模型rmun = RandomUnderSampler()cnn = CondensedNearestNeighbour()nm = NearMiss()enn = EditedNearestNeighbours()renn =
RepeatedEditedNearestNeighbours()tkLink = TomekLinks()rmov = RandomOverSampler()sm = SMOTE()sm_en = SMOTEENN()sm_tk = SMOTETomek()# 以SMOTEENN采樣方法為例sm_en = SMOTEENN()X_resampled, Y_resampled = sm_en.fit_resample(X, Y)# 分別使用10折交叉驗證的方法得到平均得分scores_dTree = cross_val_score(dTree, X_resampled, Y_resampled, cv = 10, scoring='roc_auc')scores_dTree = scores_dTree.mean()# 打印出每次的結(jié)果print('After appling SMOTENN: ')print(' dTree, logReg , KNN , rF , MLP')print(scores_dTree, scores_logReg, scores_knn, scores_rF, scores_MLP)
將所有結(jié)果存儲在一個DataFrame里
Classifiers = ['DecisionTreeClassifier', 'LogisticRegression','KNeighborsClassifier', 'RandomForestClassifier','MLPClassifier']Samplers = ['None','Random Undersampling', 'CNN', 'NearMiss','ENN', 'RENN','Tomek Links','SMOTE','Random Oversampling', 'SMOTEENN','SMOTETomek']pd.DataFrame(report, columns = Samplers, index = Classifiers)
并用熱圖可視化更加直觀地展示出結(jié)果來
import seaborn as snsplt.figure()ax = sns.heatmap(report,xticklabels=Samplers,yticklabels=Classifiers,annot = True, vmin=0,vmax=1, linewidth=0.1,cmap="YlGnBu",)
從熱圖的特性可以看出,藍色越深,模型效果越好。本案例中可以得到如下幾個結(jié)論
本例采用的來自Balochistan的6000名學生不平衡數(shù)據(jù)集。本項目旨在探討影響學生學業(yè)表現(xiàn)的人口統(tǒng)計學和家庭特征。
本例使用清洗后的數(shù)據(jù)集,以探索數(shù)據(jù)變量的分布特征開篇,重點介紹了數(shù)據(jù)不平衡處理的各種方法,以及演示如何通過交叉驗證方法選擇合適的數(shù)據(jù)不平衡處理以及選擇合適的機器學習分類模型。
本文后續(xù)工作可以是通過正文中得到的結(jié)果,選擇幾個合適的模型,通過適當?shù)哪P驼{(diào)參方法選擇恰當?shù)膮?shù),以確定本次數(shù)據(jù)挖掘的最終模型。
數(shù)據(jù)分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
LSTM 模型輸入長度選擇技巧:提升序列建模效能的關鍵? 在循環(huán)神經(jīng)網(wǎng)絡(RNN)家族中,長短期記憶網(wǎng)絡(LSTM)憑借其解決長序列 ...
2025-07-11CDA 數(shù)據(jù)分析師報考條件詳解與準備指南? ? 在數(shù)據(jù)驅(qū)動決策的時代浪潮下,CDA 數(shù)據(jù)分析師認證愈發(fā)受到矚目,成為眾多有志投身數(shù) ...
2025-07-11數(shù)據(jù)透視表中兩列相乘合計的實用指南? 在數(shù)據(jù)分析的日常工作中,數(shù)據(jù)透視表憑借其強大的數(shù)據(jù)匯總和分析功能,成為了 Excel 用戶 ...
2025-07-11尊敬的考生: 您好! 我們誠摯通知您,CDA Level I和 Level II考試大綱將于 2025年7月25日 實施重大更新。 此次更新旨在確保認 ...
2025-07-10BI 大數(shù)據(jù)分析師:連接數(shù)據(jù)與業(yè)務的價值轉(zhuǎn)化者? ? 在大數(shù)據(jù)與商業(yè)智能(Business Intelligence,簡稱 BI)深度融合的時代,BI ...
2025-07-10SQL 在預測分析中的應用:從數(shù)據(jù)查詢到趨勢預判? ? 在數(shù)據(jù)驅(qū)動決策的時代,預測分析作為挖掘數(shù)據(jù)潛在價值的核心手段,正被廣泛 ...
2025-07-10數(shù)據(jù)查詢結(jié)束后:分析師的收尾工作與價值深化? ? 在數(shù)據(jù)分析的全流程中,“query end”(查詢結(jié)束)并非工作的終點,而是將數(shù) ...
2025-07-10CDA 數(shù)據(jù)分析師考試:從報考到取證的全攻略? 在數(shù)字經(jīng)濟蓬勃發(fā)展的今天,數(shù)據(jù)分析師已成為各行業(yè)爭搶的核心人才,而 CDA(Certi ...
2025-07-09【CDA干貨】單樣本趨勢性檢驗:捕捉數(shù)據(jù)背后的時間軌跡? 在數(shù)據(jù)分析的版圖中,單樣本趨勢性檢驗如同一位耐心的偵探,專注于從單 ...
2025-07-09year_month數(shù)據(jù)類型:時間維度的精準切片? ? 在數(shù)據(jù)的世界里,時間是最不可或缺的維度之一,而year_month數(shù)據(jù)類型就像一把精準 ...
2025-07-09CDA 備考干貨:Python 在數(shù)據(jù)分析中的核心應用與實戰(zhàn)技巧? ? 在 CDA 數(shù)據(jù)分析師認證考試中,Python 作為數(shù)據(jù)處理與分析的核心 ...
2025-07-08SPSS 中的 Mann-Kendall 檢驗:數(shù)據(jù)趨勢與突變分析的有力工具? ? ? 在數(shù)據(jù)分析的廣袤領域中,準確捕捉數(shù)據(jù)的趨勢變化以及識別 ...
2025-07-08備戰(zhàn) CDA 數(shù)據(jù)分析師考試:需要多久?如何規(guī)劃? CDA(Certified Data Analyst)數(shù)據(jù)分析師認證作為國內(nèi)權(quán)威的數(shù)據(jù)分析能力認證 ...
2025-07-08LSTM 輸出不確定的成因、影響與應對策略? 長短期記憶網(wǎng)絡(LSTM)作為循環(huán)神經(jīng)網(wǎng)絡(RNN)的一種變體,憑借獨特的門控機制,在 ...
2025-07-07統(tǒng)計學方法在市場調(diào)研數(shù)據(jù)中的深度應用? 市場調(diào)研是企業(yè)洞察市場動態(tài)、了解消費者需求的重要途徑,而統(tǒng)計學方法則是市場調(diào)研數(shù) ...
2025-07-07CDA數(shù)據(jù)分析師證書考試全攻略? 在數(shù)字化浪潮席卷全球的當下,數(shù)據(jù)已成為企業(yè)決策、行業(yè)發(fā)展的核心驅(qū)動力,數(shù)據(jù)分析師也因此成為 ...
2025-07-07剖析 CDA 數(shù)據(jù)分析師考試題型:解鎖高效備考與答題策略? CDA(Certified Data Analyst)數(shù)據(jù)分析師考試作為衡量數(shù)據(jù)專業(yè)能力的 ...
2025-07-04SQL Server 字符串截取轉(zhuǎn)日期:解鎖數(shù)據(jù)處理的關鍵技能? 在數(shù)據(jù)處理與分析工作中,數(shù)據(jù)格式的規(guī)范性是保證后續(xù)分析準確性的基礎 ...
2025-07-04CDA 數(shù)據(jù)分析師視角:從數(shù)據(jù)迷霧中探尋商業(yè)真相? 在數(shù)字化浪潮席卷全球的今天,數(shù)據(jù)已成為企業(yè)決策的核心驅(qū)動力,CDA(Certifie ...
2025-07-04CDA 數(shù)據(jù)分析師:開啟數(shù)據(jù)職業(yè)發(fā)展新征程? ? 在數(shù)據(jù)成為核心生產(chǎn)要素的今天,數(shù)據(jù)分析師的職業(yè)價值愈發(fā)凸顯。CDA(Certified D ...
2025-07-03