
R語言之-caret包應(yīng)用
caret包應(yīng)用之一:數(shù)據(jù)預(yù)處理
在進(jìn)行數(shù)據(jù)挖掘時,我們會用到R中的很多擴(kuò)展包,各自有不同的函數(shù)和功能。如果能將它們綜合起來應(yīng)用就會很方便。caret包(Classification
and Regression
Training)就是為了解決分類和回歸問題的數(shù)據(jù)訓(xùn)練而創(chuàng)建的一個綜合工具包。下面的例子圍繞數(shù)據(jù)挖掘的幾個核心步驟來說明其應(yīng)用。
本例涉及到的數(shù)據(jù)是一個醫(yī)學(xué)實驗數(shù)據(jù),載入數(shù)據(jù)之后可以發(fā)現(xiàn)其樣本數(shù)為528,自變量數(shù)為342,mdrrDescr為自變量數(shù)據(jù)框,mdrrClass為因變量。
library(caret)
data(mdrr)
本例的樣本數(shù)據(jù)所涉及到的變量非常多,需要對變量進(jìn)行初步降維。其中一種需要刪除的變量是常數(shù)自變量,或者是方差極小的自變量,對應(yīng)的命令是nearZeroVar,可以看到新數(shù)據(jù)集的自變量減少到了297個。
zerovar=nearZeroVar(mdrrDescr)
newdata1=mdrrDescr[,-zerovar]
另一類需要刪除的是與其它自變量有很強(qiáng)相關(guān)性的變量,對應(yīng)的命令是findcorrelation。自變量中還有可能存在多重共線性問題,可以用findLinearCombos命令將它們找出來。這樣處理后自變量減少為94個。
descrCorr = cor(newdata1)
highCorr = findCorrelation(descrCorr, 0.90)
newdata2 = newdata1[, -highCorr]
comboInfo = findLinearCombos(newdata2)
newdata2=newdata2[, -comboInfo$remove]
我們還需要將數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化并補(bǔ)足缺失值,這時可以用preProcess命令,缺省參數(shù)是標(biāo)準(zhǔn)化數(shù)據(jù),其高級功能還包括用K近鄰和裝袋決策樹兩種方法來預(yù)測缺失值。此外它還可以進(jìn)行cox冪變換和主成分提取。
Process = preProcess(newdata2)
newdata3 = predict(Process, newdata2)
最后是用createDataPartition將數(shù)據(jù)進(jìn)行劃分,分成75%的訓(xùn)練樣本和25%檢驗樣本,類似的命令還包括了createResample用來進(jìn)行簡單的自助法抽樣,還有createFolds來生成多重交叉檢驗樣本。
inTrain = createDataPartition(mdrrClass, p = 3/4, list = FALSE)
trainx = newdata3[inTrain,]
testx = newdata3[-inTrain,]
trainy = mdrrClass[inTrain]
testy = mdrrClass[-inTrain]
在建模前還可以對樣本數(shù)據(jù)進(jìn)行圖形觀察,例如對前兩個變量繪制箱線圖
featurePlot(trainx[,1:2],trainy,plot=’box’)
caret包應(yīng)用之二:特征選擇
在進(jìn)行數(shù)據(jù)挖掘時,我們并不需要將所有的自變量用來建模,而是從中選擇若干最重要的變量,這稱為特征選擇(feature
selection)。一種算法就是后向選擇,即先將所有的變量都包括在模型中,然后計算其效能(如誤差、預(yù)測精度)和變量重要排序,然后保留最重要的若干變量,再次計算效能,這樣反復(fù)迭代,找出合適的自變量數(shù)目。這種算法的一個缺點在于可能會存在過度擬合,所以需要在此算法外再套上一個樣本劃分的循環(huán)。在caret包中的rfe命令可以完成這項任務(wù)。
首先定義幾個整數(shù),程序必須測試這些數(shù)目的自變量.
subsets = c(20,30,40,50,60,70,80)
然后定義控制參數(shù),functions是確定用什么樣的模型進(jìn)行自變量排序,本例選擇的模型是隨機(jī)森林即rfFuncs,可以選擇的還有l(wèi)mFuncs(線性回歸),nbFuncs(樸素貝葉斯),treebagFuncs(裝袋決策樹),caretFuncs(自定義的訓(xùn)練模型)。
method是確定用什么樣的抽樣方法,本例使用cv即交叉檢驗, 還有提升boot以及留一交叉檢驗LOOCV
ctrl= rfeControl(functions = rfFuncs, method = “cv”,verbose = FALSE, returnResamp = “final”)
最后使用rfe命令進(jìn)行特征選擇,計算量很大,這得花點時間
Profile = rfe(newdata3, mdrrClass, sizes = subsets, rfeControl = ctrl)
觀察結(jié)果選擇50個自變量時,其預(yù)測精度最高
print(Profile)
Variables Accuracy Kappa AccuracySD KappaSD Selected
20 0.8200 0.6285 0.04072 0.08550
30 0.8200 0.6294 0.04868 0.10102
40 0.8295 0.6487 0.03608 0.07359
50 0.8313 0.6526 0.04257 0.08744 *
60 0.8277 0.6447 0.03477 0.07199
70 0.8276 0.6449 0.04074 0.08353
80 0.8275 0.6449 0.03991 0.08173
94 0.8313 0.6529 0.03899 0.08006
用圖形也可以觀察到同樣結(jié)果
plot(Profile)
特征選擇
下面的命令則可以返回最終保留的自變量
Profile$optVariables
caret包應(yīng)用之三:建模與參數(shù)優(yōu)化
在進(jìn)行建模時,需對模型的參數(shù)進(jìn)行優(yōu)化,在caret包中其主要函數(shù)命令是train。
首先得到經(jīng)過特征選擇后的樣本數(shù)據(jù),并劃分為訓(xùn)練樣本和檢驗樣本
newdata4=newdata3[,Profile$optVariables]
inTrain = createDataPartition(mdrrClass, p = 3/4, list = FALSE)
trainx = newdata4[inTrain,]
testx = newdata4[-inTrain,]
trainy = mdrrClass[inTrain]
testy = mdrrClass[-inTrain]
然后定義模型訓(xùn)練參數(shù),method確定多次交叉檢驗的抽樣方法,number確定了劃分的重數(shù), repeats確定了反復(fù)次數(shù)。
fitControl = trainControl(method = “repeatedcv”, number = 10, repeats = 3,returnResamp = “all”)
確定參數(shù)選擇范圍,本例建模準(zhǔn)備使用gbm算法,相應(yīng)的參數(shù)有如下四項
gbmGrid = expand.grid(.interaction.depth = c(1, 3),.n.trees = c(50,
100, 150, 200, 250, 300),.shrinkage = 0.1,.n.minobsinnode = 10)
利用train函數(shù)進(jìn)行訓(xùn)練,使用的建模方法為提升決策樹方法,
gbmFit1 = train(trainx,trainy,method = “gbm”,trControl = fitControl,tuneGrid = gbmGrid,verbose = FALSE)
從結(jié)果可以觀察到interaction.depth取1,n.trees取150時精度最高
interaction.depth n.trees Accuracy Kappa Accuracy SD Kappa SD
1 50 0.822 0.635 0.0577 0.118
1 100 0.824 0.639 0.0574 0.118
1 150 0.826 0.643 0.0635 0.131
1 200 0.824 0.64 0.0605 0.123
1 250 0.816 0.623 0.0608 0.124
1 300 0.824 0.64 0.0584 0.119
3 50 0.816 0.621 0.0569 0.117
3 100 0.82 0.631 0.0578 0.117
3 150 0.815 0.621 0.0582 0.117
3 200 0.82 0.63 0.0618 0.125
3 250 0.813 0.617 0.0632 0.127
3 300 0.812 0.615 0.0622 0.126
同樣的圖形觀察
plot(gbmFit1)
caret包應(yīng)用之四:模型預(yù)測與檢驗
模型建立好后,我們可以利用predict函數(shù)進(jìn)行預(yù)測,例如預(yù)測檢測樣本的前五個
predict(gbmFit1, newdata = testx)[1:5]
為了比較不同的模型,還可用裝袋決策樹建立第二個模型,命名為gbmFit2
gbmFit2= train(trainx, trainy,method = “treebag”,trControl = fitControl)
models = list(gbmFit1, gbmFit2)
另一種得到預(yù)測結(jié)果的方法是使用extractPrediction函數(shù),得到的部分結(jié)果如下顯示
predValues = extractPrediction(models,testX = testx, testY = testy)
head(predValues)
obs pred model dataType object
1 Active Active gbm Training Object1
2 Active Active gbm Training Object1
3 Active Inactive gbm Training Object1
4 Active Active gbm Training Object1
5 Active Active gbm Training Object1
從中可提取檢驗樣本的預(yù)測結(jié)果
testValues = subset(predValues, dataType == “Test”)
如果要得到預(yù)測概率,則使用extractProb函數(shù)
probValues = extractProb(models,testX = testx, testY = testy)
testProbs = subset(probValues, dataType == “Test”)
對于分類問題的效能檢驗,最重要的是觀察預(yù)測結(jié)果的混淆矩陣
Pred1 = subset(testValues, model == “gbm”)
Pred2 = subset(testValues, model == “treebag”)
confusionMatrix(Pred1$pred, Pred1$obs)
confusionMatrix(Pred2$pred, Pred2$obs)
結(jié)果如下,可見第一個模型在準(zhǔn)確率要比第二個模型略好一些
Reference
Prediction Active Inactive
Active 65 12
Inactive 9 45
Accuracy : 0.8397
Reference
Prediction Active Inactive
Active 63 12
Inactive 11 45
Accuracy : 0.8244
最后是利用ROCR包來繪制ROC圖
prob1 = subset(testProbs, model == “gbm”)
prob2 = subset(testProbs, model == “treebag”)
library(ROCR)
prob1$lable=ifelse(prob1$obs==’Active’,yes=1,0)
pred1 = prediction(prob1$Active,prob1$lable)
perf1 = performance(pred1, measure=”tpr”, x.measure=”fpr” )
plot( perf1 )
數(shù)據(jù)分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
LSTM 模型輸入長度選擇技巧:提升序列建模效能的關(guān)鍵? 在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)家族中,長短期記憶網(wǎng)絡(luò)(LSTM)憑借其解決長序列 ...
2025-07-11CDA 數(shù)據(jù)分析師報考條件詳解與準(zhǔn)備指南? ? 在數(shù)據(jù)驅(qū)動決策的時代浪潮下,CDA 數(shù)據(jù)分析師認(rèn)證愈發(fā)受到矚目,成為眾多有志投身數(shù) ...
2025-07-11數(shù)據(jù)透視表中兩列相乘合計的實用指南? 在數(shù)據(jù)分析的日常工作中,數(shù)據(jù)透視表憑借其強(qiáng)大的數(shù)據(jù)匯總和分析功能,成為了 Excel 用戶 ...
2025-07-11尊敬的考生: 您好! 我們誠摯通知您,CDA Level I和 Level II考試大綱將于 2025年7月25日 實施重大更新。 此次更新旨在確保認(rèn) ...
2025-07-10BI 大數(shù)據(jù)分析師:連接數(shù)據(jù)與業(yè)務(wù)的價值轉(zhuǎn)化者? ? 在大數(shù)據(jù)與商業(yè)智能(Business Intelligence,簡稱 BI)深度融合的時代,BI ...
2025-07-10SQL 在預(yù)測分析中的應(yīng)用:從數(shù)據(jù)查詢到趨勢預(yù)判? ? 在數(shù)據(jù)驅(qū)動決策的時代,預(yù)測分析作為挖掘數(shù)據(jù)潛在價值的核心手段,正被廣泛 ...
2025-07-10數(shù)據(jù)查詢結(jié)束后:分析師的收尾工作與價值深化? ? 在數(shù)據(jù)分析的全流程中,“query end”(查詢結(jié)束)并非工作的終點,而是將數(shù) ...
2025-07-10CDA 數(shù)據(jù)分析師考試:從報考到取證的全攻略? 在數(shù)字經(jīng)濟(jì)蓬勃發(fā)展的今天,數(shù)據(jù)分析師已成為各行業(yè)爭搶的核心人才,而 CDA(Certi ...
2025-07-09【CDA干貨】單樣本趨勢性檢驗:捕捉數(shù)據(jù)背后的時間軌跡? 在數(shù)據(jù)分析的版圖中,單樣本趨勢性檢驗如同一位耐心的偵探,專注于從單 ...
2025-07-09year_month數(shù)據(jù)類型:時間維度的精準(zhǔn)切片? ? 在數(shù)據(jù)的世界里,時間是最不可或缺的維度之一,而year_month數(shù)據(jù)類型就像一把精準(zhǔn) ...
2025-07-09CDA 備考干貨:Python 在數(shù)據(jù)分析中的核心應(yīng)用與實戰(zhàn)技巧? ? 在 CDA 數(shù)據(jù)分析師認(rèn)證考試中,Python 作為數(shù)據(jù)處理與分析的核心 ...
2025-07-08SPSS 中的 Mann-Kendall 檢驗:數(shù)據(jù)趨勢與突變分析的有力工具? ? ? 在數(shù)據(jù)分析的廣袤領(lǐng)域中,準(zhǔn)確捕捉數(shù)據(jù)的趨勢變化以及識別 ...
2025-07-08備戰(zhàn) CDA 數(shù)據(jù)分析師考試:需要多久?如何規(guī)劃? CDA(Certified Data Analyst)數(shù)據(jù)分析師認(rèn)證作為國內(nèi)權(quán)威的數(shù)據(jù)分析能力認(rèn)證 ...
2025-07-08LSTM 輸出不確定的成因、影響與應(yīng)對策略? 長短期記憶網(wǎng)絡(luò)(LSTM)作為循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的一種變體,憑借獨特的門控機(jī)制,在 ...
2025-07-07統(tǒng)計學(xué)方法在市場調(diào)研數(shù)據(jù)中的深度應(yīng)用? 市場調(diào)研是企業(yè)洞察市場動態(tài)、了解消費者需求的重要途徑,而統(tǒng)計學(xué)方法則是市場調(diào)研數(shù) ...
2025-07-07CDA數(shù)據(jù)分析師證書考試全攻略? 在數(shù)字化浪潮席卷全球的當(dāng)下,數(shù)據(jù)已成為企業(yè)決策、行業(yè)發(fā)展的核心驅(qū)動力,數(shù)據(jù)分析師也因此成為 ...
2025-07-07剖析 CDA 數(shù)據(jù)分析師考試題型:解鎖高效備考與答題策略? CDA(Certified Data Analyst)數(shù)據(jù)分析師考試作為衡量數(shù)據(jù)專業(yè)能力的 ...
2025-07-04SQL Server 字符串截取轉(zhuǎn)日期:解鎖數(shù)據(jù)處理的關(guān)鍵技能? 在數(shù)據(jù)處理與分析工作中,數(shù)據(jù)格式的規(guī)范性是保證后續(xù)分析準(zhǔn)確性的基礎(chǔ) ...
2025-07-04CDA 數(shù)據(jù)分析師視角:從數(shù)據(jù)迷霧中探尋商業(yè)真相? 在數(shù)字化浪潮席卷全球的今天,數(shù)據(jù)已成為企業(yè)決策的核心驅(qū)動力,CDA(Certifie ...
2025-07-04CDA 數(shù)據(jù)分析師:開啟數(shù)據(jù)職業(yè)發(fā)展新征程? ? 在數(shù)據(jù)成為核心生產(chǎn)要素的今天,數(shù)據(jù)分析師的職業(yè)價值愈發(fā)凸顯。CDA(Certified D ...
2025-07-03