
機器學習中的一些方法如決策樹,隨機森林,SVM,神經(jīng)網(wǎng)絡由于對數(shù)據(jù)沒有分布的假定等普通線性回歸模型的一些約束,預測效果也比較不錯,交叉驗證結(jié)果也能被接受。下面以R中l(wèi)ars包包含數(shù)據(jù)集diabetes為例說明機器學習中的回歸方法。
一、數(shù)據(jù)集及交叉驗證辦法描述
Diabetes數(shù)據(jù)集包含在R的lars包中,數(shù)據(jù)分為x,y,x2三個部分,因變量為y,數(shù)據(jù)是關于糖尿病的血液化驗等指標。這個數(shù)據(jù)集最早被用在偏最小二乘回歸的文章里。
交叉驗證采用指標NMSE來評價模型好壞。這一統(tǒng)計量是計算模型預測性能和基準模型的預測性能之間的比率。通常采用目標變量的平均值來作為基準模型。其取值范圍通常為0~1。如果模型表現(xiàn)優(yōu)于這個非常簡單的基準模型預測,那么NMSE應明顯小于1。NMSE的值越小,模型的性能就越好。NMSE的值大于1,意味著模型預測還不如簡單地把所有個案的平均值作為預測值!
交叉驗證辦法為將數(shù)據(jù)集分為5份,取4份作為訓練集,1份作為測試集,共作5次,把誤差平均起來作為衡量標準。選取代碼如下:
二、回歸樹
決策樹是通過一系列規(guī)則對數(shù)據(jù)進行分類的過程。它提供一種在什么條件下會得到什么值的類似規(guī)則的方法。決策樹分為分類樹和回歸樹兩種,分類樹對離散變量做決策樹,回歸樹對連續(xù)變量做決策樹。
基本算法:
1.選擇一個屬性放置在根節(jié)點,為每個可能的屬性值產(chǎn)生一個分支
2.將樣本劃分成多個子集,一個子集對應于一個分支
3.在每個分支上遞歸地重復這個過程,僅使用真正到達這個分支的樣本
4.如果在一個節(jié)點上的所有樣本擁有相同的類別,即停止該部分樹的擴展
構(gòu)造決策樹(集合劃分)時選擇屬性:
1.ID3:Information Gain
2.C4.5:Gain Ratio
3.CART:Gini Index
在R中我們使用rpart包中的rpart()函數(shù)實現(xiàn)樹回歸。我們先把rpart包中的兩個十分重要的函數(shù)介紹如下:
構(gòu)建回歸樹的函數(shù):rpart()用法如下:
rpart(formula, data, weights, subset,na.action = na.rpart, method,
model = FALSE, x = FALSE, y = TRUE, parms, control, cost, ...)
主要參數(shù)說明:
fomula回歸方程形式:例如 y~x1+x2+x3。
data數(shù)據(jù):包含前面方程中變量的數(shù)據(jù)框(dataframe)。
na.action缺失數(shù)據(jù)的處理辦法:默認辦法是刪除因變量缺失的觀測而保留自變量缺失的觀測。
method根據(jù)樹末端的數(shù)據(jù)類型選擇相應變量分割方法,本參數(shù)有四種取值:連續(xù)型“anova”;離散型“class”;計數(shù)型(泊松過程)“poisson”;生存分析型“exp”。程序會根據(jù)因變量的類型自動選擇方法,但一般情況下最好還是指明本參數(shù),以便讓程序清楚做哪一種樹模型。
parms用來設置三個參數(shù):先驗概率、損失矩陣、分類純度的度量方法。
control控制每個節(jié)點上的最小樣本量、交叉驗證的次數(shù)、復雜性參量:即cp:complexitypamemeter,這個參數(shù)意味著對每一步拆分,模型的擬合優(yōu)度必須提高的程度,等等。
進行剪枝的函數(shù):prune()用法如下:
prune(tree, cp, ...)
主要參數(shù)說明:
tree一個回歸樹對象,常是rpart()的結(jié)果對象。
cp復雜性參量,指定剪枝采用的閾值。cp全稱為complexity parameter,指某個點的復雜度,對每一步拆分,模型的擬合優(yōu)度必須提高的程度,用來節(jié)省剪枝浪費的不必要的時間,R內(nèi)部是怎么計算的我不知道,希望讀者能夠補充。
進一步補充一點關于CP值的東西:建立樹模型要權(quán)衡兩方面問題,一個是要擬合得使分組后的變異較小,另一個是要防止過度擬合,而使模型的誤差過大,前者的參數(shù)是CP,后者的參數(shù)是Xerror。所以要在Xerror最小的情況下,也使CP盡量小。如果認為樹模型過于復雜,我們需要對其進行修剪 。(摘自推酷上的《分類-回歸樹模型(CART)在R語言中的實現(xiàn)》)
運行代碼:
得到回歸樹:
我們可以通過print(reg)來看到樹的各個節(jié)點的細節(jié)。
我們來進行交叉驗證,運行代碼如下:
w<-diabetes[,2:3]
n<-length(w$y)
index1<-1:n
index2<-rep(1:5,ceiling(n/5))[1:n]
index2<-sample(index2,n)
NMSE<-rep(0,5)
NMSE0<-NMSE
for(i in 1:5){
m<-index1[index2==i]
reg<-rpart(y~.,w[-m,])
y0<-predict(reg,w[-m,])
y1<-predict(reg,w[m,])
NMSE0[i]<-mean((w$y[-m]-y0)^2)/mean((w$y[-m]-mean(w$y[-m]))^2)
NMSE[i]<-mean((w$y[m]-y1)^2)/mean((w$y[m]-mean(w$y[m]))^2)
}
R中輸出結(jié)果:
> NMSE
[1] 0.7892592 0.8857756 0.8619379 1.0072968 0.7238316
> NMSE0
[1] 0.3503767 0.3417909 0.3400387 0.3192845 0.3467186
明顯出現(xiàn)了過擬合現(xiàn)象,應該使用剪枝函數(shù),對模型進行修正。
> reg$cptable
CP n split relerror xerror xstd
1 0.29154165 0 1.0000000 1.0040015 0.05033316
2 0.08785891 1 0.7084583 0.8040962 0.04896667
3 0.05660089 2 0.6205994 0.7227529 0.04657623
4 0.02169615 3 0.5639986 0.6424826 0.04302580
5 0.02093950 4 0.5423024 0.6591446 0.04376777
6 0.01723601 50.5213629 0.6749867 0.04578783
7 0.01678503 6 0.5041269 0.6841483 0.04554068
8 0.01349365 8 0.4705568 0.6845580 0.04429950
9 0.01166564 9 0.4570632 0.7370893 0.04829371
10 0.01089168 11 0.43373190.7452419 0.05041336
11 0.01070564 12 0.42284020.7417955 0.05054043
12 0.01042308 14 0.40142890.7399988 0.05088835
13 0.01003363 15 0.39100580.7566972 0.05143535
14 0.01000000 17 0.37093860.7650728 0.05110011
參照上述結(jié)果,選擇合適的cp值。故修正為:
reg2<-prune(reg,cp=0.025)結(jié)果為:
再次進行交叉驗證(代碼略)可以看到:
> NMSE
[1] 0.5982049 0.6995054 0.6826815 0.8970573 0.6407927
> NMSE0
[1] 0.5559462 0.5177565 0.4953384 0.5019682 0.5233709
過擬合現(xiàn)象基本消除。
三、boosting回歸
Boosting方法是一種用來提高弱分類算法準確度的方法,這種方法通過構(gòu)造一個預測函數(shù)系列,然后以一定的方式將他們組合成一個預測函數(shù)。他是一種框架算法,主要是通過對樣本集的操作獲得樣本子集,然后用弱分類算法在樣本子集上訓練生成一系列的基分類器。他可以用來提高其他弱分類算法的識別率,也就是將其他的弱分類算法作為基分類算法放于Boosting 框架中,通過Boosting框架對訓練樣本集的操作,得到不同的訓練樣本子集,用該樣本子集去訓練生成基分類器;每得到一個樣本集就用該基分類算法在該樣本集上產(chǎn)生一個基分類器,這樣在給定訓練輪數(shù) n 后,就可產(chǎn)生 n 個基分類器,然后Boosting框架算法將這 n個基分類器進行加權(quán)融合,產(chǎn)生一個最后的結(jié)果分類器,在這 n個基分類器中,每個單個的分類器的識別率不一定很高,但他們聯(lián)合后的結(jié)果有很高的識別率,這樣便提高了該弱分類算法的識別率。
Boosting方法簡而言之就是采取少數(shù)服從多數(shù)的原理,他的合理性在于如果每個回歸樹的出錯率為40%,那么1000棵決策樹犯錯誤的概率就降到了4.40753e-11,這就比較小了。
對diabetes數(shù)據(jù)做boosting回歸,使用到的函數(shù)包為mboost,使用函數(shù)為mboost.用法如下:
mboost(formula, data = list(), baselearner = c("bbs", "bols", "btree", "bss", "bns"), ...)
其中formular需要使用到函數(shù)btree():
btree(..., tree_controls = ctree_control(stump = TRUE, mincriterion = 0, savesplitstats = FALSE)) 試運行下列代碼:
我們可以得到boosting回歸的信息,通過plot函數(shù)還有可視化結(jié)果。
這里值得一提的是我在做boosting回歸時為了減少工作量直接做了變量選擇(這個選擇與回歸樹的最終選擇是一致的,所以也有一定的道理)。最后交叉驗證的結(jié)果為:測試集NMSE為0.5513152,訓練集NMSE為0.4656569。比起上次計算的回歸樹模型測試集NMSE為0.7036484,訓練集NMSE為0.518876好了不少。
四、bagging回歸
與boosting回歸想法類似,bagging回歸的做法就是不斷放回地對訓練樣本進行再抽樣,對每個自助樣本都建立一棵回歸樹,對于每一個觀測,每棵樹給一個預測,最后將其平均。
對diabetes數(shù)據(jù)做bagging回歸,使用到的函數(shù)包為ipred,使用函數(shù)為bagging(),用法如下:
bagging(formula, data, subset, na.action=na.rpart, ...)
主要參數(shù)介紹:
Formula:回歸方程形式
Data:數(shù)據(jù)集
Control:對樹枝的控制,使用函數(shù)rpart.control(),可以控制諸如cp值,xval等參量。
輸入代碼:
library(ipred)結(jié)果為:
Baggingregression trees with 25 bootstrap replications
Call:bagging.data.frame(formula = y ~ ., data = w, coob = TRUE, control =rpart.control(cp = 0.025))
Out-of-bagestimate of root mean squared error: 58.3648
使用交叉驗證(代碼略),得到結(jié)果:測試集NMSE為0.5705753,訓練集NMSE為0.3906232。比起上次計算的回歸樹模型測試集NMSE為0.7036484,訓練集NMSE為0.518876好了不少。
五、隨機森林回歸
與bagging回歸相比,隨機森林則更進一步,不僅對樣本進行抽樣,還對變量進行抽樣。
對diabetes數(shù)據(jù)做隨機森林回歸,使用到的函數(shù)包為randomForest,使用函數(shù)為randomForest(),用法如下:
randomForest(formula, data=NULL, ..., subset, na.action=na.fail)
這里值得一提的是,隨機森林有個十分牛逼的性質(zhì),不會出現(xiàn)過擬合現(xiàn)象,這也省去了我們確定樹的分類程度等一系列麻煩的事情。得到結(jié)果:測試集NMSE為0.08992529,訓練集NMSE為0.08835731,效果顯著提升。隨機森林還可以輸出自變量重要性度量,試運行代碼:
library(randomForest)得到結(jié)果:
%IncMSE IncNodePurity
x.glu 68.8034199 42207.351
x2.age 22.6784331 18569.370
x2.sex 6.2735713 2808.346
x2.bmi 1379.0675134 371372.494
x2.map 331.3925059 113411.547
x2.tc 18.6080948 14990.179
x2.ldl 24.3690847 17457.214
x2.hdl 216.2741620 64627.209
x2.tch 419.0451857 93688.855
x2.ltg 1514.0912885 379235.430
x2.glu 81.7568020 51984.121
x2.age.2 1.5242836 19364.582
x2.bmi.2 75.6345112 53635.024
x2.map.2 5.9156799 23049.475
x2.tc.2 1.6792683 15631.426
(省略部分輸出)
其中第二列為均方誤差遞減意義下的重要性,第三列為精確度遞減意義下的重要性。
六、其他的回歸方法
除去我們所說的以上4種方法外,還有人工神經(jīng)網(wǎng)絡回歸,SVM回歸,他們可以通過nnet,rminer包中有關函數(shù)實現(xiàn),這里我們從略。
在結(jié)束本文之前,我想我們可以做一件更有意義的事。在介紹diabetes數(shù)據(jù)集時,我們提到了這個數(shù)據(jù)最早是一個關于偏最小二乘的例子。那么想必他與這個模型的契合度還是不錯的,我們可以嘗試去算算利用偏最小二乘得到的訓練集與測試集的NMSE。
代碼如下:
library(lars)
library(pls)
NMSE<-rep(0,5)
NMSE0<-NMSE
for(i in 1:5){
m<-index1[index2==i]
reg.pls <- plsr(y ~ x2, 64, data = diabetes[-m,], validation ="CV")
y0<-predict(reg.pls,diabetes[-m,])
y1<-predict(reg.pls,diabetes[m,])
NMSE0[i]<-mean((diabetes$y[-m]-y0)^2)/mean((diabetes$y[-m]-mean(diabetes$y[-m]))^2)
NMSE[i]<-mean((diabetes$y[m]-y1)^2)/mean((diabetes$y[m]-mean(diabetes$y[m]))^2)
}
運行結(jié)果:測試集NMSE為0.6094071,訓練集NMSE為0.4031211。這里也僅僅是得到了一個優(yōu)于回歸樹,與bagging回歸相當,不如隨機森林的一個結(jié)果。也說明了機器學習方法在實際問題中還是有一定優(yōu)勢的。但這絕不意味著這樣的回歸可以代替OLS,畢竟這些數(shù)據(jù)挖掘的方法在表達式的簡潔程度,計算量等諸多方面還是存在著或多或少的不足。
數(shù)據(jù)分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
LSTM 模型輸入長度選擇技巧:提升序列建模效能的關鍵? 在循環(huán)神經(jīng)網(wǎng)絡(RNN)家族中,長短期記憶網(wǎng)絡(LSTM)憑借其解決長序列 ...
2025-07-11CDA 數(shù)據(jù)分析師報考條件詳解與準備指南? ? 在數(shù)據(jù)驅(qū)動決策的時代浪潮下,CDA 數(shù)據(jù)分析師認證愈發(fā)受到矚目,成為眾多有志投身數(shù) ...
2025-07-11數(shù)據(jù)透視表中兩列相乘合計的實用指南? 在數(shù)據(jù)分析的日常工作中,數(shù)據(jù)透視表憑借其強大的數(shù)據(jù)匯總和分析功能,成為了 Excel 用戶 ...
2025-07-11尊敬的考生: 您好! 我們誠摯通知您,CDA Level I和 Level II考試大綱將于 2025年7月25日 實施重大更新。 此次更新旨在確保認 ...
2025-07-10BI 大數(shù)據(jù)分析師:連接數(shù)據(jù)與業(yè)務的價值轉(zhuǎn)化者? ? 在大數(shù)據(jù)與商業(yè)智能(Business Intelligence,簡稱 BI)深度融合的時代,BI ...
2025-07-10SQL 在預測分析中的應用:從數(shù)據(jù)查詢到趨勢預判? ? 在數(shù)據(jù)驅(qū)動決策的時代,預測分析作為挖掘數(shù)據(jù)潛在價值的核心手段,正被廣泛 ...
2025-07-10數(shù)據(jù)查詢結(jié)束后:分析師的收尾工作與價值深化? ? 在數(shù)據(jù)分析的全流程中,“query end”(查詢結(jié)束)并非工作的終點,而是將數(shù) ...
2025-07-10CDA 數(shù)據(jù)分析師考試:從報考到取證的全攻略? 在數(shù)字經(jīng)濟蓬勃發(fā)展的今天,數(shù)據(jù)分析師已成為各行業(yè)爭搶的核心人才,而 CDA(Certi ...
2025-07-09【CDA干貨】單樣本趨勢性檢驗:捕捉數(shù)據(jù)背后的時間軌跡? 在數(shù)據(jù)分析的版圖中,單樣本趨勢性檢驗如同一位耐心的偵探,專注于從單 ...
2025-07-09year_month數(shù)據(jù)類型:時間維度的精準切片? ? 在數(shù)據(jù)的世界里,時間是最不可或缺的維度之一,而year_month數(shù)據(jù)類型就像一把精準 ...
2025-07-09CDA 備考干貨:Python 在數(shù)據(jù)分析中的核心應用與實戰(zhàn)技巧? ? 在 CDA 數(shù)據(jù)分析師認證考試中,Python 作為數(shù)據(jù)處理與分析的核心 ...
2025-07-08SPSS 中的 Mann-Kendall 檢驗:數(shù)據(jù)趨勢與突變分析的有力工具? ? ? 在數(shù)據(jù)分析的廣袤領域中,準確捕捉數(shù)據(jù)的趨勢變化以及識別 ...
2025-07-08備戰(zhàn) CDA 數(shù)據(jù)分析師考試:需要多久?如何規(guī)劃? CDA(Certified Data Analyst)數(shù)據(jù)分析師認證作為國內(nèi)權(quán)威的數(shù)據(jù)分析能力認證 ...
2025-07-08LSTM 輸出不確定的成因、影響與應對策略? 長短期記憶網(wǎng)絡(LSTM)作為循環(huán)神經(jīng)網(wǎng)絡(RNN)的一種變體,憑借獨特的門控機制,在 ...
2025-07-07統(tǒng)計學方法在市場調(diào)研數(shù)據(jù)中的深度應用? 市場調(diào)研是企業(yè)洞察市場動態(tài)、了解消費者需求的重要途徑,而統(tǒng)計學方法則是市場調(diào)研數(shù) ...
2025-07-07CDA數(shù)據(jù)分析師證書考試全攻略? 在數(shù)字化浪潮席卷全球的當下,數(shù)據(jù)已成為企業(yè)決策、行業(yè)發(fā)展的核心驅(qū)動力,數(shù)據(jù)分析師也因此成為 ...
2025-07-07剖析 CDA 數(shù)據(jù)分析師考試題型:解鎖高效備考與答題策略? CDA(Certified Data Analyst)數(shù)據(jù)分析師考試作為衡量數(shù)據(jù)專業(yè)能力的 ...
2025-07-04SQL Server 字符串截取轉(zhuǎn)日期:解鎖數(shù)據(jù)處理的關鍵技能? 在數(shù)據(jù)處理與分析工作中,數(shù)據(jù)格式的規(guī)范性是保證后續(xù)分析準確性的基礎 ...
2025-07-04CDA 數(shù)據(jù)分析師視角:從數(shù)據(jù)迷霧中探尋商業(yè)真相? 在數(shù)字化浪潮席卷全球的今天,數(shù)據(jù)已成為企業(yè)決策的核心驅(qū)動力,CDA(Certifie ...
2025-07-04CDA 數(shù)據(jù)分析師:開啟數(shù)據(jù)職業(yè)發(fā)展新征程? ? 在數(shù)據(jù)成為核心生產(chǎn)要素的今天,數(shù)據(jù)分析師的職業(yè)價值愈發(fā)凸顯。CDA(Certified D ...
2025-07-03