
你知道SAS也可以實現(xiàn)神經(jīng)網(wǎng)絡(luò)嗎
神經(jīng)網(wǎng)絡(luò)的理論太長了,我就不寫上來了,本次的代碼是根據(jù)這本書《數(shù)據(jù)挖掘與應(yīng)用》--張俊妮中神經(jīng)網(wǎng)絡(luò)這一章我做了思路的改動以及在原本代碼的基礎(chǔ)上,我把它封裝好變成一個完整的宏。如果后面你們需要去了解sas神經(jīng)網(wǎng)絡(luò)這個proc neural過程也可以去購買這本來讀,這本書沒有配套的代碼,所以代碼也是我一個一個照著書敲來之后更改的。
說下這個代碼的思路。
1、宏的第一步是采用神經(jīng)網(wǎng)絡(luò)建立廣義線性模型,沒有隱藏層,對數(shù)據(jù)做第一次的訓(xùn)練。這里的數(shù)據(jù)宏里面已經(jīng)自動拆分成測試和訓(xùn)練了,你自己不用拆了。
2、算出神經(jīng)網(wǎng)絡(luò)建立廣義線性模型的結(jié)果算出原始數(shù)據(jù)(訓(xùn)練集以及測試集)中每一個,客戶的違約概率,之后算其ks值。
3、接下來就是循環(huán)隱藏層,從1循環(huán)到3,當(dāng)然你要是覺得3層太少,你可以再設(shè)置,使用的是早停止(張俊妮的《數(shù)據(jù)挖掘與應(yīng)用》的114頁種有詳細(xì)解釋這個算法)法建立多層感知模型,那么這里第一次當(dāng)然循環(huán)就是1層啦,那就是1層感知模型。
4、在當(dāng)隱藏層為一層的時候,我們會擬合兩次神經(jīng)網(wǎng)絡(luò),第一次不輸出結(jié)果,只是產(chǎn)出在隱藏層為一層的時候,挑選出最優(yōu)的變量權(quán)重,擬合一個使用早停止法擬合出來的一個隱藏層為一層的神經(jīng)網(wǎng)絡(luò)模型,利用出來的變量規(guī)則,算出客戶的概率之后算出模型的ks值。
5、到這里并不是要循環(huán)隱藏層為兩層,還有呢,別著急,這時候隱藏層為一層的前提下,再使用,規(guī)則化法建模一層感知器模型,剛才的一層隱藏層使用的早停止法,現(xiàn)在使用的是規(guī)則化法,這時候規(guī)則化法去的權(quán)衰減常數(shù)的四種取值(規(guī)則化法也可以在書里的115頁看到。)四種取值是:0.1 、0.01、0.001、0.0001然后循環(huán)之后算出,每個模型的ks記錄。
6、所以循環(huán)一次隱藏層的層數(shù),是得到4個模型的,早停止法一個,規(guī)則化法四個。
7、再一次循環(huán)隱藏層的2、3層。最終你可以在ks的匯總跑那個表中,選出訓(xùn)練數(shù)據(jù)以及測試數(shù)據(jù)ks都高的模型,作為你最終的模型。
%macromlps(dir,data,list_varname,y_var);
proc datasets lib=work;
delete alltrainfit allvalidfit vaild_ks_total train_ks_total;
run;
data M_CALL_DAY_TOTAL4_t;
set &data.;
indic=_n_;
run;
Proc sort data=M_CALL_DAY_TOTAL4_t; by &y_var.;run;
proc surveyselect data =M_CALL_DAY_TOTAL4_t method = srs rate=0.8
out = traindata;
strata &y_var.;
run;
proc sql;
create table validdata as
select * from
M_CALL_DAY_TOTAL4_t where indic not in (select indic from traindata);
quit;
data traindata;
set traindata;
drop SelectionProb SamplingWeight indic;
run;
data validdata;
set validdata;
drop indic;
run;
proc dmdb data=traindata dmdbcat=dmcdata;
class &y_var.;
var &list_varname.;
run;
proc dmdb data=validdata dmdbcat=dmcdata;
class &y_var.;
var &list_varname.;
run;
data decisionmatrix;
&y_var.=1;
to_1=0;
to_2=1;
output;
&y_var.=0;
to_1=1;
to_2=0;
output;
run;
proc neural data=traindata validdata=validdata dmdbcat=dmcdata ranscale=0.1random=0;
input &list_varname./level=int;
target &y_var./level=nom;
decision decdata=decisionmatrix(type=loss) decvars=TO_1 TO_2;
archi glim;
nloptions maxiter=300;
train ;
code file="&dir.nncode_germancredit_glim.sas";
score data=traindata nodmdb out=traindata_GLIM outfit=trainfit_GLIM role=TRAIN;
score data=validdata nodmdb out=validdata_GLIM outfit=validfit_GLIM role=valid;
run;
data test_train(keep=appl_id &y_var.point);
set traindata;
%include"&dir.nncode_germancredit_glim.sas";
rename P_&y_var.0=point;
run;
proc npar1way data=test_train noprint;
class &y_var.;
var point;
output out=ks_t(keep=_d_ p_ksa rename=(_d_=KS p_ksa=P_value));
run;
data test_train_ks;
set ks_t;
length model$50.;
model="glim";
run;
proc append base=train_ks_total data=test_train_ks force;
run;
data vaild_train(keep=appl_id &y_var.point);
set validdata;
%include"&dir.nncode_germancredit_glim.sas";
rename P_&y_var.0=point;
run;
proc npar1way data=vaild_train noprint;
class &y_var.;
var point;
output out=ks_v(keep=_d_ p_ksa rename=(_d_=KS p_ksa=P_value));
run;
data test_vaild_ks;
set ks_v;
length model$50.;
model="glim";
run;
proc append base=vaild_ks_total data=test_vaild_ks force;
run;
%letnhidden=1;
%do%until(&nhidden.>3);
proc neural data=traindata validdata=validdata dmdbcat=dmcdata graph;
input &list_varname./level=int;
target &y_var./level=nom;
decision decdata=decisionmatrix(type=loss) decvars=TO_1 TO_2;
archi MLP hidden=&nhidden.;
nloptions maxiter=300;
train estiter=1outest=weights_MLP&nhidden._ES outfit=assessment_MLP&&nhidden._ES;
/*code file="&dir.nncode_germancredit_glim.sas";*/
/*score data=traindata nodmdb out=traindata_GLIM outfit=trainfit_GLIM role=TRAIN;*/
/*score data=validdata nodmdb out=validdata_GLIM outfit=validfit_GLIM role=valid;*/
run;
proc sort data=assessment_MLP&&nhidden._ES;
by _VALOSS_;
RUN;
DATA BESTITER;
SET assessment_MLP&&nhidden._ES;
IF _N_=1;
RUN;
proc sql;
select _iter_ into:BESTITER from BESTITER;
quit;
data bestweights;
set weights_MLP&nhidden._ES;
if _type_="PARMS"AND _iter_=&bestiter.;
drop _tech_ _type_ _name_ _decay_ _seed_ _nobj_ _obj_ _objerr_
_averr_ _vnobj_ _vobj_ _vobjerr_ _vaverr_ _p_num_ _iter_;
run;
proc neural data=traindata validdata=validdata dmdbcat=dmcdata graph;
input &list_varname./level=int;
target &y_var./level=nom;
decision decdata=decisionmatrix(type=loss) decvars=TO_1 TO_2;
archi MLP hidden=&nhidden.;
initial inest=bestweights;
train tech=none;
code file="&dir.nncode_germancredit_MLP&nhidden._ES.sas";
score data=traindata nodmdb out=traindata_MLP&Nhidden._ES outfit=trainfit_MLP&Nhidden._ES role=TRAIN;
score data=validdata nodmdb out=validdata_MLP&Nhidden._ES outfit=validfit_MLP&Nhidden._ES role=valid;
run;
data test_train(keep=appl_id &y_var.point);
set traindata;
%include"&dir.nncode_germancredit_MLP&nhidden._ES.sas";
rename P_&y_var.0=point;
run;
proc npar1way data=test_train noprint;
class &y_var.;
var point;
output out=ks_t(keep=_d_ p_ksa rename=(_d_=KS p_ksa=P_value));
run;
data test_train_ks;
set ks_t;
length model$50.;
model="ES";
run;
proc append base=train_ks_total data=test_train_ks force;
run;
data vaild_train(keep=appl_id &y_var.point);
set validdata;
%include"&dir.nncode_germancredit_MLP&nhidden._ES.sas";
rename P_&y_var.0=point;
run;
proc npar1way data=vaild_train noprint;
class &y_var.;
var point;
output out=ks_v(keep=_d_ p_ksa rename=(_d_=KS
p_ksa=P_value));
run;
data test_vaild_ks;
set ks_v;
length model$50.;
model="ES";
run;
proc append base=vaild_ks_total data=test_vaild_ks force;
run;
%letidecay=1;
%do%until(&idecay.>4);
%if&idecay.=1%then%letcedcay=0.1;
%else%if&idecay.=2%then%letcedcay=0.01;
%else%if&idecay.=3%then%letcedcay=0.001;
%else%if&idecay.=4%then%letcedcay=0.0001;
%put&cedcay.;
proc neural data=traindata validdata=validdata dmdbcat=dmcdata graph;
input &list_varname./level=int;
target &y_var./level=nom;
decision decdata=decisionmatrix(type=loss) decvars=TO_1 TO_2;
archi MLP hidden=&nhidden.;
netoptions decay=&cedcay.;
nloptions maxiter=300;
prelim5maxiter=10;
train ;
code file="&dir.nncode_germancredit_MLP&nhidden._WD&idecay..sas";
score data=traindata nodmdb out=traindata_MLP&Nhidden._WD&idecay.outfit=trainfit_MLP&Nhidden._WD&idecay.role=TRAIN;
score data=validdata nodmdb out=validdata__MLP&Nhidden._WD&idecay.outfit=validfit_MLP&Nhidden._WD&idecay.role=valid;
run;
data test_train(keep=appl_id &y_var.point);
set traindata;
%include"&dir.nncode_germancredit_MLP&nhidden._WD&idecay..sas";
rename P_&y_var.0=point;
run;
proc npar1way data=test_train noprint;
class &y_var.;
var point;
output out=ks_t(keep=_d_ p_ksa rename=(_d_=KS p_ksa=P_value));
run;
data test_train_ks;
set ks_t;
length model$50.;
model="&nhidden._WD&idecay.";
run;
proc append base=train_ks_total data=test_train_ks force;
run;
data vaild_train(keep=appl_id &y_var.point);
set validdata;
%include"&dir.nncode_germancredit_MLP&nhidden._WD&idecay..sas";
rename P_&y_var.0=point;
run;
proc npar1way data=vaild_train noprint;
class &y_var.;
var point;
output out=ks_v(keep=_d_ p_ksa rename=(_d_=KS
p_ksa=P_value));
run;
data test_vaild_ks;
set ks_v;
length model$50.;
model="&nhidden._WD&idecay.";
run;
proc append base=vaild_ks_total data=test_vaild_ks force;
run;
%letidecay=%eval(&idecay.+1);
%end;
%letnhidden=%eval(&nhidden.+1);
%end;
%mend;
/*%mlps();*/
%letlist_varname=%str(N_M5_T09_CONRT N_M6_T09_CINRT N_N5_T82_COC_RC N_M5_T03_CONRT N_M3_T10_CONRC N_M3_T83_COC_RC
N_M3_T09_CINRTN_M6_T83_COT_RC N_M3_T83_CIT_RC N_M2_T10_CONRC N_M5_T03_CINRM N_M5_T10_CONRC N_M4_T02_CONRC N_M1_T08_CONRM
N_M3_T06_CINRM N_M2_T09_CONRT N_M6_T03_CONRT N_M5_T07_CINR );
%mlps(dir=F:data_1,data=raw.CALL_HOUR2_total7_woe,list_varname=&list_varname.,y_var=y);
最終的宏里面的list_vaname就不用填了,讓他引用上面的宏list_vaname就可以了,list_vaname填的是你要去建立神經(jīng)網(wǎng)絡(luò)的變量,這里提醒一句哈,就是我嘗試了不分組,分20組,分10組,分5組的效果,我建議是將變量分組好之后再丟進去比較好,但是我說不準(zhǔn)到底是幾組好,畢竟我和你的數(shù)據(jù)不一樣。
data填的原始數(shù)據(jù)集。dir,填一個路徑,這個路徑存放的是最終的模型輸出的規(guī)則,跟決策樹那個score一個道理的。y_var填的是你的因變量。
最后看下你們最終要看的結(jié)果圖長什么樣子:
主要是要看這兩個數(shù)據(jù)集的,這兩個數(shù)據(jù)集長這樣子:
ks值每個模型的ks值,p值是ks的p值,model對應(yīng)的是哪個模型,GLIM是哪個廣義線性模型,1_WD1代表的是隱藏層為1,權(quán)衰減為0.1對應(yīng)的模型,在1_WD1,代表的隱藏層為1的時候?qū)?yīng)的早停止發(fā)的模型,在2_WD1,代表的隱藏層為2的時候?qū)?yīng)的早停止發(fā)的模型,找出你喜歡模型之后,去路徑下面找規(guī)則代碼就可以了。如果實在是這個代碼格式跟你的sas不符的,可以在后臺跟我要下txt的格式的代碼。
數(shù)據(jù)分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
LSTM 模型輸入長度選擇技巧:提升序列建模效能的關(guān)鍵? 在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)家族中,長短期記憶網(wǎng)絡(luò)(LSTM)憑借其解決長序列 ...
2025-07-11CDA 數(shù)據(jù)分析師報考條件詳解與準(zhǔn)備指南? ? 在數(shù)據(jù)驅(qū)動決策的時代浪潮下,CDA 數(shù)據(jù)分析師認(rèn)證愈發(fā)受到矚目,成為眾多有志投身數(shù) ...
2025-07-11數(shù)據(jù)透視表中兩列相乘合計的實用指南? 在數(shù)據(jù)分析的日常工作中,數(shù)據(jù)透視表憑借其強大的數(shù)據(jù)匯總和分析功能,成為了 Excel 用戶 ...
2025-07-11尊敬的考生: 您好! 我們誠摯通知您,CDA Level I和 Level II考試大綱將于 2025年7月25日 實施重大更新。 此次更新旨在確保認(rèn) ...
2025-07-10BI 大數(shù)據(jù)分析師:連接數(shù)據(jù)與業(yè)務(wù)的價值轉(zhuǎn)化者? ? 在大數(shù)據(jù)與商業(yè)智能(Business Intelligence,簡稱 BI)深度融合的時代,BI ...
2025-07-10SQL 在預(yù)測分析中的應(yīng)用:從數(shù)據(jù)查詢到趨勢預(yù)判? ? 在數(shù)據(jù)驅(qū)動決策的時代,預(yù)測分析作為挖掘數(shù)據(jù)潛在價值的核心手段,正被廣泛 ...
2025-07-10數(shù)據(jù)查詢結(jié)束后:分析師的收尾工作與價值深化? ? 在數(shù)據(jù)分析的全流程中,“query end”(查詢結(jié)束)并非工作的終點,而是將數(shù) ...
2025-07-10CDA 數(shù)據(jù)分析師考試:從報考到取證的全攻略? 在數(shù)字經(jīng)濟蓬勃發(fā)展的今天,數(shù)據(jù)分析師已成為各行業(yè)爭搶的核心人才,而 CDA(Certi ...
2025-07-09【CDA干貨】單樣本趨勢性檢驗:捕捉數(shù)據(jù)背后的時間軌跡? 在數(shù)據(jù)分析的版圖中,單樣本趨勢性檢驗如同一位耐心的偵探,專注于從單 ...
2025-07-09year_month數(shù)據(jù)類型:時間維度的精準(zhǔn)切片? ? 在數(shù)據(jù)的世界里,時間是最不可或缺的維度之一,而year_month數(shù)據(jù)類型就像一把精準(zhǔn) ...
2025-07-09CDA 備考干貨:Python 在數(shù)據(jù)分析中的核心應(yīng)用與實戰(zhàn)技巧? ? 在 CDA 數(shù)據(jù)分析師認(rèn)證考試中,Python 作為數(shù)據(jù)處理與分析的核心 ...
2025-07-08SPSS 中的 Mann-Kendall 檢驗:數(shù)據(jù)趨勢與突變分析的有力工具? ? ? 在數(shù)據(jù)分析的廣袤領(lǐng)域中,準(zhǔn)確捕捉數(shù)據(jù)的趨勢變化以及識別 ...
2025-07-08備戰(zhàn) CDA 數(shù)據(jù)分析師考試:需要多久?如何規(guī)劃? CDA(Certified Data Analyst)數(shù)據(jù)分析師認(rèn)證作為國內(nèi)權(quán)威的數(shù)據(jù)分析能力認(rèn)證 ...
2025-07-08LSTM 輸出不確定的成因、影響與應(yīng)對策略? 長短期記憶網(wǎng)絡(luò)(LSTM)作為循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的一種變體,憑借獨特的門控機制,在 ...
2025-07-07統(tǒng)計學(xué)方法在市場調(diào)研數(shù)據(jù)中的深度應(yīng)用? 市場調(diào)研是企業(yè)洞察市場動態(tài)、了解消費者需求的重要途徑,而統(tǒng)計學(xué)方法則是市場調(diào)研數(shù) ...
2025-07-07CDA數(shù)據(jù)分析師證書考試全攻略? 在數(shù)字化浪潮席卷全球的當(dāng)下,數(shù)據(jù)已成為企業(yè)決策、行業(yè)發(fā)展的核心驅(qū)動力,數(shù)據(jù)分析師也因此成為 ...
2025-07-07剖析 CDA 數(shù)據(jù)分析師考試題型:解鎖高效備考與答題策略? CDA(Certified Data Analyst)數(shù)據(jù)分析師考試作為衡量數(shù)據(jù)專業(yè)能力的 ...
2025-07-04SQL Server 字符串截取轉(zhuǎn)日期:解鎖數(shù)據(jù)處理的關(guān)鍵技能? 在數(shù)據(jù)處理與分析工作中,數(shù)據(jù)格式的規(guī)范性是保證后續(xù)分析準(zhǔn)確性的基礎(chǔ) ...
2025-07-04CDA 數(shù)據(jù)分析師視角:從數(shù)據(jù)迷霧中探尋商業(yè)真相? 在數(shù)字化浪潮席卷全球的今天,數(shù)據(jù)已成為企業(yè)決策的核心驅(qū)動力,CDA(Certifie ...
2025-07-04CDA 數(shù)據(jù)分析師:開啟數(shù)據(jù)職業(yè)發(fā)展新征程? ? 在數(shù)據(jù)成為核心生產(chǎn)要素的今天,數(shù)據(jù)分析師的職業(yè)價值愈發(fā)凸顯。CDA(Certified D ...
2025-07-03