99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁精彩閱讀我的R語言小白之梯度上升和逐步回歸的結(jié)合使用
我的R語言小白之梯度上升和逐步回歸的結(jié)合使用
2018-08-16
收藏

我的R語言小白之梯度上升和逐步回歸的結(jié)合使用

我們今天的主題通常在用sas擬合邏輯回歸模型的時候,我們會使用逐步回歸,最優(yōu)得分統(tǒng)計模型的等方法去擬合模型。而在接觸機器學習算法用R和python實踐之后,我們會了解到梯度上升算法,和梯度下降算法。其實本質(zhì)上模型在擬合的時候用的就是最大似然估計來確定逐步回歸選出來的一個參數(shù)估計,但是這個過程你說看不到,那么現(xiàn)在假設(shè)你過程你可以選擇,就是你來算這個最大似然估計的過程。甚至,你可以定義這個過程損失函數(shù),那么就要使用最大似然估計。

逐步回歸法結(jié)合了向前選擇法和向后選擇法的優(yōu)點。一開始模型只有截距項,先使用前向選擇法選入卡方統(tǒng)計量最大,符合選入模型P值的變量,然后使用后向選擇法移除P值最大的變量,即最不顯著的變量,不斷重復以上過程。所以也可以說逐步回歸的每一步都結(jié)合了向前選擇法和向后選擇法。

要學習梯度上升算法和梯度下降算法,就要先了解梯度的概念,要了解梯度就離不開方向?qū)?shù)。學過大學微積分或數(shù)學分析的同學都知道,導數(shù)代表了一個函數(shù)的變化率。但當一個函數(shù)包含多個自變量的時候,函數(shù)值的變化不僅取決于自變量的變化,還取決于使用哪個自變量。換句話說,函數(shù)值同時決定于移動的距離和移動的方向。

然后,梯度其實就是一定最大的方向?qū)?shù)。在自變量只有一個的時候,一點的導數(shù)其實是確定的。而到了多個自變量的時候,以一個三維空間為例(如下圖的高山),概括為Y為X1,X2的函數(shù),那么在高山上的點上升的方向就不唯一,即方向?qū)?shù)不唯一,那么在某點上山最快的方向就可以描述為該點的梯度。在每爬到一個地方,就不斷調(diào)整上升最快的方向,最終就可以爬到山頂,成為人生贏家。在算法上就描述為每達到一個移動的步長,就計算該點的梯度,不斷使Y值增加,達到最大的Y,最后可以求得最優(yōu)的X1和X2。

換到梯度下降法,就可以把三維圖形想象成一個碗,要想到碗底的話,就應(yīng)該沿下降最快的方向。數(shù)學上就是沒一步都求梯度的反方向,最后目標就是求Y的最小值。

說了這么多,那么梯度上升法和下降法對邏輯回歸到底有什么用呢?邏輯回歸建模有一個目標就是求解最優(yōu)的系數(shù)使似然函數(shù)最大化。而下降法可以用來是損失函數(shù)最小化。先說似然函數(shù)最大化,我們可以令模型的系數(shù)為剛才舉得例子的x1,x2即自變量,那么我們就可以不斷迭代,找到最后的最大的似然函數(shù)和最佳的一組系數(shù)。系數(shù)的梯度上升迭代式可以寫為,下面的α就是移動的步長,所乘的就是梯度。

所以,我們可以發(fā)現(xiàn),逐步回歸等算法其實優(yōu)化模型的入模變量,梯度上升法是在選定入模變量之后,求最佳的系數(shù)去優(yōu)化模型。那么,在實踐上我們就可以在sas擬合完模型,選定變量后,在用R或者python用梯度上升法去求解最優(yōu)的系數(shù),但是需要明確一點嗎,說是最優(yōu)那是基于損失函數(shù)是一個凸函數(shù),當損失函數(shù)不是凸函數(shù)的時候,只是找到的是局部最優(yōu)。L()這個函數(shù)是自己定義的一個損失函數(shù)組成的一個類似最大似然估計的一個函數(shù)。

具體了解下,還是看不懂,可以復習一下導數(shù),偏導數(shù)以及方向?qū)?shù)。因為梯度的內(nèi)容實在有點多,所以還是希望大家對于梯度不了解的,可以上網(wǎng)查詢了解。我最初想用這個的時候,我是在想一個問題,就是假設(shè)我不用最大似然估計定義的損失函數(shù),假設(shè)我想用其他損失函數(shù)擬合參數(shù),那我該怎么辦,所以才有了今天的分享,可能我說的優(yōu)點亂,我給出梯度擬合參數(shù)的過程,你可能會清晰些:

那么作為R語言小白的我,要出動獻出我的梯度上升的代碼了,還是參考別人的更改,這里的數(shù)據(jù)集使用的是你逐步回歸選下來的變量。這里這是重新擬合參數(shù),不適用你原來擬合的參數(shù),是不是很作,我也覺得我很作。鏈接在這:http://blog.csdn.net/yuanhangzhegogo/article/details/40613951。

D<-F[-which(names(F) %in% c('APPL_ID','APPL_STATUS_1'))]

# 為等下產(chǎn)生的樣本的矩陣做準備,所以把主鍵還有因變量刪掉

Y=F$APPL_STATUS_1

# 將因變量單獨拿出來,等下要進行運算

m<-length(Y)

# 取出y的長度,為的是等下構(gòu)造截距變量,設(shè)為1

#自變量增加一列構(gòu)造矩陣

x1<-rep(1,m)

# 生成截距變量,設(shè)為1

Y<-as.matrix(F$APPL_STATUS_1)

# 生成因變量的矩陣等下可以計算

X<-as.matrix(data.frame(x1,D))

#生成自變量矩陣,等下計算

maxiteration=2000

#設(shè)定迭代次數(shù)

theta<-matrix(rep(0,14),ncol=1)

# 設(shè)置初始的系數(shù)

#設(shè)定學習速度

alpha=0.0001

pred<-data.frame()

# 生成一個空表

for ( n in c(1:maxiteration)){

#計算梯度

p<-1/(1+exp(-X%*%theta))

#計算通過填入?yún)?shù)之后的預(yù)測概率

grad=t(X)%*%(Y-p)

#放入公式計算

a<-theta

# 把前一個的參數(shù)矩陣賦給a

theta=theta+alpha*grad

# 計算梯度上升的一個參數(shù)

interval<-theta-a

# 計算之間的差值

dd<-data.frame(interval,sum=sum(interval),theta)

# 合并差值,差值的累計,以及對應(yīng)的參數(shù)

pred<-rbind(pred,dd)

# 縱向合并每一次迭代的數(shù)據(jù)

print(n)

# 打印迭代到哪里,好檢查錯誤以及進度

}

出來的結(jié)果看數(shù)據(jù)集看pred:

最后一列是參數(shù)估計,中間是兩次梯度相減的累加,可以看到迭代了2000次之后,他的差距已經(jīng)很小很小的,基本可以斷定快到山頂了,你要是覺得這樣子差距還是讓你不滿意,你可以設(shè)置迭代次數(shù)到3000次。第一列是兩個梯度的各個值的相減,這是為了讓你看到迭代的過程該變量的權(quán)重的變小了還是變大了。當然你也可以更改我的代碼,把他改成迭代到兩次相減的數(shù)小于你設(shè)置的數(shù)就停止。

數(shù)據(jù)分析咨詢請掃描二維碼

若不方便掃碼,搜微信號:CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個參數(shù)驗證碼對象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺檢測極驗服務(wù)器是否宕機 new_captcha: data.new_captcha, // 用于宕機時表示是新驗證碼的宕機 product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說明請參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計時完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }