99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
首頁精彩閱讀線性回歸與梯度下降算法
線性回歸與梯度下降算法
2017-03-12
收藏

線性回歸與梯度下降算法

1.1   線性回歸

在統(tǒng)計(jì)學(xué)中,線性回歸(Linear Regression)是利用稱為線性回歸方程的最小平方函數(shù)對一個(gè)或多個(gè)自變量和因變量之間關(guān)系進(jìn)行建模的一種回歸分析。這種函數(shù)是一個(gè)或多個(gè)稱為回歸系數(shù)的模型參數(shù)的線性組合。

回歸分析中,只包括一個(gè)自變量和一個(gè)因變量,且二者的關(guān)系可用一條直線近似表示,這種回歸分析稱為一元線性回歸分析。如果回歸分析中包括兩個(gè)或兩個(gè)以上的自變量,且因變量和自變量之間是線性關(guān)系,則稱為多元線性回歸分析。

下面我們來舉例何為一元線性回歸分析,圖1為某地區(qū)的房屋面積(feet)與價(jià)格($)的一個(gè)數(shù)據(jù)集,在該數(shù)據(jù)集中,只有一個(gè)自變量面積(feet),和一個(gè)因變量價(jià)格($),所以我們可以將數(shù)據(jù)集呈現(xiàn)在二維空間上,如圖2所示。利用該數(shù)據(jù)集,我們的目的是訓(xùn)練一個(gè)線性方程,無限逼近所有數(shù)據(jù)點(diǎn),然后利用該方程與給定的某一自變量(本例中為面積),可以預(yù)測因變量(本例中為房價(jià))。本例中,訓(xùn)練所得的線性方程如圖3所示。

圖1、房價(jià)與面積對應(yīng)數(shù)據(jù)集

圖2、二維空間上的房價(jià)與面積對應(yīng)圖

圖3、線性逼近

同時(shí),分析得到的線性方程為:

接下來還是該案例,舉一個(gè)多元線性回歸的例子。如果增添了一個(gè)自變量:房間數(shù),那么數(shù)據(jù)集可以如下所示:

圖4、房價(jià)與面積、房間數(shù)對應(yīng)數(shù)據(jù)集

那么,分析得到的線性方程應(yīng)如下所示:

因此,無論是一元線性方程還是多元線性方程,可統(tǒng)一寫成如下的格式:

上式中x0=1,而求線性方程則演變成了求方程的參數(shù)ΘT。

線性回歸假設(shè)特征和結(jié)果滿足線性關(guān)系。其實(shí)線性關(guān)系的表達(dá)能力非常強(qiáng)大,每個(gè)特征對結(jié)果的影響強(qiáng)弱可以有前面的參數(shù)體現(xiàn),而且每個(gè)特征變量可以首先映射到一個(gè)函數(shù),然后再參與線性計(jì)算,這樣就可以表達(dá)特征與結(jié)果之間的非線性關(guān)系。

1.2   梯度下降算法

為了得到目標(biāo)線性方程,我們只需確定公式(3)中的ΘT,同時(shí)為了確定所選定的的ΘT效果好壞,通常情況下,我們使用一個(gè)損失函數(shù)(loss function)或者說是錯(cuò)誤函數(shù)(error function)來評估h(x)函數(shù)的好壞。該錯(cuò)誤函數(shù)如公式(4)所示。

如何調(diào)整ΘT以使得J(Θ)取得最小值有很多方法,其中有完全用數(shù)學(xué)描述的最小二乘法(min square)和梯度下降法。

1.2.1   批量梯度下降算法

由之前所述,求ΘT的問題演變成了求J(Θ)的極小值問題,這里使用梯度下降法。而梯度下降法中的梯度方向由J(Θ)對Θ的偏導(dǎo)數(shù)確定,由于求的是極小值,因此梯度方向是偏導(dǎo)數(shù)的反方向。

公式(5)中α為學(xué)習(xí)速率,當(dāng)α過大時(shí),有可能越過最小值,而α當(dāng)過小時(shí),容易造成迭代次數(shù)較多,收斂速度較慢。假如數(shù)據(jù)集中只有一條樣本,那么樣本數(shù)量,所以公式(5)中

所以公式(5)就演變成:

當(dāng)樣本數(shù)量m不為1時(shí),將公式(5)中由公式(4)帶入求偏導(dǎo),那么每個(gè)參數(shù)沿梯度方向的變化值由公式(7)求得。

初始時(shí)ΘT可設(shè)為,然后迭代使用公式(7)計(jì)算ΘT中的每個(gè)參數(shù),直至收斂為止。由于每次迭代計(jì)算ΘT時(shí),都使用了整個(gè)樣本集,因此我們稱該梯度下降算法為批量梯度下降算法(batch gradient descent)。

1.2.2  隨機(jī)梯度下降算法

當(dāng)樣本集數(shù)據(jù)量m很大時(shí),批量梯度下降算法每迭代一次的復(fù)雜度為O(mn),復(fù)雜度很高。因此,為了減少復(fù)雜度,當(dāng)m很大時(shí),我們更多時(shí)候使用隨機(jī)梯度下降算法(stochastic gradient descent),算法如下所示:

即每讀取一條樣本,就迭代對ΘT進(jìn)行更新,然后判斷其是否收斂,若沒收斂,則繼續(xù)讀取樣本進(jìn)行處理,如果所有樣本都讀取完畢了,則循環(huán)重新從頭開始讀取樣本進(jìn)行處理。

這樣迭代一次的算法復(fù)雜度為O(n)。對于大數(shù)據(jù)集,很有可能只需讀取一小部分?jǐn)?shù)據(jù),函數(shù)J(Θ)就收斂了。比如樣本集數(shù)據(jù)量為100萬,有可能讀取幾千條或幾萬條時(shí),函數(shù)就達(dá)到了收斂值。所以當(dāng)數(shù)據(jù)量很大時(shí),更傾向于選擇隨機(jī)梯度下降算法。

但是,相較于批量梯度下降算法而言,隨機(jī)梯度下降算法使得J(Θ)趨近于最小值的速度更快,但是有可能造成永遠(yuǎn)不可能收斂于最小值,有可能一直會(huì)在最小值周圍震蕩,但是實(shí)踐中,大部分值都能夠接近于最小值,效果也都還不錯(cuò)。

1.2.3  算法收斂判斷方法

參數(shù)ΘT的變化距離為0,或者說變化距離小于某一閾值(ΘT中每個(gè)參數(shù)的變化絕對值都小于一個(gè)閾值)。為減少計(jì)算復(fù)雜度,該方法更為推薦使用。數(shù)據(jù)分析師培訓(xùn)

J(Θ)不再變化,或者說變化程度小于某一閾值。計(jì)算復(fù)雜度較高,但是如果為了精確程度,那么該方法更為推薦使用。

數(shù)據(jù)分析咨詢請掃描二維碼

若不方便掃碼,搜微信號(hào):CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線
立即咨詢
客服在線
立即咨詢
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機(jī)數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進(jìn)行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個(gè)參數(shù)驗(yàn)證碼對象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個(gè)配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶后臺(tái)檢測極驗(yàn)服務(wù)器是否宕機(jī) new_captcha: data.new_captcha, // 用于宕機(jī)時(shí)表示是新驗(yàn)證碼的宕機(jī) product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說明請參見:http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計(jì)時(shí)完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }