99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線(xiàn)電話(huà):13121318867

登錄
首頁(yè)精彩閱讀深度學(xué)習(xí)防止過(guò)擬合的方法
深度學(xué)習(xí)防止過(guò)擬合的方法
2018-02-26
收藏

深度學(xué)習(xí)防止過(guò)擬合的方法

過(guò)擬合即在訓(xùn)練誤差很小,而泛化誤差很大,因?yàn)槟P涂赡苓^(guò)于的復(fù)雜,使其”記住”了訓(xùn)練樣本,然而其泛化誤差卻很高,在傳統(tǒng)的機(jī)器學(xué)習(xí)方法中有很大防止過(guò)擬合的方法,同樣這些方法很多也適合用于深度學(xué)習(xí)中,同時(shí)深度學(xué)習(xí)中又有一些獨(dú)特的防止過(guò)擬合的方法,下面對(duì)其進(jìn)行簡(jiǎn)單的梳理.

1. 參數(shù)范數(shù)懲罰

范數(shù)正則化是一種非常普遍的方法,也是最常用的方法,假如優(yōu)化:

minObj(θ)=L(y,f(x))+αG(θ)

其中L為經(jīng)驗(yàn)風(fēng)險(xiǎn),其為在訓(xùn)練樣本上的誤差,而G為對(duì)參數(shù)的懲罰,也叫結(jié)構(gòu)風(fēng)險(xiǎn).α是平衡兩者,如果太大則對(duì)應(yīng)的懲罰越大,如過(guò)太小,甚至接近與0,則沒(méi)有懲罰.
最常用的范數(shù)懲罰為L(zhǎng)1,L2正則化,L1又被成為L(zhǎng)asso:

||w||1=|w1|+|w2|+...

即絕對(duì)值相加,其趨向于是一些參數(shù)為0.可以起到特征選擇的作用.
L2正則化為:

||w||2=w12+w22+...????????????√

其趨向與,使權(quán)重很小.其又成為ridge.

2. 數(shù)據(jù)增強(qiáng)

讓模型泛化的能力更好的最好辦法就是使用更多的訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,但是在實(shí)踐中,我們擁有的數(shù)據(jù)是有限的,解決這一問(wèn)題可以人為的創(chuàng)造一些假數(shù)據(jù)添加到訓(xùn)練集中.
一個(gè)具體的例子:
在A(yíng)lexNet中,將256*256圖像隨機(jī)的截取224*224大小,增加了許多的訓(xùn)練樣本,同時(shí)可以對(duì)圖像進(jìn)行左右翻轉(zhuǎn),增加樣本的個(gè)數(shù),實(shí)驗(yàn)的結(jié)果可以可降低1%的誤差.
神經(jīng)網(wǎng)絡(luò)中輸入噪聲也可以看做是數(shù)據(jù)增強(qiáng)的一種方式.

3. 提前終止

如下圖所示(圖片來(lái)源deep learning),當(dāng)隨著模型的能力提升,訓(xùn)練集的誤差會(huì)先減小再增大,這樣可以提前終止算法減緩過(guò)擬合現(xiàn)象.關(guān)于算法的具體流程參考deep learning.

提前終止是一種很常用的緩解過(guò)擬合的方法,如在決策樹(shù)的先剪枝的算法,提前終止算法,使得樹(shù)的深度降低,防止其過(guò)擬合.

4. 參數(shù)綁定與參數(shù)共享

在卷積神經(jīng)網(wǎng)絡(luò)CNN中(計(jì)算機(jī)視覺(jué)與卷積神經(jīng)網(wǎng)絡(luò) ),卷積層就是其中權(quán)值共享的方式,一個(gè)卷積核通過(guò)在圖像上滑動(dòng)從而實(shí)現(xiàn)共享參數(shù),大幅度減少參數(shù)的個(gè)數(shù),用卷積的形式是合理的,因?yàn)閷?duì)于一副貓的圖片來(lái)說(shuō),右移一個(gè)像素同樣還是貓,其具有局部的特征.這是一種很好的緩解過(guò)擬合現(xiàn)象的方法.
同樣在RNN中用到的參數(shù)共享,在其整條時(shí)間鏈上可以進(jìn)行參數(shù)的共享,這樣才使得其能夠被訓(xùn)練.

5. bagging 和其他集成方法

其實(shí)bagging的方法是可以起到正則化的作用,因?yàn)?a href='/map/zhengzehua/' style='color:#000;font-size:inherit;'>正則化就是要減少泛化誤差,而bagging的方法可以組合多個(gè)模型起到減少泛化誤差的作用.
深度學(xué)習(xí)中同樣可以使用此方法,但是其會(huì)增加計(jì)算和存儲(chǔ)的成本.

6. Dropout

Dropout提供了一種廉價(jià)的Bagging集成近似,能夠訓(xùn)練和評(píng)估指數(shù)級(jí)數(shù)量的神經(jīng)網(wǎng)絡(luò)。dropout可以隨機(jī)的讓一部分神經(jīng)元失活,這樣仿佛是bagging的采樣過(guò)程,因此可以看做是bagging的廉價(jià)的實(shí)現(xiàn).
但是它們訓(xùn)練不太一樣,因?yàn)閎agging,所有的模型都是獨(dú)立的,而dropout下所有模型的參數(shù)是共享的.
通常可以這樣理解dropout:假設(shè)我們要判別一只貓,有一個(gè)神經(jīng)元說(shuō)看到有毛就是貓,但是如果我讓這個(gè)神經(jīng)元失活,它還能判斷出來(lái)是貓的話(huà),這樣就比較具有泛化的能力,減輕了過(guò)擬合的風(fēng)險(xiǎn).

7. 輔助分類(lèi)節(jié)點(diǎn)(auxiliary classifiers)

在Google Inception V1中,采用了輔助分類(lèi)節(jié)點(diǎn)的策略,即將中間某一層的輸出用作分類(lèi),并按一個(gè)較小的權(quán)重加到最終的分類(lèi)結(jié)果中,這樣相當(dāng)于做了模型的融合,同時(shí)給網(wǎng)絡(luò)增加了反向傳播的梯度信號(hào),提供了額外的正則化的思想.

8. Batch Normalization

在Google Inception V2中所采用,是一種非常有用的正則化方法,可以讓大型的卷積網(wǎng)絡(luò)訓(xùn)練速度加快很多倍,同事收斂后分類(lèi)的準(zhǔn)確率也可以大幅度的提高.
BN在訓(xùn)練某層時(shí),會(huì)對(duì)每一個(gè)mini-batch數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化(normalization)處理,使輸出規(guī)范到N(0,1)的正太分布,減少了Internal convariate shift(內(nèi)部神經(jīng)元分布的改變),傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)在訓(xùn)練是,每一層的輸入的分布都在改變,因此訓(xùn)練困難,只能選擇用一個(gè)很小的學(xué)習(xí)速率,但是每一層用了BN后,可以有效的解決這個(gè)問(wèn)題,學(xué)習(xí)速率可以增大很多倍.


數(shù)據(jù)分析咨詢(xún)請(qǐng)掃描二維碼

若不方便掃碼,搜微信號(hào):CDAshujufenxi

數(shù)據(jù)分析師資訊
更多

OK
客服在線(xiàn)
立即咨詢(xún)
客服在線(xiàn)
立即咨詢(xún)
') } function initGt() { var handler = function (captchaObj) { captchaObj.appendTo('#captcha'); captchaObj.onReady(function () { $("#wait").hide(); }).onSuccess(function(){ $('.getcheckcode').removeClass('dis'); $('.getcheckcode').trigger('click'); }); window.captchaObj = captchaObj; }; $('#captcha').show(); $.ajax({ url: "/login/gtstart?t=" + (new Date()).getTime(), // 加隨機(jī)數(shù)防止緩存 type: "get", dataType: "json", success: function (data) { $('#text').hide(); $('#wait').show(); // 調(diào)用 initGeetest 進(jìn)行初始化 // 參數(shù)1:配置參數(shù) // 參數(shù)2:回調(diào),回調(diào)的第一個(gè)參數(shù)驗(yàn)證碼對(duì)象,之后可以使用它調(diào)用相應(yīng)的接口 initGeetest({ // 以下 4 個(gè)配置參數(shù)為必須,不能缺少 gt: data.gt, challenge: data.challenge, offline: !data.success, // 表示用戶(hù)后臺(tái)檢測(cè)極驗(yàn)服務(wù)器是否宕機(jī) new_captcha: data.new_captcha, // 用于宕機(jī)時(shí)表示是新驗(yàn)證碼的宕機(jī) product: "float", // 產(chǎn)品形式,包括:float,popup width: "280px", https: true // 更多配置參數(shù)說(shuō)明請(qǐng)參見(jiàn):http://docs.geetest.com/install/client/web-front/ }, handler); } }); } function codeCutdown() { if(_wait == 0){ //倒計(jì)時(shí)完成 $(".getcheckcode").removeClass('dis').html("重新獲取"); }else{ $(".getcheckcode").addClass('dis').html("重新獲取("+_wait+"s)"); _wait--; setTimeout(function () { codeCutdown(); },1000); } } function inputValidate(ele,telInput) { var oInput = ele; var inputVal = oInput.val(); var oType = ele.attr('data-type'); var oEtag = $('#etag').val(); var oErr = oInput.closest('.form_box').next('.err_txt'); var empTxt = '請(qǐng)輸入'+oInput.attr('placeholder')+'!'; var errTxt = '請(qǐng)輸入正確的'+oInput.attr('placeholder')+'!'; var pattern; if(inputVal==""){ if(!telInput){ errFun(oErr,empTxt); } return false; }else { switch (oType){ case 'login_mobile': pattern = /^1[3456789]\d{9}$/; if(inputVal.length==11) { $.ajax({ url: '/login/checkmobile', type: "post", dataType: "json", data: { mobile: inputVal, etag: oEtag, page_ur: window.location.href, page_referer: document.referrer }, success: function (data) { } }); } break; case 'login_yzm': pattern = /^\d{6}$/; break; } if(oType=='login_mobile'){ } if(!!validateFun(pattern,inputVal)){ errFun(oErr,'') if(telInput){ $('.getcheckcode').removeClass('dis'); } }else { if(!telInput) { errFun(oErr, errTxt); }else { $('.getcheckcode').addClass('dis'); } return false; } } return true; } function errFun(obj,msg) { obj.html(msg); if(msg==''){ $('.login_submit').removeClass('dis'); }else { $('.login_submit').addClass('dis'); } } function validateFun(pat,val) { return pat.test(val); }