
深度學(xué)習(xí)防止過擬合的方法
過擬合即在訓(xùn)練誤差很小,而泛化誤差很大,因?yàn)槟P涂赡苓^于的復(fù)雜,使其”記住”了訓(xùn)練樣本,然而其泛化誤差卻很高,在傳統(tǒng)的機(jī)器學(xué)習(xí)方法中有很大防止過擬合的方法,同樣這些方法很多也適合用于深度學(xué)習(xí)中,同時(shí)深度學(xué)習(xí)中又有一些獨(dú)特的防止過擬合的方法,下面對(duì)其進(jìn)行簡(jiǎn)單的梳理.
1. 參數(shù)范數(shù)懲罰
范數(shù)正則化是一種非常普遍的方法,也是最常用的方法,假如優(yōu)化:
其中L為經(jīng)驗(yàn)風(fēng)險(xiǎn),其為在訓(xùn)練樣本上的誤差,而G為對(duì)參數(shù)的懲罰,也叫結(jié)構(gòu)風(fēng)險(xiǎn).α是平衡兩者,如果太大則對(duì)應(yīng)的懲罰越大,如過太小,甚至接近與0,則沒有懲罰.
最常用的范數(shù)懲罰為L(zhǎng)1,L2正則化,L1又被成為L(zhǎng)asso:
即絕對(duì)值相加,其趨向于是一些參數(shù)為0.可以起到特征選擇的作用.
L2正則化為:
其趨向與,使權(quán)重很小.其又成為ridge.
讓模型泛化的能力更好的最好辦法就是使用更多的訓(xùn)練數(shù)據(jù)進(jìn)行訓(xùn)練,但是在實(shí)踐中,我們擁有的數(shù)據(jù)是有限的,解決這一問題可以人為的創(chuàng)造一些假數(shù)據(jù)添加到訓(xùn)練集中.
一個(gè)具體的例子:
在AlexNet中,將256*256圖像隨機(jī)的截取224*224大小,增加了許多的訓(xùn)練樣本,同時(shí)可以對(duì)圖像進(jìn)行左右翻轉(zhuǎn),增加樣本的個(gè)數(shù),實(shí)驗(yàn)的結(jié)果可以可降低1%的誤差.
在神經(jīng)網(wǎng)絡(luò)中輸入噪聲也可以看做是數(shù)據(jù)增強(qiáng)的一種方式.
3. 提前終止
如下圖所示(圖片來源deep learning),當(dāng)隨著模型的能力提升,訓(xùn)練集的誤差會(huì)先減小再增大,這樣可以提前終止算法減緩過擬合現(xiàn)象.關(guān)于算法的具體流程參考deep learning.
提前終止是一種很常用的緩解過擬合的方法,如在決策樹的先剪枝的算法,提前終止算法,使得樹的深度降低,防止其過擬合.
4. 參數(shù)綁定與參數(shù)共享
在卷積神經(jīng)網(wǎng)絡(luò)CNN中(計(jì)算機(jī)視覺與卷積神經(jīng)網(wǎng)絡(luò) ),卷積層就是其中權(quán)值共享的方式,一個(gè)卷積核通過在圖像上滑動(dòng)從而實(shí)現(xiàn)共享參數(shù),大幅度減少參數(shù)的個(gè)數(shù),用卷積的形式是合理的,因?yàn)閷?duì)于一副貓的圖片來說,右移一個(gè)像素同樣還是貓,其具有局部的特征.這是一種很好的緩解過擬合現(xiàn)象的方法.
同樣在RNN中用到的參數(shù)共享,在其整條時(shí)間鏈上可以進(jìn)行參數(shù)的共享,這樣才使得其能夠被訓(xùn)練.
5. bagging 和其他集成方法
其實(shí)bagging的方法是可以起到正則化的作用,因?yàn)?a href='/map/zhengzehua/' style='color:#000;font-size:inherit;'>正則化就是要減少泛化誤差,而bagging的方法可以組合多個(gè)模型起到減少泛化誤差的作用.
在深度學(xué)習(xí)中同樣可以使用此方法,但是其會(huì)增加計(jì)算和存儲(chǔ)的成本.
6. Dropout
Dropout提供了一種廉價(jià)的Bagging集成近似,能夠訓(xùn)練和評(píng)估指數(shù)級(jí)數(shù)量的神經(jīng)網(wǎng)絡(luò)。dropout可以隨機(jī)的讓一部分神經(jīng)元失活,這樣仿佛是bagging的采樣過程,因此可以看做是bagging的廉價(jià)的實(shí)現(xiàn).
但是它們訓(xùn)練不太一樣,因?yàn)閎agging,所有的模型都是獨(dú)立的,而dropout下所有模型的參數(shù)是共享的.
通??梢赃@樣理解dropout:假設(shè)我們要判別一只貓,有一個(gè)神經(jīng)元說看到有毛就是貓,但是如果我讓這個(gè)神經(jīng)元失活,它還能判斷出來是貓的話,這樣就比較具有泛化的能力,減輕了過擬合的風(fēng)險(xiǎn).
7. 輔助分類節(jié)點(diǎn)(auxiliary classifiers)
在Google Inception V1中,采用了輔助分類節(jié)點(diǎn)的策略,即將中間某一層的輸出用作分類,并按一個(gè)較小的權(quán)重加到最終的分類結(jié)果中,這樣相當(dāng)于做了模型的融合,同時(shí)給網(wǎng)絡(luò)增加了反向傳播的梯度信號(hào),提供了額外的正則化的思想.
8. Batch Normalization
在Google Inception V2中所采用,是一種非常有用的正則化方法,可以讓大型的卷積網(wǎng)絡(luò)訓(xùn)練速度加快很多倍,同事收斂后分類的準(zhǔn)確率也可以大幅度的提高.
BN在訓(xùn)練某層時(shí),會(huì)對(duì)每一個(gè)mini-batch數(shù)據(jù)進(jìn)行標(biāo)準(zhǔn)化(normalization)處理,使輸出規(guī)范到N(0,1)的正太分布,減少了Internal
convariate
shift(內(nèi)部神經(jīng)元分布的改變),傳統(tǒng)的深度神經(jīng)網(wǎng)絡(luò)在訓(xùn)練是,每一層的輸入的分布都在改變,因此訓(xùn)練困難,只能選擇用一個(gè)很小的學(xué)習(xí)速率,但是每一層用了BN后,可以有效的解決這個(gè)問題,學(xué)習(xí)速率可以增大很多倍.
數(shù)據(jù)分析咨詢請(qǐng)掃描二維碼
若不方便掃碼,搜微信號(hào):CDAshujufenxi
LSTM 模型輸入長(zhǎng)度選擇技巧:提升序列建模效能的關(guān)鍵? 在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)家族中,長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)憑借其解決長(zhǎng)序列 ...
2025-07-11CDA 數(shù)據(jù)分析師報(bào)考條件詳解與準(zhǔn)備指南? ? 在數(shù)據(jù)驅(qū)動(dòng)決策的時(shí)代浪潮下,CDA 數(shù)據(jù)分析師認(rèn)證愈發(fā)受到矚目,成為眾多有志投身數(shù) ...
2025-07-11數(shù)據(jù)透視表中兩列相乘合計(jì)的實(shí)用指南? 在數(shù)據(jù)分析的日常工作中,數(shù)據(jù)透視表憑借其強(qiáng)大的數(shù)據(jù)匯總和分析功能,成為了 Excel 用戶 ...
2025-07-11尊敬的考生: 您好! 我們誠(chéng)摯通知您,CDA Level I和 Level II考試大綱將于 2025年7月25日 實(shí)施重大更新。 此次更新旨在確保認(rèn) ...
2025-07-10BI 大數(shù)據(jù)分析師:連接數(shù)據(jù)與業(yè)務(wù)的價(jià)值轉(zhuǎn)化者? ? 在大數(shù)據(jù)與商業(yè)智能(Business Intelligence,簡(jiǎn)稱 BI)深度融合的時(shí)代,BI ...
2025-07-10SQL 在預(yù)測(cè)分析中的應(yīng)用:從數(shù)據(jù)查詢到趨勢(shì)預(yù)判? ? 在數(shù)據(jù)驅(qū)動(dòng)決策的時(shí)代,預(yù)測(cè)分析作為挖掘數(shù)據(jù)潛在價(jià)值的核心手段,正被廣泛 ...
2025-07-10數(shù)據(jù)查詢結(jié)束后:分析師的收尾工作與價(jià)值深化? ? 在數(shù)據(jù)分析的全流程中,“query end”(查詢結(jié)束)并非工作的終點(diǎn),而是將數(shù) ...
2025-07-10CDA 數(shù)據(jù)分析師考試:從報(bào)考到取證的全攻略? 在數(shù)字經(jīng)濟(jì)蓬勃發(fā)展的今天,數(shù)據(jù)分析師已成為各行業(yè)爭(zhēng)搶的核心人才,而 CDA(Certi ...
2025-07-09【CDA干貨】單樣本趨勢(shì)性檢驗(yàn):捕捉數(shù)據(jù)背后的時(shí)間軌跡? 在數(shù)據(jù)分析的版圖中,單樣本趨勢(shì)性檢驗(yàn)如同一位耐心的偵探,專注于從單 ...
2025-07-09year_month數(shù)據(jù)類型:時(shí)間維度的精準(zhǔn)切片? ? 在數(shù)據(jù)的世界里,時(shí)間是最不可或缺的維度之一,而year_month數(shù)據(jù)類型就像一把精準(zhǔn) ...
2025-07-09CDA 備考干貨:Python 在數(shù)據(jù)分析中的核心應(yīng)用與實(shí)戰(zhàn)技巧? ? 在 CDA 數(shù)據(jù)分析師認(rèn)證考試中,Python 作為數(shù)據(jù)處理與分析的核心 ...
2025-07-08SPSS 中的 Mann-Kendall 檢驗(yàn):數(shù)據(jù)趨勢(shì)與突變分析的有力工具? ? ? 在數(shù)據(jù)分析的廣袤領(lǐng)域中,準(zhǔn)確捕捉數(shù)據(jù)的趨勢(shì)變化以及識(shí)別 ...
2025-07-08備戰(zhàn) CDA 數(shù)據(jù)分析師考試:需要多久?如何規(guī)劃? CDA(Certified Data Analyst)數(shù)據(jù)分析師認(rèn)證作為國(guó)內(nèi)權(quán)威的數(shù)據(jù)分析能力認(rèn)證 ...
2025-07-08LSTM 輸出不確定的成因、影響與應(yīng)對(duì)策略? 長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)作為循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的一種變體,憑借獨(dú)特的門控機(jī)制,在 ...
2025-07-07統(tǒng)計(jì)學(xué)方法在市場(chǎng)調(diào)研數(shù)據(jù)中的深度應(yīng)用? 市場(chǎng)調(diào)研是企業(yè)洞察市場(chǎng)動(dòng)態(tài)、了解消費(fèi)者需求的重要途徑,而統(tǒng)計(jì)學(xué)方法則是市場(chǎng)調(diào)研數(shù) ...
2025-07-07CDA數(shù)據(jù)分析師證書考試全攻略? 在數(shù)字化浪潮席卷全球的當(dāng)下,數(shù)據(jù)已成為企業(yè)決策、行業(yè)發(fā)展的核心驅(qū)動(dòng)力,數(shù)據(jù)分析師也因此成為 ...
2025-07-07剖析 CDA 數(shù)據(jù)分析師考試題型:解鎖高效備考與答題策略? CDA(Certified Data Analyst)數(shù)據(jù)分析師考試作為衡量數(shù)據(jù)專業(yè)能力的 ...
2025-07-04SQL Server 字符串截取轉(zhuǎn)日期:解鎖數(shù)據(jù)處理的關(guān)鍵技能? 在數(shù)據(jù)處理與分析工作中,數(shù)據(jù)格式的規(guī)范性是保證后續(xù)分析準(zhǔn)確性的基礎(chǔ) ...
2025-07-04CDA 數(shù)據(jù)分析師視角:從數(shù)據(jù)迷霧中探尋商業(yè)真相? 在數(shù)字化浪潮席卷全球的今天,數(shù)據(jù)已成為企業(yè)決策的核心驅(qū)動(dòng)力,CDA(Certifie ...
2025-07-04CDA 數(shù)據(jù)分析師:開啟數(shù)據(jù)職業(yè)發(fā)展新征程? ? 在數(shù)據(jù)成為核心生產(chǎn)要素的今天,數(shù)據(jù)分析師的職業(yè)價(jià)值愈發(fā)凸顯。CDA(Certified D ...
2025-07-03