99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
2018-10-25 閱讀量: 1871
過擬合的常用處理方式

1.增加訓練數據數

過擬合是由于模型學習到了數據的一些噪聲特征導致,增加訓練數據的量能夠減少噪聲的影響,讓模型更多地學習數據的一般特征。

利用現(xiàn)有數據進行擴充或許也是一個好辦法。例如在圖像識別中,如果沒有足夠的圖片訓練,可以把已有的圖片進行旋轉,拉伸,鏡像,對稱等,這樣就可以把數據量擴大好幾倍而不需要額外補充數據。一般有以下方法:

  • 從數據源頭采集更多數據
  • 復制原有數據并加上隨機噪聲
  • 重采樣
  • 根據當前數據集估計數據分布參數,使用該分布產生更多數據等

2.使用正則化約束

使用正則化緩解過擬合的手段廣泛應用,不論是在線性回歸還是在神經網絡的梯度下降計算過程中,都應用到了正則化的方法。常用的正則化有l(wèi)1l1正則和l2l2正則。

3.減少特征數

欠擬合需要增加特征數,那么過擬合自然就要減少特征數。去除那些非共性特征,可以提高模型的泛化能力。

4.調整參數和超參數

不論什么情況,調參是必須的。

5.降低模型的復雜度

6.遷移學習

當你的數據集比較小,訓練的網絡過擬合,泛化能力比較差,你也可以不用大的數據集再去訓練,可以采用遷移學習,即fine-tuning一個既成的網絡。對于小型的數據集訓練,只需要freeze前面的網絡參數,然后單獨學習最后的全連接層。如果你有更多的數據,那么可以逐漸訓練更多的最后幾層的網絡。

0.0000
1
關注作者
收藏
評論(0)

發(fā)表評論

暫無數據
推薦帖子