99999久久久久久亚洲,欧美人与禽猛交狂配,高清日韩av在线影院,一个人在线高清免费观看,啦啦啦在线视频免费观看www

熱線電話:13121318867

登錄
2021-04-26 閱讀量: 2159
為什么需要交叉驗證這種方式

當(dāng)僅有有限數(shù)量的數(shù)據(jù)時,為了對模型性能進(jìn)行無偏估計,我們可以使用k折交叉驗證(k-fold cross-validation)。 使用這種方法時,數(shù)據(jù)被分成k份數(shù)目相等的子集。我們構(gòu)建k次模型,每次留一個子集做測試集,其他用作訓(xùn)練集。如果k等于樣本大小,這也被稱之為留一驗證(leave-one-out)。

在kaggle上,一些數(shù)據(jù)集是已經(jīng)對訓(xùn)練集和測試集進(jìn)行了區(qū)分,這種情況我覺得是不用再進(jìn)行數(shù)據(jù)集的切分,直接進(jìn)行交叉驗證的,只需要直接在測試集上進(jìn)行測試即可。

需要交叉驗證的場景,是指那種數(shù)據(jù)量比較少的情況下,僅僅有訓(xùn)練數(shù)據(jù),訓(xùn)練誤差并不能體現(xiàn)出你相應(yīng)的性能,要充分利用有限的數(shù)據(jù)。

進(jìn)行多次驗證或者將測試集的比例增大,可以在統(tǒng)計學(xué)上提高算法的置信度。


239.7347
0
關(guān)注作者
收藏
評論(0)

發(fā)表評論

暫無數(shù)據(jù)
推薦帖子