2018-11-21
閱讀量:
1059
冗余的處理
在進行邏輯回歸時,我們希望選擇的變量盡可能地有效,避免冗余。常用的變量篩選方法有如下幾種:
① Wald檢驗:通過Wald統(tǒng)計量,來檢驗自變量對因變量的影響能力。Wald越大,說明自變量的相關(guān)性越大,越應(yīng)該保留。
② 似然比檢驗(Likehood Ratio):也是邏輯回歸非常常用的一種檢驗方法。邏輯回歸模型的估計一般是使用最大似然估計,也就是說找到一個似然函數(shù)L,使其達到最大值。L越大,也就說明模型的預(yù)測效果越好。因此似然比檢驗本質(zhì)上是對包含或者不包含某一個或者幾個變量的模型L值進行比較,從而做出判斷。
③ 比分檢驗(Score Test):以包含某個或者某幾個變量的模型作為基礎(chǔ),加入系數(shù)為0的新變量,通過計算似然函數(shù)的一階偏導(dǎo)數(shù)和信息矩陣,取兩者的乘積作為最終的統(tǒng)計量。
這三種方法中,似然比檢驗是最可靠,也是最常用的一種變量篩選方法。在變量存在共線性時,Wald檢驗結(jié)果不可靠。另外,實際應(yīng)用是以上三種方法,都可以采用向前或者向后逐步的方式進行變量篩選。






評論(0)


暫無數(shù)據(jù)
推薦帖子
0條評論
0條評論
0條評論