2020-02-26
閱讀量:
744
特征降維
在實際應(yīng)用中,當特征個數(shù)增加到某一個臨界點后,繼續(xù)增加反而會導致分類器的性能變差——“維度災(zāi)難”(curse of dimensionality)。
對于高維數(shù)據(jù),“維度災(zāi)難”使解決模式識別問題非常困難,此時,往往要求首先降低特征向量的維度。
降低特征向量維度的可行性分析:
特征向量往往是包含冗余信息的!
有些特征可能與分類問題無關(guān)
特征之間存在著很強的相關(guān)性
降低維度的方法
?特征組合:把幾個特征組合在一起,形成新的特征
?特征選擇:選擇現(xiàn)有特征集的一個子集
針對不同的訓練目標有不同的訓練算法:
?最小化重構(gòu)誤差(主成分分析,PCA)
?最大化類別可分性(線性判別分析,LDA)
?最小化分類誤差(判別訓練,discriminative training)
?保留最多細節(jié)的投影(投影尋蹤,projection pursuit)
?最大限度的使各特征之間獨立(獨立成分分析,ICA)






評論(0)


暫無數(shù)據(jù)
推薦帖子
0條評論
0條評論
0條評論