2020-02-26
閱讀量:
778
特征降維
在實(shí)際應(yīng)用中,當(dāng)特征個(gè)數(shù)增加到某一個(gè)臨界點(diǎn)后,繼續(xù)增加反而會(huì)導(dǎo)致分類器的性能變差——“維度災(zāi)難”(curse of dimensionality)。
對(duì)于高維數(shù)據(jù),“維度災(zāi)難”使解決模式識(shí)別問(wèn)題非常困難,此時(shí),往往要求首先降低特征向量的維度。
降低特征向量維度的可行性分析:
特征向量往往是包含冗余信息的!
有些特征可能與分類問(wèn)題無(wú)關(guān)
特征之間存在著很強(qiáng)的相關(guān)性
降低維度的方法
?特征組合:把幾個(gè)特征組合在一起,形成新的特征
?特征選擇:選擇現(xiàn)有特征集的一個(gè)子集
針對(duì)不同的訓(xùn)練目標(biāo)有不同的訓(xùn)練算法:
?最小化重構(gòu)誤差(主成分分析,PCA)
?最大化類別可分性(線性判別分析,LDA)
?最小化分類誤差(判別訓(xùn)練,discriminative training)
?保留最多細(xì)節(jié)的投影(投影尋蹤,projection pursuit)
?最大限度的使各特征之間獨(dú)立(獨(dú)立成分分析,ICA)






評(píng)論(0)


暫無(wú)數(shù)據(jù)
CDA考試動(dòng)態(tài)
CDA報(bào)考指南
推薦帖子
0條評(píng)論
0條評(píng)論
0條評(píng)論