
作者 | Jason Brownlee編譯 | CDA數(shù)據(jù)分析師
使用實值數(shù)據(jù)(例如使用Pearson的相關系數(shù))時,特征選擇通常很簡單,但是使用分類數(shù)據(jù)時可能會遇到挑戰(zhàn)。
當目標變量也是分類的(例如分類預測建模)時,分類輸入數(shù)據(jù)的兩種最常用的特征選擇方法是卡方統(tǒng)計和互信息統(tǒng)計。
在本教程中,您將發(fā)現(xiàn)如何使用分類輸入數(shù)據(jù)執(zhí)行特征選擇。
完成本教程后,您將知道:
本教程分為三個部分:他們是:
作為本教程的基礎,我們將使用自1980年代以來作為機器學習數(shù)據(jù)集而被廣泛研究的所謂“ 乳腺癌 ”數(shù)據(jù)集。
該數(shù)據(jù)集將乳腺癌患者數(shù)據(jù)分類為癌癥復發(fā)或無復發(fā)。有286個示例和9個輸入變量。這是一個二進制分類問題。
天真的模型可以在此數(shù)據(jù)集上達到70%的精度。好的分數(shù)大約是76%+/- 3%。我們將針對該區(qū)域,但是請注意,本教程中的模型并未進行優(yōu)化。它們旨在演示編碼方案。
您可以下載數(shù)據(jù)集,然后將文件另存為“ breast-cancer.csv ”在當前工作目錄中。
查看數(shù)據(jù),我們可以看到所有九個輸入變量都是分類的。
具體來說,所有變量都用引號引起來;有些是序數(shù),有些不是。
'40-49','premeno','15-19','0-2','yes','3','right','left_up','no','recurrence-events' '50-59','ge40','15-19','0-2','no','1','right','central','no','no-recurrence-events' '50-59','ge40','35-39','0-2','no','2','left','left_low','no','recurrence-events' '40-49','premeno','35-39','0-2','yes','3','right','left_low','yes','no-recurrence-events' '40-49','premeno','30-34','3-5','yes','2','left','right_up','no','recurrence-events' ...
我們可以使用Pandas庫將該數(shù)據(jù)集加載到內(nèi)存中。
... # load the dataset as a pandas DataFrame data = read_csv(filename, header=None) # retrieve numpy array dataset = data.values
加載后,我們可以將列分為輸入(X)和輸出以進行建模。
... # split into input (X) and output (y) variables X = dataset[:, :-1] y = dataset[:,-1]
最后,我們可以將輸入數(shù)據(jù)中的所有字段都強制為字符串,以防萬一熊貓試圖將某些字段自動映射為數(shù)字(確實如此)。
... # format all fields as string X = X.astype(str)
我們可以將所有這些結合到一個有用的功能中,以備后用。
# load the dataset def load_dataset(filename): # load the dataset as a pandas DataFrame data = read_csv(filename, header=None) # retrieve numpy array dataset = data.values # split into input (X) and output (y) variables X = dataset[:, :-1] y = dataset[:,-1] # format all fields as string X = X.astype(str) return X, y
加載后,我們可以將數(shù)據(jù)分為訓練集和測試集,以便我們可以擬合和評估學習模型。
我們將使用scikit-learn形式的traintestsplit()函數(shù),并將67%的數(shù)據(jù)用于訓練,將33%的數(shù)據(jù)用于測試。
... # load the dataset X, y = load_dataset('breast-cancer.csv') # split into train and test sets X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=1)
將所有這些元素結合在一起,下面列出了加載,拆分和匯總原始分類數(shù)據(jù)集的完整示例。
# load and summarize the dataset from pandas import read_csv from sklearn.model_selection import train_test_split # load the dataset def load_dataset(filename): # load the dataset as a pandas DataFrame data = read_csv(filename, header=None) # retrieve numpy array dataset = data.values # split into input (X) and output (y) variables X = dataset[:, :-1] y = dataset[:,-1] # format all fields as string X = X.astype(str) return X, y # load the dataset X, y = load_dataset('breast-cancer.csv') # split into train and test sets X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=1) # summarize print('Train', X_train.shape, y_train.shape) print('Test', X_test.shape, y_test.shape)
運行示例將報告訓練和測試集的輸入和輸出元素的大小。
我們可以看到,我們有191個示例用于培訓,而95個用于測試。
Train (191, 9) (191, 1) Test (95, 9) (95, 1)
既然我們已經(jīng)熟悉了數(shù)據(jù)集,那么讓我們看一下如何對它進行編碼以進行建模。
我們可以使用scikit-learn的OrdinalEncoder()將每個變量編碼為整數(shù)。這是一個靈活的類,并且允許將類別的順序指定為參數(shù)(如果已知這樣的順序)。
注意:我將作為練習來更新以下示例,以嘗試為具有自然順序的變量指定順序,并查看其是否對模型性能產(chǎn)生影響。
對變量進行編碼的最佳實踐是使編碼適合訓練數(shù)據(jù)集,然后將其應用于訓練和測試數(shù)據(jù)集。
下面名為prepare_inputs()的函數(shù)獲取火車和測試集的輸入數(shù)據(jù),并使用序數(shù)編碼對其進行編碼。
# prepare input data def prepare_inputs(X_train, X_test): oe = OrdinalEncoder() oe.fit(X_train) X_train_enc = oe.transform(X_train) X_test_enc = oe.transform(X_test) return X_train_enc, X_test_enc
我們還需要準備目標變量。
這是一個二進制分類問題,因此我們需要將兩個類標簽映射到0和1。這是一種序數(shù)編碼,而scikit-learn提供了專門為此目的設計的LabelEncoder類。盡管LabelEncoder設計用于編碼單個變量,但我們可以輕松使用OrdinalEncoder并獲得相同的結果。
所述prepare_targets()函數(shù)整數(shù)編碼的訓練集和測試集的輸出數(shù)據(jù)。
# prepare target def prepare_targets(y_train, y_test): le = LabelEncoder() le.fit(y_train) y_train_enc = le.transform(y_train) y_test_enc = le.transform(y_test) return y_train_enc, y_test_enc
我們可以調(diào)用這些函數(shù)來準備我們的數(shù)據(jù)。
... # prepare input data X_train_enc, X_test_enc = prepare_inputs(X_train, X_test) # prepare output data y_train_enc, y_test_enc = prepare_targets(y_train, y_test)
綜上所述,下面列出了加載和編碼乳腺癌分類數(shù)據(jù)集的輸入和輸出變量的完整示例。
# example of loading and preparing the breast cancer dataset from pandas import read_csv from sklearn.model_selection import train_test_split from sklearn.preprocessing import LabelEncoder from sklearn.preprocessing import OrdinalEncoder # load the dataset def load_dataset(filename): # load the dataset as a pandas DataFrame data = read_csv(filename, header=None) # retrieve numpy array dataset = data.values # split into input (X) and output (y) variables X = dataset[:, :-1] y = dataset[:,-1] # format all fields as string X = X.astype(str) return X, y # prepare input data def prepare_inputs(X_train, X_test): oe = OrdinalEncoder() oe.fit(X_train) X_train_enc = oe.transform(X_train) X_test_enc = oe.transform(X_test) return X_train_enc, X_test_enc # prepare target def prepare_targets(y_train, y_test): le = LabelEncoder() le.fit(y_train) y_train_enc = le.transform(y_train) y_test_enc = le.transform(y_test) return y_train_enc, y_test_enc # load the dataset X, y = load_dataset('breast-cancer.csv') # split into train and test sets X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=1) # prepare input data X_train_enc, X_test_enc = prepare_inputs(X_train, X_test) # prepare output data y_train_enc, y_test_enc = prepare_targets(y_train, y_test)
現(xiàn)在我們已經(jīng)加載并準備了乳腺癌數(shù)據(jù)集,我們可以探索特征選擇。
有兩種流行的特征選擇技術,可用于分類輸入數(shù)據(jù)和分類(類)目標變量。
他們是:
讓我們依次仔細研究每個對象。
皮爾遜的卡方統(tǒng)計假設檢驗是分類變量之間獨立性檢驗的一個示例。
您可以在教程中了解有關此統(tǒng)計測試的更多信息:
該測試的結果可用于特征選擇,其中可以從數(shù)據(jù)集中刪除與目標變量無關的那些特征。
scikit-learn機器庫在chi2()函數(shù)中提供了卡方檢驗的實現(xiàn)。此功能可用于特征選擇策略中,例如通過SelectKBest類選擇前k個最相關的特征(最大值)。
例如,我們可以定義SelectKBest類以使用chi2 ()函數(shù)并選擇所有功能,然后轉(zhuǎn)換訓練序列和測試集。
... fs = SelectKBest(score_func=chi2, k='all') fs.fit(X_train, y_train) X_train_fs = fs.transform(X_train) X_test_fs = fs.transform(X_test)
然后,我們可以打印每個變量的分數(shù)(越大越好),并將每個變量的分數(shù)繪制為條形圖,以了解應該選擇多少個特征。
... # what are scores for the features for i in range(len(fs.scores_)): print('Feature %d: %f' % (i, fs.scores_[i])) # plot the scores pyplot.bar([i for i in range(len(fs.scores_))], fs.scores_) pyplot.show()
將其與上一節(jié)中乳腺癌數(shù)據(jù)集的數(shù)據(jù)準備結合在一起,下面列出了完整的示例。
# example of chi squared feature selection for categorical data from pandas import read_csv from sklearn.model_selection import train_test_split from sklearn.preprocessing import LabelEncoder from sklearn.preprocessing import OrdinalEncoder from sklearn.feature_selection import SelectKBest from sklearn.feature_selection import chi2 from matplotlib import pyplot # load the dataset def load_dataset(filename): # load the dataset as a pandas DataFrame data = read_csv(filename, header=None) # retrieve numpy array dataset = data.values # split into input (X) and output (y) variables X = dataset[:, :-1] y = dataset[:,-1] # format all fields as string X = X.astype(str) return X, y # prepare input data def prepare_inputs(X_train, X_test): oe = OrdinalEncoder() oe.fit(X_train) X_train_enc = oe.transform(X_train) X_test_enc = oe.transform(X_test) return X_train_enc, X_test_enc # prepare target def prepare_targets(y_train, y_test): le = LabelEncoder() le.fit(y_train) y_train_enc = le.transform(y_train) y_test_enc = le.transform(y_test) return y_train_enc, y_test_enc # feature selection def select_features(X_train, y_train, X_test): fs = SelectKBest(score_func=chi2, k='all') fs.fit(X_train, y_train) X_train_fs = fs.transform(X_train) X_test_fs = fs.transform(X_test) return X_train_fs, X_test_fs, fs # load the dataset X, y = load_dataset('breast-cancer.csv') # split into train and test sets X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=1) # prepare input data X_train_enc, X_test_enc = prepare_inputs(X_train, X_test) # prepare output data y_train_enc, y_test_enc = prepare_targets(y_train, y_test) # feature selection X_train_fs, X_test_fs, fs = select_features(X_train_enc, y_train_enc, X_test_enc) # what are scores for the features for i in range(len(fs.scores_)): print('Feature %d: %f' % (i, fs.scores_[i])) # plot the scores pyplot.bar([i for i in range(len(fs.scores_))], fs.scores_) pyplot.show()
首先運行示例將打印為每個輸入要素和目標變量計算的分數(shù)。
注意:您的具體結果可能會有所不同。嘗試運行該示例幾次。
在這種情況下,我們可以看到分數(shù)很小,僅憑數(shù)字很難知道哪個功能更相關。
也許功能3、4、5和8最相關。
Feature 0: 0.472553 Feature 1: 0.029193 Feature 2: 2.137658 Feature 3: 29.381059 Feature 4: 8.222601 Feature 5: 8.100183 Feature 6: 1.273822 Feature 7: 0.950682 Feature 8: 3.699989
創(chuàng)建每個輸入要素的要素重要性得分的條形圖。
這清楚地表明,特征3可能是最相關的(根據(jù)卡方),并且九個輸入特征中的四個也許是最相關的。
在配置SelectKBest來選擇這前四個功能時,我們可以設置k = 4 。
輸入要素的條形圖(x)vs Chi-Squared要素重要性(y)
來自信息理論領域的互信息是信息增益(通常用于決策樹的構建)在特征選擇中的應用。
在兩個變量之間計算互信息,并在給定另一個變量的已知值的情況下測量一個變量的不確定性降低。
您可以在以下教程中了解有關相互信息的更多信息。
scikit-learn機器學習庫通過commoninfoclassif()函數(shù)提供了用于信息選擇的互信息實現(xiàn)。
像chi2()一樣,它可以用于SelectKBest特征選擇策略(和其他策略)中。
# feature selection def select_features(X_train, y_train, X_test): fs = SelectKBest(score_func=mutual_info_classif, k='all') fs.fit(X_train, y_train) X_train_fs = fs.transform(X_train) X_test_fs = fs.transform(X_test) return X_train_fs, X_test_fs, fs
我們可以使用關于乳腺癌組的相互信息來進行特征選擇,并像上一節(jié)中那樣打印和繪制分數(shù)(越大越好)。
下面列出了使用互信息進行分類特征選擇的完整示例。
# example of mutual information feature selection for categorical data from pandas import read_csv from sklearn.model_selection import train_test_split from sklearn.preprocessing import LabelEncoder from sklearn.preprocessing import OrdinalEncoder from sklearn.feature_selection import SelectKBest from sklearn.feature_selection import mutual_info_classif from matplotlib import pyplot # load the dataset def load_dataset(filename): # load the dataset as a pandas DataFrame data = read_csv(filename, header=None) # retrieve numpy array dataset = data.values # split into input (X) and output (y) variables X = dataset[:, :-1] y = dataset[:,-1] # format all fields as string X = X.astype(str) return X, y # prepare input data def prepare_inputs(X_train, X_test): oe = OrdinalEncoder() oe.fit(X_train) X_train_enc = oe.transform(X_train) X_test_enc = oe.transform(X_test) return X_train_enc, X_test_enc # prepare target def prepare_targets(y_train, y_test): le = LabelEncoder() le.fit(y_train) y_train_enc = le.transform(y_train) y_test_enc = le.transform(y_test) return y_train_enc, y_test_enc # feature selection def select_features(X_train, y_train, X_test): fs = SelectKBest(score_func=mutual_info_classif, k='all') fs.fit(X_train, y_train) X_train_fs = fs.transform(X_train) X_test_fs = fs.transform(X_test) return X_train_fs, X_test_fs, fs # load the dataset X, y = load_dataset('breast-cancer.csv') # split into train and test sets X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=1) # prepare input data X_train_enc, X_test_enc = prepare_inputs(X_train, X_test) # prepare output data y_train_enc, y_test_enc = prepare_targets(y_train, y_test) # feature selection X_train_fs, X_test_fs, fs = select_features(X_train_enc, y_train_enc, X_test_enc) # what are scores for the features for i in range(len(fs.scores_)): print('Feature %d: %f' % (i, fs.scores_[i])) # plot the scores pyplot.bar([i for i in range(len(fs.scores_))], fs.scores_) pyplot.show()
首先運行示例將打印為每個輸入要素和目標變量計算的分數(shù)。
注意:您的具體結果可能會有所不同。嘗試運行該示例幾次。
在這種情況下,我們可以看到某些功能的得分很低,表明也許可以將其刪除。
也許功能3、6、2和5最相關。
Feature 0: 0.003588 Feature 1: 0.000000 Feature 2: 0.025934 Feature 3: 0.071461 Feature 4: 0.000000 Feature 5: 0.038973 Feature 6: 0.064759 Feature 7: 0.003068 Feature 8: 0.000000
創(chuàng)建每個輸入要素的要素重要性得分的條形圖。
重要的是,促進了特征的不同混合。
既然我們知道如何針對分類預測建模問題對分類數(shù)據(jù)執(zhí)行特征選擇,那么我們可以嘗試使用選定的特征開發(fā)模型并比較結果。
有許多不同的技術可用來對特征評分和根據(jù)分數(shù)選擇特征。您怎么知道要使用哪個?
一種可靠的方法是使用不同的特征選擇方法(和特征數(shù)量)評估模型,然后選擇能夠產(chǎn)生最佳性能的模型的方法。
在本節(jié)中,我們將評估具有所有要素的Logistic回歸模型,并將其與通過卡方選擇的要素和通過互信息選擇的要素構建的模型進行比較。
邏輯回歸是測試特征選擇方法的良好模型,因為如果從模型中刪除了不相關的特征,則邏輯回歸性能會更好。
第一步,我們將使用所有可用功能評估LogisticRegression模型。
該模型適合訓練數(shù)據(jù)集,并在測試數(shù)據(jù)集上進行評估。
下面列出了完整的示例。
# evaluation of a model using all input features from pandas import read_csv from sklearn.preprocessing import LabelEncoder from sklearn.preprocessing import OrdinalEncoder from sklearn.model_selection import train_test_split from sklearn.linear_model import LogisticRegression from sklearn.metrics import accuracy_score # load the dataset def load_dataset(filename): # load the dataset as a pandas DataFrame data = read_csv(filename, header=None) # retrieve numpy array dataset = data.values # split into input (X) and output (y) variables X = dataset[:, :-1] y = dataset[:,-1] # format all fields as string X = X.astype(str) return X, y # prepare input data def prepare_inputs(X_train, X_test): oe = OrdinalEncoder() oe.fit(X_train) X_train_enc = oe.transform(X_train) X_test_enc = oe.transform(X_test) return X_train_enc, X_test_enc # prepare target def prepare_targets(y_train, y_test): le = LabelEncoder() le.fit(y_train) y_train_enc = le.transform(y_train) y_test_enc = le.transform(y_test) return y_train_enc, y_test_enc # load the dataset X, y = load_dataset('breast-cancer.csv') # split into train and test sets X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=1) # prepare input data X_train_enc, X_test_enc = prepare_inputs(X_train, X_test) # prepare output data y_train_enc, y_test_enc = prepare_targets(y_train, y_test) # fit the model model = LogisticRegression(solver='lbfgs') model.fit(X_train_enc, y_train_enc) # evaluate the model yhat = model.predict(X_test_enc) # evaluate predictions accuracy = accuracy_score(y_test_enc, yhat) print('Accuracy: %.2f' % (accuracy*100))
運行示例將在訓練數(shù)據(jù)集上打印模型的準確性。
注意:根據(jù)學習算法的隨機性,您的特定結果可能會有所不同。嘗試運行該示例幾次。
在這種情況下,我們可以看到該模型實現(xiàn)了約75%的分類精度。
我們寧愿使用能夠?qū)崿F(xiàn)比此更好或更高的分類精度的功能子集。
Accuracy: 75.79
下面的select_features()函數(shù)已更新以實現(xiàn)此目的。
# feature selection def select_features(X_train, y_train, X_test): fs = SelectKBest(score_func=chi2, k=4) fs.fit(X_train, y_train) X_train_fs = fs.transform(X_train) X_test_fs = fs.transform(X_test) return X_train_fs, X_test_fs
下面列出了使用這種特征選擇方法評估邏輯回歸模型擬合和對數(shù)據(jù)進行評估的完整示例。
# evaluation of a model fit using chi squared input features from pandas import read_csv from sklearn.preprocessing import LabelEncoder from sklearn.preprocessing import OrdinalEncoder from sklearn.feature_selection import SelectKBest from sklearn.feature_selection import chi2 from sklearn.model_selection import train_test_split from sklearn.linear_model import LogisticRegression from sklearn.metrics import accuracy_score # load the dataset def load_dataset(filename): # load the dataset as a pandas DataFrame data = read_csv(filename, header=None) # retrieve numpy array dataset = data.values # split into input (X) and output (y) variables X = dataset[:, :-1] y = dataset[:,-1] # format all fields as string X = X.astype(str) return X, y # prepare input data def prepare_inputs(X_train, X_test): oe = OrdinalEncoder() oe.fit(X_train) X_train_enc = oe.transform(X_train) X_test_enc = oe.transform(X_test) return X_train_enc, X_test_enc # prepare target def prepare_targets(y_train, y_test): le = LabelEncoder() le.fit(y_train) y_train_enc = le.transform(y_train) y_test_enc = le.transform(y_test) return y_train_enc, y_test_enc # feature selection def select_features(X_train, y_train, X_test): fs = SelectKBest(score_func=chi2, k=4) fs.fit(X_train, y_train) X_train_fs = fs.transform(X_train) X_test_fs = fs.transform(X_test) return X_train_fs, X_test_fs # load the dataset X, y = load_dataset('breast-cancer.csv') # split into train and test sets X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=1) # prepare input data X_train_enc, X_test_enc = prepare_inputs(X_train, X_test) # prepare output data y_train_enc, y_test_enc = prepare_targets(y_train, y_test) # feature selection X_train_fs, X_test_fs = select_features(X_train_enc, y_train_enc, X_test_enc) # fit the model model = LogisticRegression(solver='lbfgs') model.fit(X_train_fs, y_train_enc) # evaluate the model yhat = model.predict(X_test_fs) # evaluate predictions accuracy = accuracy_score(y_test_enc, yhat) print('Accuracy: %.2f' % (accuracy*100))
運行示例將報告使用卡方統(tǒng)計量選擇的九個輸入要素中只有四個要素的模型性能。
注意:根據(jù)學習算法的隨機性,您的特定結果可能會有所不同。嘗試運行該示例幾次。
在這種情況下,我們看到該模型的準確度約為74%,性能略有下降。
實際上,某些已刪除的功能可能會直接增加價值,或者與所選功能一致。
在這個階段,我們可能更喜歡使用所有輸入功能。
Accuracy: 74.74
我們可以重復實驗,并使用相互信息統(tǒng)計量選擇前四個功能。
下面列出了實現(xiàn)此目的的select_features()函數(shù)的更新版本。
# feature selection def select_features(X_train, y_train, X_test): fs = SelectKBest(score_func=mutual_info_classif, k=4) fs.fit(X_train, y_train) X_train_fs = fs.transform(X_train) X_test_fs = fs.transform(X_test) return X_train_fs, X_test_fs
下面列出了使用互信息進行特征選擇以擬合邏輯回歸模型的完整示例。
# evaluation of a model fit using mutual information input features from pandas import read_csv from sklearn.preprocessing import LabelEncoder from sklearn.preprocessing import OrdinalEncoder from sklearn.feature_selection import SelectKBest from sklearn.feature_selection import mutual_info_classif from sklearn.model_selection import train_test_split from sklearn.linear_model import LogisticRegression from sklearn.metrics import accuracy_score # load the dataset def load_dataset(filename): # load the dataset as a pandas DataFrame data = read_csv(filename, header=None) # retrieve numpy array dataset = data.values # split into input (X) and output (y) variables X = dataset[:, :-1] y = dataset[:,-1] # format all fields as string X = X.astype(str) return X, y # prepare input data def prepare_inputs(X_train, X_test): oe = OrdinalEncoder() oe.fit(X_train) X_train_enc = oe.transform(X_train) X_test_enc = oe.transform(X_test) return X_train_enc, X_test_enc # prepare target def prepare_targets(y_train, y_test): le = LabelEncoder() le.fit(y_train) y_train_enc = le.transform(y_train) y_test_enc = le.transform(y_test) return y_train_enc, y_test_enc # feature selection def select_features(X_train, y_train, X_test): fs = SelectKBest(score_func=mutual_info_classif, k=4) fs.fit(X_train, y_train) X_train_fs = fs.transform(X_train) X_test_fs = fs.transform(X_test) return X_train_fs, X_test_fs # load the dataset X, y = load_dataset('breast-cancer.csv') # split into train and test sets X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33, random_state=1) # prepare input data X_train_enc, X_test_enc = prepare_inputs(X_train, X_test) # prepare output data y_train_enc, y_test_enc = prepare_targets(y_train, y_test) # feature selection X_train_fs, X_test_fs = select_features(X_train_enc, y_train_enc, X_test_enc) # fit the model model = LogisticRegression(solver='lbfgs') model.fit(X_train_fs, y_train_enc) # evaluate the model yhat = model.predict(X_test_fs) # evaluate predictions accuracy = accuracy_score(y_test_enc, yhat) print('Accuracy: %.2f' % (accuracy*100))
運行示例使模型適合于使用互信息選擇的前四個精選功能。
注意:根據(jù)學習算法的隨機性,您的特定結果可能會有所不同。嘗試運行該示例幾次。
在這種情況下,我們可以看到分類精度小幅提升至76%。
為了確保效果是真實的,最好將每個實驗重復多次并比較平均效果。探索使用k倍交叉驗證而不是簡單的訓練/測試拆分也是一個好主意。
數(shù)據(jù)分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
LSTM 模型輸入長度選擇技巧:提升序列建模效能的關鍵? 在循環(huán)神經(jīng)網(wǎng)絡(RNN)家族中,長短期記憶網(wǎng)絡(LSTM)憑借其解決長序列 ...
2025-07-11CDA 數(shù)據(jù)分析師報考條件詳解與準備指南? ? 在數(shù)據(jù)驅(qū)動決策的時代浪潮下,CDA 數(shù)據(jù)分析師認證愈發(fā)受到矚目,成為眾多有志投身數(shù) ...
2025-07-11數(shù)據(jù)透視表中兩列相乘合計的實用指南? 在數(shù)據(jù)分析的日常工作中,數(shù)據(jù)透視表憑借其強大的數(shù)據(jù)匯總和分析功能,成為了 Excel 用戶 ...
2025-07-11尊敬的考生: 您好! 我們誠摯通知您,CDA Level I和 Level II考試大綱將于 2025年7月25日 實施重大更新。 此次更新旨在確保認 ...
2025-07-10BI 大數(shù)據(jù)分析師:連接數(shù)據(jù)與業(yè)務的價值轉(zhuǎn)化者? ? 在大數(shù)據(jù)與商業(yè)智能(Business Intelligence,簡稱 BI)深度融合的時代,BI ...
2025-07-10SQL 在預測分析中的應用:從數(shù)據(jù)查詢到趨勢預判? ? 在數(shù)據(jù)驅(qū)動決策的時代,預測分析作為挖掘數(shù)據(jù)潛在價值的核心手段,正被廣泛 ...
2025-07-10數(shù)據(jù)查詢結束后:分析師的收尾工作與價值深化? ? 在數(shù)據(jù)分析的全流程中,“query end”(查詢結束)并非工作的終點,而是將數(shù) ...
2025-07-10CDA 數(shù)據(jù)分析師考試:從報考到取證的全攻略? 在數(shù)字經(jīng)濟蓬勃發(fā)展的今天,數(shù)據(jù)分析師已成為各行業(yè)爭搶的核心人才,而 CDA(Certi ...
2025-07-09【CDA干貨】單樣本趨勢性檢驗:捕捉數(shù)據(jù)背后的時間軌跡? 在數(shù)據(jù)分析的版圖中,單樣本趨勢性檢驗如同一位耐心的偵探,專注于從單 ...
2025-07-09year_month數(shù)據(jù)類型:時間維度的精準切片? ? 在數(shù)據(jù)的世界里,時間是最不可或缺的維度之一,而year_month數(shù)據(jù)類型就像一把精準 ...
2025-07-09CDA 備考干貨:Python 在數(shù)據(jù)分析中的核心應用與實戰(zhàn)技巧? ? 在 CDA 數(shù)據(jù)分析師認證考試中,Python 作為數(shù)據(jù)處理與分析的核心 ...
2025-07-08SPSS 中的 Mann-Kendall 檢驗:數(shù)據(jù)趨勢與突變分析的有力工具? ? ? 在數(shù)據(jù)分析的廣袤領域中,準確捕捉數(shù)據(jù)的趨勢變化以及識別 ...
2025-07-08備戰(zhàn) CDA 數(shù)據(jù)分析師考試:需要多久?如何規(guī)劃? CDA(Certified Data Analyst)數(shù)據(jù)分析師認證作為國內(nèi)權威的數(shù)據(jù)分析能力認證 ...
2025-07-08LSTM 輸出不確定的成因、影響與應對策略? 長短期記憶網(wǎng)絡(LSTM)作為循環(huán)神經(jīng)網(wǎng)絡(RNN)的一種變體,憑借獨特的門控機制,在 ...
2025-07-07統(tǒng)計學方法在市場調(diào)研數(shù)據(jù)中的深度應用? 市場調(diào)研是企業(yè)洞察市場動態(tài)、了解消費者需求的重要途徑,而統(tǒng)計學方法則是市場調(diào)研數(shù) ...
2025-07-07CDA數(shù)據(jù)分析師證書考試全攻略? 在數(shù)字化浪潮席卷全球的當下,數(shù)據(jù)已成為企業(yè)決策、行業(yè)發(fā)展的核心驅(qū)動力,數(shù)據(jù)分析師也因此成為 ...
2025-07-07剖析 CDA 數(shù)據(jù)分析師考試題型:解鎖高效備考與答題策略? CDA(Certified Data Analyst)數(shù)據(jù)分析師考試作為衡量數(shù)據(jù)專業(yè)能力的 ...
2025-07-04SQL Server 字符串截取轉(zhuǎn)日期:解鎖數(shù)據(jù)處理的關鍵技能? 在數(shù)據(jù)處理與分析工作中,數(shù)據(jù)格式的規(guī)范性是保證后續(xù)分析準確性的基礎 ...
2025-07-04CDA 數(shù)據(jù)分析師視角:從數(shù)據(jù)迷霧中探尋商業(yè)真相? 在數(shù)字化浪潮席卷全球的今天,數(shù)據(jù)已成為企業(yè)決策的核心驅(qū)動力,CDA(Certifie ...
2025-07-04CDA 數(shù)據(jù)分析師:開啟數(shù)據(jù)職業(yè)發(fā)展新征程? ? 在數(shù)據(jù)成為核心生產(chǎn)要素的今天,數(shù)據(jù)分析師的職業(yè)價值愈發(fā)凸顯。CDA(Certified D ...
2025-07-03