
CDA數(shù)據(jù)分析師 出品
作者:Mika
數(shù)據(jù):真達(dá)
后期:Mika
【導(dǎo)讀】手把手教你如何用python寫(xiě)出心血管疾病預(yù)測(cè)模型。
全球每年約有1700萬(wàn)人死于心血管疾病,當(dāng)中主要表現(xiàn)為心肌梗死和心力衰竭。當(dāng)心臟不能泵出足夠的血液來(lái)滿足人體的需要時(shí),就會(huì)發(fā)生心力衰竭,通常由糖尿病、高血壓或其他心臟疾病引起。
在檢測(cè)心血管疾病的早期癥狀時(shí),機(jī)器學(xué)習(xí)就能派上用場(chǎng)了。通過(guò)患者的電子病歷,可以記錄患者的癥狀、身體特征、臨床實(shí)驗(yàn)室測(cè)試值,從而進(jìn)行生物統(tǒng)計(jì)分析,這能夠發(fā)現(xiàn)那些醫(yī)生無(wú)法檢測(cè)到的模式和相關(guān)性。
尤其通過(guò)機(jī)器學(xué)習(xí),根據(jù)數(shù)據(jù)就能預(yù)測(cè)患者的存活率,今天我們就教大家如何用Python寫(xiě)一個(gè)心血管疾病的預(yù)測(cè)模型。
研究背景和數(shù)據(jù)來(lái)源
我們用到的數(shù)據(jù)集來(lái)自Davide Chicco和Giuseppe Jurman發(fā)表的論文:《機(jī)器學(xué)習(xí)可以僅通過(guò)血肌酐和射血分?jǐn)?shù)來(lái)預(yù)測(cè)心力衰竭患者的生存率》。
他們收集整理了299名心力衰竭患者的醫(yī)療記錄,這些患者數(shù)據(jù)來(lái)自2015年4月至12月間巴基斯坦費(fèi)薩拉巴德心臟病研究所和費(fèi)薩拉巴德聯(lián)合醫(yī)院。這些患者由105名女性和194名男性組成,年齡在40至95歲之間。所有299例患者均患有左心室收縮功能不全,并曾出現(xiàn)過(guò)心力衰竭。
Davide和Giuseppe應(yīng)用了多個(gè)機(jī)器學(xué)習(xí)分類(lèi)器來(lái)預(yù)測(cè)患者的生存率,并根據(jù)最重要的危險(xiǎn)因素對(duì)特征進(jìn)行排序。同時(shí)還利用傳統(tǒng)的生物統(tǒng)計(jì)學(xué)測(cè)試進(jìn)行了另一種特征排序分析,并將這些結(jié)果與機(jī)器學(xué)習(xí)算法提供的結(jié)果進(jìn)行比較。
他們分析對(duì)比了心力衰竭患者的一系列數(shù)據(jù),最終發(fā)現(xiàn)根據(jù)血肌酐和射血分?jǐn)?shù)這兩項(xiàng)數(shù)據(jù)能夠很好的預(yù)測(cè)心力衰竭患者的存活率。
今天我們就教教大家,如果根據(jù)這共13個(gè)字段的299 條病人診斷記錄,用Python寫(xiě)出預(yù)測(cè)心力衰竭患者存活率的預(yù)測(cè)模型。
下面是具體的步驟和關(guān)鍵代碼。
01、數(shù)據(jù)理解
數(shù)據(jù)取自于kaggle平臺(tái)分享的心血管疾病數(shù)據(jù)集,共有13個(gè)字段299 條病人診斷記錄。具體的字段概要如下:
02、數(shù)據(jù)讀入和初步處理
首先導(dǎo)入所需包。
# 數(shù)據(jù)整理 import numpy as np import pandas as pd # 可視化 import matplotlib.pyplot as plt import seaborn as sns import plotly as py import plotly.graph_objs as go import plotly.express as px import plotly.figure_factory as ff # 模型建立 from sklearn.linear_model import LogisticRegression from sklearn.tree import DecisionTreeClassifier from sklearn.ensemble import GradientBoostingClassifier, RandomForestClassifier import lightgbm # 前處理 from sklearn.preprocessing import StandardScaler # 模型評(píng)估 from sklearn.model_selection import train_test_split, GridSearchCV from sklearn.metrics import plot_confusion_matrix, confusion_matrix, f1_score
加載并預(yù)覽數(shù)據(jù)集:
# 讀入數(shù)據(jù) df = pd.read_csv('./data/heart_failure.csv') df.head()
03、探索性分析
1. 描述性分析
df.describe().T
從上述描述性分析結(jié)果簡(jiǎn)單總結(jié)如下:
2. 目標(biāo)變量
# 產(chǎn)生數(shù)據(jù) death_num = df['DEATH_EVENT'].value_counts() death_num = death_num.reset_index() # 餅圖 fig = px.pie(death_num, names='index', values='DEATH_EVENT') fig.update_layout(title_text='目標(biāo)變量DEATH_EVENT的分布') py.offline.plot(fig, filename='./html/目標(biāo)變量DEATH_EVENT的分布.html')
總共有299人,其中隨訪期未存活人數(shù)96人,占總?cè)藬?shù)的32.1%
3. 貧血
從圖中可以看出,有貧血癥狀的患者死亡概率較高,為35.66%。
bar1 = draw_categorical_graph(df['anaemia'], df['DEATH_EVENT'], title='紅細(xì)胞、血紅蛋白減少和是否存活') bar1.render('./html/紅細(xì)胞血紅蛋白減少和是否存活.html')
4. 年齡
從直方圖可以看出,在患心血管疾病的病人中年齡分布差異較大,表現(xiàn)趨勢(shì)為年齡越大,生存比例越低、死亡的比例越高。
# 產(chǎn)生數(shù)據(jù) surv = df[df['DEATH_EVENT'] == 0]['age'] not_surv = df[df['DEATH_EVENT'] == 1]['age'] hist_data = [surv, not_surv] group_labels = ['Survived', 'Not Survived'] # 直方圖 fig = ff.create_distplot(hist_data, group_labels, bin_size=0.5) fig.update_layout(title_text='年齡和生存狀態(tài)關(guān)系') py.offline.plot(fig, filename='./html/年齡和生存狀態(tài)關(guān)系.html')
5. 年齡/性別
從分組統(tǒng)計(jì)和圖形可以看出,不同性別之間生存狀態(tài)沒(méi)有顯著性差異。在死亡的病例中,男性的平均年齡相對(duì)較高。
6. 年齡/抽煙
數(shù)據(jù)顯示,整體來(lái)看,是否抽煙與生存與否沒(méi)有顯著相關(guān)性。但是當(dāng)我們關(guān)注抽煙的人群中,年齡在50歲以下生存概率較高。
7. 磷酸肌酸激酶(CPK)
從直方圖可以看出,血液中CPK酶的水平較高的人群死亡的概率較高。
8. 射血分?jǐn)?shù)
射血分?jǐn)?shù)代表了心臟的泵血功能,過(guò)高和過(guò)低水平下,生存的概率較低。
9. 血小板
血液中血小板(100~300)×10^9個(gè)/L,較高或較低的水平則代表不正常,存活的概率較低。
10. 血肌酐水平
血肌酐是檢測(cè)腎功能的最常用指標(biāo),較高的指數(shù)代表腎功能不全、腎衰竭,有較高的概率死亡。
11. 血清鈉水平
圖形顯示,血清鈉較高或較低往往伴隨著風(fēng)險(xiǎn)。
12. 相關(guān)性分析
從數(shù)值型屬性的相關(guān)性圖可以看出,變量之間沒(méi)有顯著的共線性關(guān)系。
num_df = df[['age', 'creatinine_phosphokinase', 'ejection_fraction', 'platelets', 'serum_creatinine', 'serum_sodium']] plt.figure(figsize=(12, 12)) sns.heatmap(num_df.corr(), vmin=-1, cmap='coolwarm', linewidths=0.1, annot=True) plt.title('Pearson correlation coefficient between numeric variables', fontdict={'fontsize': 15}) plt.show()
04、特征篩選
我們使用統(tǒng)計(jì)方法進(jìn)行特征篩選,目標(biāo)變量DEATH_EVENT是分類(lèi)變量時(shí),當(dāng)自變量是分類(lèi)變量,使用卡方鑒定,自變量是數(shù)值型變量,使用方差分析。
# 劃分X和y X = df.drop('DEATH_EVENT', axis=1) y = df['DEATH_EVENT']
from feature_selection import Feature_select fs = Feature_select(num_method='anova', cate_method='kf') X_selected = fs.fit_transform(X, y) X_selected.head()
2020 17:19:49 INFO attr select success! After select attr: ['serum_creatinine', 'serum_sodium', 'ejection_fraction', 'age', 'time']
首先劃分訓(xùn)練集和測(cè)試集。
# 劃分訓(xùn)練集和測(cè)試集 Features = X_selected.columns X = df[Features] y = df["DEATH_EVENT"] X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, stratify=y, random_state=2020)
# 標(biāo)準(zhǔn)化 scaler = StandardScaler() scaler_Xtrain = scaler.fit_transform(X_train) scaler_Xtest = scaler.fit_transform(X_test) lr = LogisticRegression() lr.fit(scaler_Xtrain, y_train) test_pred = lr.predict(scaler_Xtest) # F1-score print("F1_score of LogisticRegression is : ", round(f1_score(y_true=y_test, y_pred=test_pred),2))
我們使用決策樹(shù)進(jìn)行建模,設(shè)置特征選擇標(biāo)準(zhǔn)為gini,樹(shù)的深度為5。輸出混淆矩陣圖:在這個(gè)案例中,1類(lèi)是我們關(guān)注的對(duì)象。
# DecisionTreeClassifier clf = DecisionTreeClassifier(criterion='gini', max_depth=5, random_state=1) clf.fit(X_train, y_train) test_pred = clf.predict(X_test) # F1-score print("F1_score of DecisionTreeClassifier is : ", round(f1_score(y_true=y_test, y_pred=test_pred),2)) # 繪圖 plt.figure(figsize=(10, 7)) plot_confusion_matrix(clf, X_test, y_test, cmap='Blues') plt.title("DecisionTreeClassifier - Confusion Matrix", fontsize=15) plt.xticks(range(2), ["Heart Not Failed","Heart Fail"], fontsize=12) plt.yticks(range(2), ["Heart Not Failed","Heart Fail"], fontsize=12) plt.show()
F1_score of DecisionTreeClassifier is : 0.61 <Figure size 720x504 with 0 Axes>
使用網(wǎng)格搜索進(jìn)行參數(shù)調(diào)優(yōu),優(yōu)化標(biāo)準(zhǔn)為f1。
parameters = {'splitter':('best','random'), 'criterion':("gini","entropy"), "max_depth":[*range(1, 20)], } clf = DecisionTreeClassifier(random_state=1) GS = GridSearchCV(clf, param_grid=parameters, cv=10, scoring='f1', n_jobs=-1) GS.fit(X_train, y_train) print(GS.best_params_) print(GS.best_score_)
{'criterion': 'entropy', 'max_depth': 3, 'splitter': 'best'} 0.7638956305132776
使用最優(yōu)的模型重新評(píng)估測(cè)試集效果:
test_pred = GS.best_estimator_.predict(X_test) # F1-score print("F1_score of DecisionTreeClassifier is : ", round(f1_score(y_true=y_test, y_pred=test_pred),2)) # 繪圖 plt.figure(figsize=(10, 7)) plot_confusion_matrix(GS, X_test, y_test, cmap='Blues') plt.title("DecisionTreeClassifier - Confusion Matrix", fontsize=15) plt.xticks(range(2), ["Heart Not Failed","Heart Fail"], fontsize=12) plt.yticks(range(2), ["Heart Not Failed","Heart Fail"], fontsize=12) plt.show()
使用隨機(jī)森林
# RandomForestClassifier rfc = RandomForestClassifier(n_estimators=1000, random_state=1) parameters = {'max_depth': np.arange(2, 20, 1) } GS = GridSearchCV(rfc, param_grid=parameters, cv=10, scoring='f1', n_jobs=-1) GS.fit(X_train, y_train) print(GS.best_params_) print(GS.best_score_) test_pred = GS.best_estimator_.predict(X_test) # F1-score print("F1_score of RandomForestClassifier is : ", round(f1_score(y_true=y_test, y_pred=test_pred),2))
{'max_depth': 3} 0.791157747481277 F1_score of RandomForestClassifier is : 0.53
使用Boosting
gbl = GradientBoostingClassifier(n_estimators=1000, random_state=1) parameters = {'max_depth': np.arange(2, 20, 1) } GS = GridSearchCV(gbl, param_grid=parameters, cv=10, scoring='f1', n_jobs=-1) GS.fit(X_train, y_train) print(GS.best_params_) print(GS.best_score_) # 測(cè)試集 test_pred = GS.best_estimator_.predict(X_test) # F1-score print("F1_score of GradientBoostingClassifier is : ", round(f1_score(y_true=y_test, y_pred=test_pred),2))
{'max_depth': 3} 0.7288420428900305 F1_score of GradientBoostingClassifier is : 0.65
使用LGBMClassifier
lgb_clf = lightgbm.LGBMClassifier(boosting_type='gbdt', random_state=1) parameters = {'max_depth': np.arange(2, 20, 1) } GS = GridSearchCV(lgb_clf, param_grid=parameters, cv=10, scoring='f1', n_jobs=-1) GS.fit(X_train, y_train) print(GS.best_params_) print(GS.best_score_) # 測(cè)試集 test_pred = GS.best_estimator_.predict(X_test) # F1-score print("F1_score of LGBMClassifier is : ", round(f1_score(y_true=y_test, y_pred=test_pred),2))
{'max_depth': 2} 0.780378102289867 F1_score of LGBMClassifier is : 0.74
以下為各模型在測(cè)試集上的表現(xiàn)效果對(duì)比:
LogisticRegression:0.63
DecisionTree Classifier:0.73
Random Forest Classifier: 0.53
GradientBoosting Classifier: 0.65
LGBM Classifier: 0.74
參考鏈接:
Machine learning can predict survival of patients with heart failure from serum creatinine and ejection fraction alone
https://bmcmedinformdecismak.biomedcentral.com/articles/10.1186/s12911-020-1023-5#Abs1
數(shù)據(jù)分析咨詢請(qǐng)掃描二維碼
若不方便掃碼,搜微信號(hào):CDAshujufenxi
DSGE 模型中的 Et:理性預(yù)期算子的內(nèi)涵、作用與應(yīng)用解析 動(dòng)態(tài)隨機(jī)一般均衡(Dynamic Stochastic General Equilibrium, DSGE)模 ...
2025-09-17Python 提取 TIF 中地名的完整指南 一、先明確:TIF 中的地名有哪兩種存在形式? 在開(kāi)始提取前,需先判斷 TIF 文件的類(lèi)型 —— ...
2025-09-17CDA 數(shù)據(jù)分析師:解鎖表結(jié)構(gòu)數(shù)據(jù)特征價(jià)值的專(zhuān)業(yè)核心 表結(jié)構(gòu)數(shù)據(jù)(以 “行 - 列” 規(guī)范存儲(chǔ)的結(jié)構(gòu)化數(shù)據(jù),如數(shù)據(jù)庫(kù)表、Excel 表、 ...
2025-09-17Excel 導(dǎo)入數(shù)據(jù)含缺失值?詳解 dropna 函數(shù)的功能與實(shí)戰(zhàn)應(yīng)用 在用 Python(如 pandas 庫(kù))處理 Excel 數(shù)據(jù)時(shí),“缺失值” 是高頻 ...
2025-09-16深入解析卡方檢驗(yàn)與 t 檢驗(yàn):差異、適用場(chǎng)景與實(shí)踐應(yīng)用 在數(shù)據(jù)分析與統(tǒng)計(jì)學(xué)領(lǐng)域,假設(shè)檢驗(yàn)是驗(yàn)證研究假設(shè)、判斷數(shù)據(jù)差異是否 “ ...
2025-09-16CDA 數(shù)據(jù)分析師:掌控表格結(jié)構(gòu)數(shù)據(jù)全功能周期的專(zhuān)業(yè)操盤(pán)手 表格結(jié)構(gòu)數(shù)據(jù)(以 “行 - 列” 存儲(chǔ)的結(jié)構(gòu)化數(shù)據(jù),如 Excel 表、數(shù)據(jù) ...
2025-09-16MySQL 執(zhí)行計(jì)劃中 rows 數(shù)量的準(zhǔn)確性解析:原理、影響因素與優(yōu)化 在 MySQL SQL 調(diào)優(yōu)中,EXPLAIN執(zhí)行計(jì)劃是核心工具,而其中的row ...
2025-09-15解析 Python 中 Response 對(duì)象的 text 與 content:區(qū)別、場(chǎng)景與實(shí)踐指南 在 Python 進(jìn)行 HTTP 網(wǎng)絡(luò)請(qǐng)求開(kāi)發(fā)時(shí)(如使用requests ...
2025-09-15CDA 數(shù)據(jù)分析師:激活表格結(jié)構(gòu)數(shù)據(jù)價(jià)值的核心操盤(pán)手 表格結(jié)構(gòu)數(shù)據(jù)(如 Excel 表格、數(shù)據(jù)庫(kù)表)是企業(yè)最基礎(chǔ)、最核心的數(shù)據(jù)形態(tài) ...
2025-09-15Python HTTP 請(qǐng)求工具對(duì)比:urllib.request 與 requests 的核心差異與選擇指南 在 Python 處理 HTTP 請(qǐng)求(如接口調(diào)用、數(shù)據(jù)爬取 ...
2025-09-12解決 pd.read_csv 讀取長(zhǎng)浮點(diǎn)數(shù)據(jù)的科學(xué)計(jì)數(shù)法問(wèn)題 為幫助 Python 數(shù)據(jù)從業(yè)者解決pd.read_csv讀取長(zhǎng)浮點(diǎn)數(shù)據(jù)時(shí)的科學(xué)計(jì)數(shù)法問(wèn)題 ...
2025-09-12CDA 數(shù)據(jù)分析師:業(yè)務(wù)數(shù)據(jù)分析步驟的落地者與價(jià)值優(yōu)化者 業(yè)務(wù)數(shù)據(jù)分析是企業(yè)解決日常運(yùn)營(yíng)問(wèn)題、提升執(zhí)行效率的核心手段,其價(jià)值 ...
2025-09-12用 SQL 驗(yàn)證業(yè)務(wù)邏輯:從規(guī)則拆解到數(shù)據(jù)把關(guān)的實(shí)戰(zhàn)指南 在業(yè)務(wù)系統(tǒng)落地過(guò)程中,“業(yè)務(wù)邏輯” 是連接 “需求設(shè)計(jì)” 與 “用戶體驗(yàn) ...
2025-09-11塔吉特百貨孕婦營(yíng)銷(xiāo)案例:數(shù)據(jù)驅(qū)動(dòng)下的精準(zhǔn)零售革命與啟示 在零售行業(yè) “流量紅利見(jiàn)頂” 的當(dāng)下,精準(zhǔn)營(yíng)銷(xiāo)成為企業(yè)突圍的核心方 ...
2025-09-11CDA 數(shù)據(jù)分析師與戰(zhàn)略 / 業(yè)務(wù)數(shù)據(jù)分析:概念辨析與協(xié)同價(jià)值 在數(shù)據(jù)驅(qū)動(dòng)決策的體系中,“戰(zhàn)略數(shù)據(jù)分析”“業(yè)務(wù)數(shù)據(jù)分析” 是企業(yè) ...
2025-09-11Excel 數(shù)據(jù)聚類(lèi)分析:從操作實(shí)踐到業(yè)務(wù)價(jià)值挖掘 在數(shù)據(jù)分析場(chǎng)景中,聚類(lèi)分析作為 “無(wú)監(jiān)督分組” 的核心工具,能從雜亂數(shù)據(jù)中挖 ...
2025-09-10統(tǒng)計(jì)模型的核心目的:從數(shù)據(jù)解讀到?jīng)Q策支撐的價(jià)值導(dǎo)向 統(tǒng)計(jì)模型作為數(shù)據(jù)分析的核心工具,并非簡(jiǎn)單的 “公式堆砌”,而是圍繞特定 ...
2025-09-10CDA 數(shù)據(jù)分析師:商業(yè)數(shù)據(jù)分析實(shí)踐的落地者與價(jià)值創(chuàng)造者 商業(yè)數(shù)據(jù)分析的價(jià)值,最終要在 “實(shí)踐” 中體現(xiàn) —— 脫離業(yè)務(wù)場(chǎng)景的分 ...
2025-09-10機(jī)器學(xué)習(xí)解決實(shí)際問(wèn)題的核心關(guān)鍵:從業(yè)務(wù)到落地的全流程解析 在人工智能技術(shù)落地的浪潮中,機(jī)器學(xué)習(xí)作為核心工具,已廣泛應(yīng)用于 ...
2025-09-09SPSS 編碼狀態(tài)區(qū)域中 Unicode 的功能與價(jià)值解析 在 SPSS(Statistical Product and Service Solutions,統(tǒng)計(jì)產(chǎn)品與服務(wù)解決方案 ...
2025-09-09