
Python機(jī)器學(xué)習(xí)之Logistic回歸
大數(shù)據(jù)時代,數(shù)據(jù)猶如一座巨大的金礦,等待我們?nèi)グl(fā)掘。而機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘的相關(guān)技術(shù),無疑就是你挖礦探寶的必備利器!工欲善其事,必先利其器。很多初涉該領(lǐng)域的人,最先困惑的一個問題就是,我該選擇哪種“工具”來進(jìn)行數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)。我這里的工具主要指的是“語言、系統(tǒng)和平臺”。盡管之于機(jī)器學(xué)習(xí)而言,語言和平臺從來都不算是核心問題,但是選擇一個你所熟悉的語言和環(huán)境確實(shí)可以令你事半功倍。
現(xiàn)在你的選擇可謂相當(dāng)廣泛,例如Matlab、R和Weka都可以用來進(jìn)行數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)方面的實(shí)踐。其中,Matlab是眾所周知的商業(yè)軟件,而R和Weka都是免費(fèi)軟件。R是應(yīng)用于統(tǒng)計和數(shù)據(jù)分析的首屈一指的計算機(jī)語言和平臺,如果你是擁有數(shù)學(xué)或統(tǒng)計學(xué)相關(guān)專業(yè)背景的人,那么使用R來進(jìn)行數(shù)據(jù)挖掘就是一個相當(dāng)不錯的選擇。我前面有很多介紹利用R語言進(jìn)行數(shù)據(jù)挖掘的文章可供參考:
在R中使用支持向量機(jī)(SVM)進(jìn)行數(shù)據(jù)挖掘
機(jī)器學(xué)習(xí)中的EM算法詳解及R語言實(shí)例
Weka的全名是懷卡托智能分析環(huán)境(Waikato Environment for Knowledge Analysis),是一款免費(fèi)的,非商業(yè)化的,基于Java環(huán)境下開源的機(jī)器學(xué)習(xí)(machine learning)以及數(shù)據(jù)挖掘(data mining)軟件。2005年8月,在第11屆ACM SIGKDD國際會議上,懷卡托大學(xué)的Weka小組榮獲了數(shù)據(jù)挖掘和知識探索領(lǐng)域的最高服務(wù)獎,Weka系統(tǒng)得到了廣泛的認(rèn)可,被譽(yù)為數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí) 歷史上的里程碑,是現(xiàn)今最完備的數(shù)據(jù)挖掘工具之一。如果你是一個忠實(shí)的Java擁護(hù)者,那么使用Weka來進(jìn)行數(shù)據(jù)挖掘就非常明智。
如果你對R和Weka(或Java)都不是很熟悉,那么我今天將向你推薦和介紹另外一個進(jìn)行機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘的利器——Python。Python是當(dāng)前非常流行的計算機(jī)編程語言,相對C、C++來說,Python的門檻極低,可以很輕松的上手和掌握。More importantly,Python用于為數(shù)眾多,而且相當(dāng)完善的軟件包、工具箱來實(shí)現(xiàn)功能上的擴(kuò)展。這一點(diǎn)與R語言來說非常相似(R的擴(kuò)展包也可以多到超乎你的想象)。
在Python中進(jìn)行機(jī)器學(xué)習(xí)所需要的軟件包主要是Scikit-Learn。Scikit-learn的基本功能主要被分為六個部分,分類,回歸,聚類,數(shù)據(jù)降維,模型選擇,數(shù)據(jù)預(yù)處理。
作為一個范例,我們今天將演示在Python (版本是3.5.1)中基于Scikit-Learn所提供的函數(shù)來實(shí)現(xiàn)Logistic Regression。從名字來看,Logistic 回歸 應(yīng)該屬于一種回歸方法(事實(shí)上,它也確實(shí)可以被用來進(jìn)行回歸分析),但實(shí)際中,它更多的是被用來作為一種“分類器”(Classifier)。而且,機(jī)器學(xué)習(xí)中,分類技術(shù)相比于回歸技術(shù)而言也確實(shí)是一個更大陣營。
在下面這個示例中,我們會更多的使用僅屬于Scikit-Learn中的函數(shù)來完成任務(wù)。
下面這個例子中的數(shù)據(jù)源于1936年統(tǒng)計學(xué)領(lǐng)域的一代宗師費(fèi)希爾發(fā)表的一篇重要論文。彼時他收集了三種鳶尾花(分別標(biāo)記為setosa、versicolor和virginica)的花萼和花瓣數(shù)據(jù)。包括花萼的長度和寬度,以及花瓣的長度和寬度。我們將根據(jù)這四個特征(中的兩個)來建立Logistic Regression模型從而實(shí)現(xiàn)對三種鳶尾花的分類判別任務(wù)。
首先我們引入一些必要的頭文件,然后讀入數(shù)據(jù)(注意我們僅僅使用前兩個特征)
[python] view plain copy 在CODE上查看代碼片派生到我的代碼片
import numpy as npy
from sklearn import linear_model, datasets
from sklearn.cross_validation import train_test_split
from sklearn.feature_extraction import DictVectorizer
from sklearn.metrics import accuracy_score, classification_report
iris = datasets.load_iris()
X = iris.data[:, :2] # we only take the first two features.
Y = iris.target
作為演示,我們來提取其中的前5行數(shù)據(jù)(包括特征和標(biāo)簽),輸出如下。前面我們提到數(shù)據(jù)中共包含三種鳶尾花(分別標(biāo)記為setosa、versicolor和virginica),所以這里的標(biāo)簽 使用的是0,1和2三個數(shù)字來分別表示對應(yīng)的鳶尾花品種,顯然前面5行都屬于標(biāo)簽為0的鳶尾花。而且一共有150個樣本數(shù)據(jù)。
[python] view plain copy 在CODE上查看代碼片派生到我的代碼片
>>> for n in range(5):
print(X[n], Y[5])
[ 5.1 3.5] 0
[ 4.9 3. ] 0
[ 4.7 3.2] 0
[ 4.6 3.1] 0
[ 5. 3.6] 0
>>> len(X)
150
現(xiàn)在我們利用train_test_split函數(shù)來對原始數(shù)據(jù)集進(jìn)行分類采樣,取其中20%作為測試數(shù)據(jù)集,取其中80%作為訓(xùn)練數(shù)據(jù)集。
[python] view plain copy
X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=0.2, random_state=42)
然后,我們便可以利用LogisticRegression函數(shù)來訓(xùn)練一個分類器
[python] view plain copy 在CODE上查看代碼片派生到我的代碼片
logreg = linear_model.LogisticRegression(C=1e5, , solver='lbfgs', multi_class='multinomial')
logreg.fit(X_train, y_train)
請留意Scikit-Learn文檔中,對于參數(shù)solver和multi_class的說明。其中solver的可選值有4個:‘newton-cg’, ‘lbfgs’, ‘liblinear’, ‘sag’。
For small datasets, ‘liblinear’ is a good choice, whereas ‘sag’ is
faster for large ones.
For multiclass problems, only ‘newton-cg’ and ‘lbfgs’ handle
multinomial loss; ‘sag’ and ‘liblinear’ are limited toone-versus-rest schemes.
參數(shù)multi_class的可選值有2個:‘ovr’, ‘multinomial’。多分類問題既可以使用‘ovr’,也可以使用 ‘multinomial’。但是如果你的選項(xiàng)是 ‘ovr’,那么相當(dāng)于對每個標(biāo)簽都執(zhí)行一個二分類處理。Else the loss minimised is the multinomial loss fit acrossthe entire probability distribution. 選項(xiàng) ‘multinomial’ 則僅適用于將參數(shù)solver置為‘lbfgs’時的情況。
然后再利用已經(jīng)得到的分類器來對測試數(shù)據(jù)集進(jìn)行預(yù)測
[python] view plain copy 在CODE上查看代碼片派生到我的代碼片
prediction = logreg.predict(X_test)
print("accuracy score: ")
print(accuracy_score(y_test, prediction))
print(classification_report(y_test, prediction))
預(yù)測結(jié)果如下,可見總體準(zhǔn)確率都在90%以上,分類器執(zhí)行的還是相當(dāng)不錯的!
[python] view plain copy 在CODE上查看代碼片派生到我的代碼片
accuracy score:
0.9
precision recall f1-score support
0 1.00 1.00 1.00 10
1 0.88 0.78 0.82 9
2 0.83 0.91 0.87 11
avg / total 0.90 0.90 0.90 30
In detail, 我們還可以利用predict_proba()函數(shù)和predict()函數(shù)來逐條檢視一下Logistic Regression的分類判別結(jié)果,請看下面的示例代碼:
[python] view plain copy 在CODE上查看代碼片派生到我的代碼片
logreg_proba = logreg.predict_proba(X_test)
logreg_pred = logreg.predict(X_test)
for index in range (5):
print(logreg_proba[index])
print("Predict label:", logreg_pred[index])
print("Correct label:", y_test[index])
我們僅僅輸出了前五個測試用例的分類結(jié)果,可見這五個樣本的預(yù)測結(jié)果中前四個都是正確的。
[python] view plain copy 在CODE上查看代碼片派生到我的代碼片
[ 8.86511110e-26 5.64775369e-01 4.35224631e-01]
Predict label: 1
Correct label: 1
[ 9.99999942e-01 3.78533501e-08 2.02808786e-08]
Predict label: 0
Correct label: 0
[ 9.92889585e-70 8.98623548e-02 9.10137645e-01]
Predict label: 2
Correct label: 2
[ 4.40394856e-21 5.97659713e-01 4.02340287e-01]
Predict label: 1
Correct label: 1
[ 5.68223824e-43 2.90652338e-01 7.09347662e-01]
Predict label: 2
Correct label: 1
當(dāng)然,Logistic Regression的原理網(wǎng)上已有太多資料進(jìn)行解釋,因此本文的重點(diǎn)顯然并不在于此。但是如果你對該算法的原理比較熟悉,自己實(shí)現(xiàn)其中的某些函數(shù)也是完全可以的。下面的代碼就演示了筆者自行實(shí)現(xiàn)的predict_proba()函數(shù)和predict()函數(shù),如果你對此感興趣也不妨試試看。
[python] view plain copy 在CODE上查看代碼片派生到我的代碼片
class MyLogisticRegression:
def __init__(self, weights, constants, labels):
self.weights = weights
self.constants = constants
self.labels = labels
def predict_proba(self,X):
proba_list = []
len_label = len(self.labels)
for n in X: #.toarray():
pb = []
count = 0
for i in range(len_label):
value = npy.exp(npy.dot(n, self.weights[i]) + self.constants[i])
count = count + value
pb.append(value)
proba_list.append([x/count for x in pb])
return npy.asarray(proba_list)
def predict(self,X):
proba_list = self.predict_proba(X)
predicts = []
for n in proba_list.tolist():
i = n.index(max(n))
predicts.append(self.labels[i])
return npy.asarray(predicts)
與之前的執(zhí)行類似,但是這次換成我們自己編寫的函數(shù)
[python] view plain copy 在CODE上查看代碼片派生到我的代碼片
# Print the result based on my functions
print('\n')
my_logreg = MyLogisticRegression(logreg.coef_, logreg.intercept_, logreg.classes_)
my_logreg_proba = my_logreg.predict_proba(X_test)
my_logreg_pred = my_logreg.predict(X_test)
for index in range (5):
print(my_logreg_proba[index])
print("Predict label:",logreg_pred[index])
print("Correct label:", y_test[index])
最后讓我們來對比一下執(zhí)行結(jié)果,可見我們自己實(shí)現(xiàn)的函數(shù)與直接調(diào)用Scikit-Learn中函數(shù)所得之結(jié)果是完全相同的。
[python] view plain copy 在CODE上查看代碼片派生到我的代碼片
[ 8.86511110e-26 5.64775369e-01 4.35224631e-01]
Predict label: 1
Correct label: 1
[ 9.99999942e-01 3.78533501e-08 2.02808786e-08]
Predict label: 0
Correct label: 0
[ 9.92889585e-70 8.98623548e-02 9.10137645e-01]
Predict label: 2
Correct label: 2
[ 4.40394856e-21 5.97659713e-01 4.02340287e-01]
Predict label: 1
Correct label: 1
[ 5.68223824e-43 2.90652338e-01 7.09347662e-01]
Predict label: 2
Correct label: 1
最后需要補(bǔ)充說明的內(nèi)容是,在我們自己編寫的函數(shù)中存在這一句
[python] view plain copy 在CODE上查看代碼片派生到我的代碼片
for n in X: #.toarray():
請注意我們注釋掉的內(nèi)容,在本篇文章中,我們所使用的數(shù)據(jù)集屬于是標(biāo)準(zhǔn)數(shù)據(jù)集,并不需要我們做Feature extraction。但是在另外一些時候,例如進(jìn)行自然語言處理時,我們往往要將特征字典轉(zhuǎn)換成一個大的稀疏矩陣,這時我們再編寫上面的函數(shù)時就要使用下面這句來將稀疏矩陣逐行還原
[python] view plain copy 在CODE上查看代碼片派生到我的代碼片
for n in X.toarray():
數(shù)據(jù)分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
SQL Server 中 CONVERT 函數(shù)的日期轉(zhuǎn)換:從基礎(chǔ)用法到實(shí)戰(zhàn)優(yōu)化 在 SQL Server 的數(shù)據(jù)處理中,日期格式轉(zhuǎn)換是高頻需求 —— 無論 ...
2025-09-18MySQL 大表拆分與關(guān)聯(lián)查詢效率:打破 “拆分必慢” 的認(rèn)知誤區(qū) 在 MySQL 數(shù)據(jù)庫管理中,“大表” 始終是性能優(yōu)化繞不開的話題。 ...
2025-09-18CDA 數(shù)據(jù)分析師:表結(jié)構(gòu)數(shù)據(jù) “獲取 - 加工 - 使用” 全流程的賦能者 表結(jié)構(gòu)數(shù)據(jù)(如數(shù)據(jù)庫表、Excel 表、CSV 文件)是企業(yè)數(shù)字 ...
2025-09-18DSGE 模型中的 Et:理性預(yù)期算子的內(nèi)涵、作用與應(yīng)用解析 動態(tài)隨機(jī)一般均衡(Dynamic Stochastic General Equilibrium, DSGE)模 ...
2025-09-17Python 提取 TIF 中地名的完整指南 一、先明確:TIF 中的地名有哪兩種存在形式? 在開始提取前,需先判斷 TIF 文件的類型 —— ...
2025-09-17CDA 數(shù)據(jù)分析師:解鎖表結(jié)構(gòu)數(shù)據(jù)特征價值的專業(yè)核心 表結(jié)構(gòu)數(shù)據(jù)(以 “行 - 列” 規(guī)范存儲的結(jié)構(gòu)化數(shù)據(jù),如數(shù)據(jù)庫表、Excel 表、 ...
2025-09-17Excel 導(dǎo)入數(shù)據(jù)含缺失值?詳解 dropna 函數(shù)的功能與實(shí)戰(zhàn)應(yīng)用 在用 Python(如 pandas 庫)處理 Excel 數(shù)據(jù)時,“缺失值” 是高頻 ...
2025-09-16深入解析卡方檢驗(yàn)與 t 檢驗(yàn):差異、適用場景與實(shí)踐應(yīng)用 在數(shù)據(jù)分析與統(tǒng)計學(xué)領(lǐng)域,假設(shè)檢驗(yàn)是驗(yàn)證研究假設(shè)、判斷數(shù)據(jù)差異是否 “ ...
2025-09-16CDA 數(shù)據(jù)分析師:掌控表格結(jié)構(gòu)數(shù)據(jù)全功能周期的專業(yè)操盤手 表格結(jié)構(gòu)數(shù)據(jù)(以 “行 - 列” 存儲的結(jié)構(gòu)化數(shù)據(jù),如 Excel 表、數(shù)據(jù) ...
2025-09-16MySQL 執(zhí)行計劃中 rows 數(shù)量的準(zhǔn)確性解析:原理、影響因素與優(yōu)化 在 MySQL SQL 調(diào)優(yōu)中,EXPLAIN執(zhí)行計劃是核心工具,而其中的row ...
2025-09-15解析 Python 中 Response 對象的 text 與 content:區(qū)別、場景與實(shí)踐指南 在 Python 進(jìn)行 HTTP 網(wǎng)絡(luò)請求開發(fā)時(如使用requests ...
2025-09-15CDA 數(shù)據(jù)分析師:激活表格結(jié)構(gòu)數(shù)據(jù)價值的核心操盤手 表格結(jié)構(gòu)數(shù)據(jù)(如 Excel 表格、數(shù)據(jù)庫表)是企業(yè)最基礎(chǔ)、最核心的數(shù)據(jù)形態(tài) ...
2025-09-15Python HTTP 請求工具對比:urllib.request 與 requests 的核心差異與選擇指南 在 Python 處理 HTTP 請求(如接口調(diào)用、數(shù)據(jù)爬取 ...
2025-09-12解決 pd.read_csv 讀取長浮點(diǎn)數(shù)據(jù)的科學(xué)計數(shù)法問題 為幫助 Python 數(shù)據(jù)從業(yè)者解決pd.read_csv讀取長浮點(diǎn)數(shù)據(jù)時的科學(xué)計數(shù)法問題 ...
2025-09-12CDA 數(shù)據(jù)分析師:業(yè)務(wù)數(shù)據(jù)分析步驟的落地者與價值優(yōu)化者 業(yè)務(wù)數(shù)據(jù)分析是企業(yè)解決日常運(yùn)營問題、提升執(zhí)行效率的核心手段,其價值 ...
2025-09-12用 SQL 驗(yàn)證業(yè)務(wù)邏輯:從規(guī)則拆解到數(shù)據(jù)把關(guān)的實(shí)戰(zhàn)指南 在業(yè)務(wù)系統(tǒng)落地過程中,“業(yè)務(wù)邏輯” 是連接 “需求設(shè)計” 與 “用戶體驗(yàn) ...
2025-09-11塔吉特百貨孕婦營銷案例:數(shù)據(jù)驅(qū)動下的精準(zhǔn)零售革命與啟示 在零售行業(yè) “流量紅利見頂” 的當(dāng)下,精準(zhǔn)營銷成為企業(yè)突圍的核心方 ...
2025-09-11CDA 數(shù)據(jù)分析師與戰(zhàn)略 / 業(yè)務(wù)數(shù)據(jù)分析:概念辨析與協(xié)同價值 在數(shù)據(jù)驅(qū)動決策的體系中,“戰(zhàn)略數(shù)據(jù)分析”“業(yè)務(wù)數(shù)據(jù)分析” 是企業(yè) ...
2025-09-11Excel 數(shù)據(jù)聚類分析:從操作實(shí)踐到業(yè)務(wù)價值挖掘 在數(shù)據(jù)分析場景中,聚類分析作為 “無監(jiān)督分組” 的核心工具,能從雜亂數(shù)據(jù)中挖 ...
2025-09-10統(tǒng)計模型的核心目的:從數(shù)據(jù)解讀到?jīng)Q策支撐的價值導(dǎo)向 統(tǒng)計模型作為數(shù)據(jù)分析的核心工具,并非簡單的 “公式堆砌”,而是圍繞特定 ...
2025-09-10