
線性回歸就是利用數(shù)理統(tǒng)計(jì)中回歸分析,來(lái)確定兩種或兩種以上變量間相互依賴(lài)的定量關(guān)系的一種統(tǒng)計(jì)分析方法,運(yùn)用十分廣泛。我們?cè)?a href='/map/jiqixuexi/' style='color:#000;font-size:inherit;'>機(jī)器學(xué)習(xí)過(guò)程中也經(jīng)常會(huì)遇到構(gòu)建線性回歸模型的場(chǎng)景,對(duì)于初學(xué)者來(lái)說(shuō)還是比較困難的。今天小編就給大家分享一篇關(guān)于python實(shí)戰(zhàn)線性回歸模型的文章,希望對(duì)于大家python的學(xué)習(xí)和使用,以及線性回歸模型的構(gòu)建有所幫助。
文章來(lái)源: 早起Python
作者:蘿卜
「多元線性回歸模型」非常常見(jiàn),是大多數(shù)人入門(mén)機(jī)器學(xué)習(xí)的第一個(gè)案例,盡管如此,里面還是有許多值得學(xué)習(xí)和注意的地方。其中多元共線性這個(gè)問(wèn)題將貫穿所有的機(jī)器學(xué)習(xí)模型,所以本文會(huì)「將原理知識(shí)穿插于代碼段中」,爭(zhēng)取以不一樣的視角來(lái)敘述和講解「如何更好的構(gòu)建和優(yōu)化多元線性回歸模型」。主要將分為兩個(gè)部分:
Python 多元線性回歸的模型的實(shí)戰(zhàn)案例有非常多,這里雖然選用的經(jīng)典的房?jī)r(jià)預(yù)測(cè),但貴在的流程簡(jiǎn)潔完整,其中用到的精度優(yōu)化方法效果拔群,能提供比較好的參考價(jià)值。
本文的數(shù)據(jù)集是經(jīng)過(guò)清洗的美國(guó)某地區(qū)的房?jī)r(jià)數(shù)據(jù)集
import pandas as pd import numpy as np import seaborn as sns import matplotlib.pyplot as plt df = pd.read_csv('house_prices.csv') df.info();df.head()
參數(shù)說(shuō)明:
現(xiàn)在我們直接構(gòu)建多元線性回歸模型
from statsmodels.formula.api import ols # 小寫(xiě)的 ols 函數(shù)才會(huì)自帶截距項(xiàng),OLS 則不會(huì) # 固定格式:因變量 ~ 自變量(+ 號(hào)連接) lm = ols('price ~ area + bedrooms + bathrooms', data=df).fit() lm.summary()
紅框?yàn)槲覀冴P(guān)注的結(jié)果值,其中截距項(xiàng)Intercept的 P 值沒(méi)有意義,可以不用管它
從上圖可以看到,模型的精度較低,因?yàn)檫€有類(lèi)別變量neighborhood和style沒(méi)有完全利用。這里我們先查看一下類(lèi)別變量的類(lèi)別分布情況:
# 類(lèi)別變量,又稱(chēng)為名義變量,nominal variables nominal_vars = ['neighborhood', 'style'] for each in nominal_vars: print(each, ':') print(df[each].agg(['value_counts']).T) # Pandas 騷操作 # 直接 .value_counts().T 無(wú)法實(shí)現(xiàn)下面的效果 ## 必須得 agg,而且里面的中括號(hào) [] 也不能少 print('='*35)
因?yàn)轭?lèi)別變量無(wú)法直接放入模型,這里需要轉(zhuǎn)換一下,而多元線性回歸模型中類(lèi)別變量的轉(zhuǎn)換最常用的方法之一便是將其轉(zhuǎn)化成虛擬變量。原理其實(shí)非常簡(jiǎn)單,將無(wú)法直接用于建模的名義變量轉(zhuǎn)換成可放入模型的虛擬變量的核心就短短八個(gè)字:「四散拆開(kāi),非此即彼」。下面用一個(gè)只有 4 行的微型數(shù)據(jù)集輔以說(shuō)明。
從上表中,不難發(fā)現(xiàn):
接下來(lái)要做的就是將生成的虛擬變量們放入多元線性回歸模型,但要注意的是:「轉(zhuǎn)化后的虛擬變量們需要舍棄一個(gè)」,才能得到滿(mǎn)秩矩陣。具體原因和有關(guān)線性代數(shù)的解釋可以查看筆者打包好的論文,我們可以理解為,當(dāng)該名義變量可劃分為 n 類(lèi)時(shí),只需要 n-1 個(gè)虛擬變量就已足夠獲知所有信息了。該丟棄哪個(gè),可根據(jù)實(shí)際情況來(lái)決定。
因此為原數(shù)據(jù)集的某名義變量添加虛擬變量的步驟為:
注意虛擬變量設(shè)置成功后,需要與原來(lái)的數(shù)據(jù)集拼接,這樣才能將其一起放進(jìn)模型。
再次建模后,發(fā)現(xiàn)模型精度大大提升,但潛在的多元共線性問(wèn)題也隨之顯現(xiàn)出來(lái)
在解釋模型中虛擬變量的系數(shù)之前,我們先消除模型中多元共線性的影響,因?yàn)樵谂懦簿€性后,模型中的各個(gè)自變量的系數(shù)又會(huì)改變,最終的多元線性回歸模型的等式又會(huì)不一樣。多重線性回歸模型的主要假設(shè)之一是我們的預(yù)測(cè)變量(自變量)彼此不相關(guān)。我們希望預(yù)測(cè)變量(自變量)與反應(yīng)變量(因變量)相關(guān),而不是彼此之間具有相關(guān)性。方差膨脹因子(Variance Inflation Factor,以下簡(jiǎn)稱(chēng)VIF),是「指解釋變量之間存在多重共線性時(shí)的方差與不存在多重共線性時(shí)的方差之比」
上圖公式可以看出在方差膨脹因子的檢測(cè)中:
越大,顯示共線性越嚴(yán)重。經(jīng)驗(yàn)判斷方法表明:「當(dāng) ,不存在多重共線性;當(dāng) ,存在較強(qiáng)的多重共線性;當(dāng) ,存在嚴(yán)重多重共線性」。
我們自己來(lái)寫(xiě)一個(gè)方差膨脹因子的檢測(cè)函數(shù)
def vif(df, col_i): """ df: 整份數(shù)據(jù) col_i:被檢測(cè)的列名 """ cols = list(df.columns) cols.remove(col_i) cols_noti = cols formula = col_i + '~' + '+'.join(cols_noti) r2 = ols(formula, df).fit().rsquared return 1. / (1. - r2)
現(xiàn)在進(jìn)行檢測(cè)
test_data = results[['area', 'bedrooms', 'bathrooms', 'A', 'B']] for i in test_data.columns: print(i, '\t', vif(df=test_data, col_i=i))
發(fā)現(xiàn)bedrooms和bathrooms存在強(qiáng)相關(guān)性,可能這兩個(gè)變量是解釋同一個(gè)問(wèn)題,方差膨脹因子較大的自變量通常是成對(duì)出現(xiàn)的。
果然,bedrooms和bathrooms這兩個(gè)變量的方差膨脹因子較高,這里刪除自變量bedrooms再次進(jìn)行建模
lm = ols(formula='price ~ area + bathrooms + A + B', data=results).fit() lm.summary()
模型精度稍降,但消除了多元共線性后能夠使模型的泛化能力提升。再次進(jìn)行多元共線性檢測(cè)
test_data = results[['area', 'bedrooms', 'A', 'B']] for i in test_data.columns: print(i, '\t', vif(df=test_data, col_i=i))
那么多元共線性就「只有通過(guò)方差膨脹因子才能看的出來(lái)嗎?」 其實(shí)并不一定,通過(guò)結(jié)合散點(diǎn)圖或相關(guān)稀疏矩陣和模型中自變量的系數(shù)也能看出端倪。下圖是未處理多元共線性時(shí)的自變量系數(shù)。
可以很明顯的看出,bathrooms的參數(shù)很可能是有問(wèn)題的,怎么可能bathrooms的數(shù)據(jù)量每增加一個(gè),房屋總價(jià)還減少 1.373*10 的四次方美元呢?簡(jiǎn)單的畫(huà)個(gè)散點(diǎn)圖和熱力圖也應(yīng)該知道房屋總價(jià)與bathrooms 個(gè)數(shù)應(yīng)該是成正比例關(guān)系的。
多元線性回歸模型的可解釋性比較強(qiáng),將模型參數(shù)打印出來(lái)即可求出因變量與自變量的關(guān)系
所以最終的建模結(jié)果如下,且該模型的精度為0.916
另外在等式結(jié)果中,截距項(xiàng)Intercept和area,bedrooms等變量的系數(shù)都還好理解;A,B 這兩個(gè)虛擬變量可能相對(duì)困難些。其實(shí)根據(jù)原理部分的表格來(lái)看,如果房屋在 C 區(qū),那等式中 A 和 B 這兩個(gè)字母的值便是 0,所以這便引出了非常重要的一點(diǎn):使用了虛擬變量的多元線性回歸模型結(jié)果中,存在于模型內(nèi)的虛擬變量都是跟被刪除掉的那個(gè)虛擬變量進(jìn)行比較。所以這個(gè)結(jié)果便表示在其他情況完全一樣時(shí)(即除虛擬變量外的項(xiàng))A 區(qū)的房屋比 C 區(qū)低 8707.18 美元,B 區(qū)則比 C 區(qū)貴 449896.73.7 美元。當(dāng)然我們也可以畫(huà)個(gè)箱線圖來(lái)查看與檢驗(yàn),發(fā)現(xiàn)結(jié)果正如模型中 A 與 B 的系數(shù)那般顯示。
本文以多元線性回歸為基礎(chǔ)和前提,在因變量房?jī)r(jià)與多個(gè)自變量的實(shí)際觀測(cè)值建立了多元線性回歸模型;分析并檢驗(yàn)各個(gè)預(yù)測(cè)變量對(duì)因變量的綜合線性影響的顯著性,并盡可能的消除多重共線性的影響,篩選出因變量有顯著線性影響的自變量,對(duì)基準(zhǔn)模型進(jìn)行優(yōu)化,并對(duì)各自變量相對(duì)重要性進(jìn)行評(píng)定,進(jìn)而提升了回歸模型的預(yù)測(cè)精度。
數(shù)據(jù)分析咨詢(xún)請(qǐng)掃描二維碼
若不方便掃碼,搜微信號(hào):CDAshujufenxi
LSTM 模型輸入長(zhǎng)度選擇技巧:提升序列建模效能的關(guān)鍵? 在循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)家族中,長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)憑借其解決長(zhǎng)序列 ...
2025-07-11CDA 數(shù)據(jù)分析師報(bào)考條件詳解與準(zhǔn)備指南? ? 在數(shù)據(jù)驅(qū)動(dòng)決策的時(shí)代浪潮下,CDA 數(shù)據(jù)分析師認(rèn)證愈發(fā)受到矚目,成為眾多有志投身數(shù) ...
2025-07-11數(shù)據(jù)透視表中兩列相乘合計(jì)的實(shí)用指南? 在數(shù)據(jù)分析的日常工作中,數(shù)據(jù)透視表憑借其強(qiáng)大的數(shù)據(jù)匯總和分析功能,成為了 Excel 用戶(hù) ...
2025-07-11尊敬的考生: 您好! 我們誠(chéng)摯通知您,CDA Level I和 Level II考試大綱將于 2025年7月25日 實(shí)施重大更新。 此次更新旨在確保認(rèn) ...
2025-07-10BI 大數(shù)據(jù)分析師:連接數(shù)據(jù)與業(yè)務(wù)的價(jià)值轉(zhuǎn)化者? ? 在大數(shù)據(jù)與商業(yè)智能(Business Intelligence,簡(jiǎn)稱(chēng) BI)深度融合的時(shí)代,BI ...
2025-07-10SQL 在預(yù)測(cè)分析中的應(yīng)用:從數(shù)據(jù)查詢(xún)到趨勢(shì)預(yù)判? ? 在數(shù)據(jù)驅(qū)動(dòng)決策的時(shí)代,預(yù)測(cè)分析作為挖掘數(shù)據(jù)潛在價(jià)值的核心手段,正被廣泛 ...
2025-07-10數(shù)據(jù)查詢(xún)結(jié)束后:分析師的收尾工作與價(jià)值深化? ? 在數(shù)據(jù)分析的全流程中,“query end”(查詢(xún)結(jié)束)并非工作的終點(diǎn),而是將數(shù) ...
2025-07-10CDA 數(shù)據(jù)分析師考試:從報(bào)考到取證的全攻略? 在數(shù)字經(jīng)濟(jì)蓬勃發(fā)展的今天,數(shù)據(jù)分析師已成為各行業(yè)爭(zhēng)搶的核心人才,而 CDA(Certi ...
2025-07-09【CDA干貨】單樣本趨勢(shì)性檢驗(yàn):捕捉數(shù)據(jù)背后的時(shí)間軌跡? 在數(shù)據(jù)分析的版圖中,單樣本趨勢(shì)性檢驗(yàn)如同一位耐心的偵探,專(zhuān)注于從單 ...
2025-07-09year_month數(shù)據(jù)類(lèi)型:時(shí)間維度的精準(zhǔn)切片? ? 在數(shù)據(jù)的世界里,時(shí)間是最不可或缺的維度之一,而year_month數(shù)據(jù)類(lèi)型就像一把精準(zhǔn) ...
2025-07-09CDA 備考干貨:Python 在數(shù)據(jù)分析中的核心應(yīng)用與實(shí)戰(zhàn)技巧? ? 在 CDA 數(shù)據(jù)分析師認(rèn)證考試中,Python 作為數(shù)據(jù)處理與分析的核心 ...
2025-07-08SPSS 中的 Mann-Kendall 檢驗(yàn):數(shù)據(jù)趨勢(shì)與突變分析的有力工具? ? ? 在數(shù)據(jù)分析的廣袤領(lǐng)域中,準(zhǔn)確捕捉數(shù)據(jù)的趨勢(shì)變化以及識(shí)別 ...
2025-07-08備戰(zhàn) CDA 數(shù)據(jù)分析師考試:需要多久?如何規(guī)劃? CDA(Certified Data Analyst)數(shù)據(jù)分析師認(rèn)證作為國(guó)內(nèi)權(quán)威的數(shù)據(jù)分析能力認(rèn)證 ...
2025-07-08LSTM 輸出不確定的成因、影響與應(yīng)對(duì)策略? 長(zhǎng)短期記憶網(wǎng)絡(luò)(LSTM)作為循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)的一種變體,憑借獨(dú)特的門(mén)控機(jī)制,在 ...
2025-07-07統(tǒng)計(jì)學(xué)方法在市場(chǎng)調(diào)研數(shù)據(jù)中的深度應(yīng)用? 市場(chǎng)調(diào)研是企業(yè)洞察市場(chǎng)動(dòng)態(tài)、了解消費(fèi)者需求的重要途徑,而統(tǒng)計(jì)學(xué)方法則是市場(chǎng)調(diào)研數(shù) ...
2025-07-07CDA數(shù)據(jù)分析師證書(shū)考試全攻略? 在數(shù)字化浪潮席卷全球的當(dāng)下,數(shù)據(jù)已成為企業(yè)決策、行業(yè)發(fā)展的核心驅(qū)動(dòng)力,數(shù)據(jù)分析師也因此成為 ...
2025-07-07剖析 CDA 數(shù)據(jù)分析師考試題型:解鎖高效備考與答題策略? CDA(Certified Data Analyst)數(shù)據(jù)分析師考試作為衡量數(shù)據(jù)專(zhuān)業(yè)能力的 ...
2025-07-04SQL Server 字符串截取轉(zhuǎn)日期:解鎖數(shù)據(jù)處理的關(guān)鍵技能? 在數(shù)據(jù)處理與分析工作中,數(shù)據(jù)格式的規(guī)范性是保證后續(xù)分析準(zhǔn)確性的基礎(chǔ) ...
2025-07-04CDA 數(shù)據(jù)分析師視角:從數(shù)據(jù)迷霧中探尋商業(yè)真相? 在數(shù)字化浪潮席卷全球的今天,數(shù)據(jù)已成為企業(yè)決策的核心驅(qū)動(dòng)力,CDA(Certifie ...
2025-07-04CDA 數(shù)據(jù)分析師:開(kāi)啟數(shù)據(jù)職業(yè)發(fā)展新征程? ? 在數(shù)據(jù)成為核心生產(chǎn)要素的今天,數(shù)據(jù)分析師的職業(yè)價(jià)值愈發(fā)凸顯。CDA(Certified D ...
2025-07-03