
作者:俊欣
來源:關于數據分析與可視化
今天來分享一個高效率的數據清洗的方法,畢竟我們平常在工作和生活當中經常會遇到需要去處理雜七雜八的數據集,有一些數據集中有缺失值、有些數據集中有極值、重復值等等。這次用到的數據集樣本在文末有獲取的辦法。
我們首先導入所需要用到的庫,并且讀取數據
import pandas as pd import numpy as np
df = pd.read_csv("DirectMarketing.csv")
我們先來大致地看一下數據集中各個特征值的情況,通過info()這個方法
df.info()
我們看到上面的“History”這一列,只有697條數據不是空值,那就意味著還有另外3條數據是空值,與之對應的方式有將含有缺失值的數據刪掉,或者將缺失值的部分替換為是中位數或者是平均數,
# 將缺失值給移除掉 df.dropna(axis = 0, inplace = True)
要是數據集中存在大量的缺失值,只是簡簡單單地移除掉怕是會影響到數據的完整性,如果是數值類型的特征值,就用用平均值或者是中位數來替換,如果是離散類型的缺失值,就用眾數來替換
def fill_missing_values_num(df, col_name): val = df[col_name].median()
df[col_name].fillna(val, inplace = True) return df
def fill_missing_values_cate(df, col_name): val = df[col_name].value_counts().index.tolist()[0]
df[col_name].fillna(val, inplace = True) return df
而可能存在重復值的部分,pandas當中有drop_ducplicates()方法來進行處理
df.drop_duplicates(inplace = True)
最后我們封裝成一個函數,對于缺失值的處理小編這里選擇用中位數填充的方式來處理
def fill_missing_values_and_drop_duplicates(df, col_name): val = df[col_name].value_counts().index.tolist()[0]
df[col_name].fillna(val, inplace = True) return df.drop_duplicates()
經常使用pandas的人可能都有這種體驗,它經常會將數據集中的變量類型直接變成object,這里我們可以直接使用“convert_dtypes”來進行批量的轉換,它會自動推斷數據原來的類型,并實現轉換,并且打印出來里面各列的數據類型,封裝成一個函數
def convert_dtypes(df): print(df.dtypes) return df.convert_dtypes()
對于極值的檢測有多種方式,例如我們可以通過箱型圖的方式來查看
sample = [11, 500, 20, 24, 400, 25, 10, 21, 13, 8, 15, 10] plt.boxplot(sample, vert=False) plt.title("箱型圖來檢測異常值",fontproperties="SimHei") plt.xlabel('樣本數據',fontproperties="SimHei")
我們可以通過箱型圖來明顯的看出當中有兩個異常值,也就是400和500這兩個,箱型圖由最大值、上四分位數(Q3)、中位數(Q2)、下四分位數和最小值五個統(tǒng)計量組成,其中Q1和Q3之間的間距稱為是四分位間距(interquartile range,IQR),而通常若是樣本中的數據大于Q3+1.5IQR和小于Q1-1.5IQR定義為異常值
當然了除此之外,還可以通過z-score的方法來檢測,Z-score是以標準差為單位去度量某個數據偏離平均數的距離,計算公式為
我們用python來實現一下當中的步驟
outliers = [] def detect_outliers_zscore(data, threshold): mean = np.mean(data) std = np.std(data) for i in data: z_score = (i-mean)/std if (np.abs(z_score) > threshold): outliers.append(i) return outliers# Driver code
而對待異常值的方式,首先最直接的就是將異常值給去掉,我們檢測到異常值所在的行數,然后刪掉該行,當然當數據集當中的異常值數量很多的時候,移除掉必然會影響數據集的完整性,從而影響建模最后的效果
def remove_outliers1(df, col_name): low = np.quantile(df[col_name], 0.05)
high = np.quantile(df[col_name], 0.95) return df[df[col_name].between(low, high, inclusive=True)]
其次我們可以將異常值替換成其他的值,例如上面箱型圖提到的上四分位數或者是下四分位數
def remove_outliers2(df, col_name): low_num = np.quantile(df[col_name], 0.05) high_num = np.quantile(df[col_name], 0.95) df.loc[df[col_name] > high_num, col_name] = high_num df.loc[df[col_name] < low_num , col_name] = low_num return df
因此回到上面用到的樣本數據集,我們將之前數據清洗的函數統(tǒng)統(tǒng)整合起來,用pipe()的方法來串聯起來,形成一個數據清洗的標準模板
def fill_missing_values_and_drop_duplicates(df, col_name): val = df[col_name].value_counts().index.tolist()[0]
df[col_name].fillna(val, inplace = True) return df.drop_duplicates() def remove_outliers2(df, col_name): low_num = np.quantile(df[col_name], 0.05)
high_num = np.quantile(df[col_name], 0.95)
df.loc[df[col_name] > float(high_num), col_name] = high_num return df def convert_dtypes(df): print(df.dtypes) return df.convert_dtypes()
df_cleaned = (df.pipe(fill_missing_values_and_drop_duplicates, 'History').
pipe(remove_outliers2, 'Salary').
pipe(convert_dtypes))
所以我們之后再數據清洗的過程當中,可以將這種程序化的清洗步驟封裝成一個個函數,然后用pipe()串聯起來,用在每一個數據分析的項目當中,更快地提高我們工作和分析的效率。
數據分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
LSTM 模型輸入長度選擇技巧:提升序列建模效能的關鍵? 在循環(huán)神經網絡(RNN)家族中,長短期記憶網絡(LSTM)憑借其解決長序列 ...
2025-07-11CDA 數據分析師報考條件詳解與準備指南? ? 在數據驅動決策的時代浪潮下,CDA 數據分析師認證愈發(fā)受到矚目,成為眾多有志投身數 ...
2025-07-11數據透視表中兩列相乘合計的實用指南? 在數據分析的日常工作中,數據透視表憑借其強大的數據匯總和分析功能,成為了 Excel 用戶 ...
2025-07-11尊敬的考生: 您好! 我們誠摯通知您,CDA Level I和 Level II考試大綱將于 2025年7月25日 實施重大更新。 此次更新旨在確保認 ...
2025-07-10BI 大數據分析師:連接數據與業(yè)務的價值轉化者? ? 在大數據與商業(yè)智能(Business Intelligence,簡稱 BI)深度融合的時代,BI ...
2025-07-10SQL 在預測分析中的應用:從數據查詢到趨勢預判? ? 在數據驅動決策的時代,預測分析作為挖掘數據潛在價值的核心手段,正被廣泛 ...
2025-07-10數據查詢結束后:分析師的收尾工作與價值深化? ? 在數據分析的全流程中,“query end”(查詢結束)并非工作的終點,而是將數 ...
2025-07-10CDA 數據分析師考試:從報考到取證的全攻略? 在數字經濟蓬勃發(fā)展的今天,數據分析師已成為各行業(yè)爭搶的核心人才,而 CDA(Certi ...
2025-07-09【CDA干貨】單樣本趨勢性檢驗:捕捉數據背后的時間軌跡? 在數據分析的版圖中,單樣本趨勢性檢驗如同一位耐心的偵探,專注于從單 ...
2025-07-09year_month數據類型:時間維度的精準切片? ? 在數據的世界里,時間是最不可或缺的維度之一,而year_month數據類型就像一把精準 ...
2025-07-09CDA 備考干貨:Python 在數據分析中的核心應用與實戰(zhàn)技巧? ? 在 CDA 數據分析師認證考試中,Python 作為數據處理與分析的核心 ...
2025-07-08SPSS 中的 Mann-Kendall 檢驗:數據趨勢與突變分析的有力工具? ? ? 在數據分析的廣袤領域中,準確捕捉數據的趨勢變化以及識別 ...
2025-07-08備戰(zhàn) CDA 數據分析師考試:需要多久?如何規(guī)劃? CDA(Certified Data Analyst)數據分析師認證作為國內權威的數據分析能力認證 ...
2025-07-08LSTM 輸出不確定的成因、影響與應對策略? 長短期記憶網絡(LSTM)作為循環(huán)神經網絡(RNN)的一種變體,憑借獨特的門控機制,在 ...
2025-07-07統(tǒng)計學方法在市場調研數據中的深度應用? 市場調研是企業(yè)洞察市場動態(tài)、了解消費者需求的重要途徑,而統(tǒng)計學方法則是市場調研數 ...
2025-07-07CDA數據分析師證書考試全攻略? 在數字化浪潮席卷全球的當下,數據已成為企業(yè)決策、行業(yè)發(fā)展的核心驅動力,數據分析師也因此成為 ...
2025-07-07剖析 CDA 數據分析師考試題型:解鎖高效備考與答題策略? CDA(Certified Data Analyst)數據分析師考試作為衡量數據專業(yè)能力的 ...
2025-07-04SQL Server 字符串截取轉日期:解鎖數據處理的關鍵技能? 在數據處理與分析工作中,數據格式的規(guī)范性是保證后續(xù)分析準確性的基礎 ...
2025-07-04CDA 數據分析師視角:從數據迷霧中探尋商業(yè)真相? 在數字化浪潮席卷全球的今天,數據已成為企業(yè)決策的核心驅動力,CDA(Certifie ...
2025-07-04CDA 數據分析師:開啟數據職業(yè)發(fā)展新征程? ? 在數據成為核心生產要素的今天,數據分析師的職業(yè)價值愈發(fā)凸顯。CDA(Certified D ...
2025-07-03