
R語言中數(shù)據(jù)清洗、整理的方法
數(shù)據(jù)的清理
如同列夫托爾斯泰所說的那樣:“幸福的家庭都是相似的,不幸的家庭各有各的不幸”,糟糕的惡心的數(shù)據(jù)各有各的糟糕之處,好的數(shù)據(jù)集都是相似的。一份好的,干凈而整潔的數(shù)據(jù)至少包括以下幾個要素:
1、每一個觀測變量構(gòu)成一列
2、每一個觀測對象構(gòu)成一行
3、每一個類型的觀測單元構(gòu)成一個表
就像我們最常接觸的鳶尾花數(shù)據(jù):
## Sepal.Length Sepal.Width Petal.Length Petal.Width Species
## 1 5.1 3.5 1.4 0.2 setosa
## 2 4.9 3.0 1.4 0.2 setosa
## 3 4.7 3.2 1.3 0.2 setosa
## 4 4.6 3.1 1.5 0.2 setosa
## 5 5.0 3.6 1.4 0.2 setosa
每一列就是觀測的指標:花瓣長度,花瓣寬度,萼片長度,萼片寬度,種類;每一行就是一株鳶尾花的觀測值,構(gòu)成整張表的元素就是四個數(shù)值變量,一個分類分類變量。
然而出于排版的考慮我們抓下來的數(shù)據(jù)往往不是那么的友好,比如說我們可以看到的數(shù)據(jù)通常是這樣的:
## religion <10k 10k-50k 50k-100k
## 1 Agnostic 12 31 23
## 2 Buddhist 58 43 43
## 3 Catholic 79 56 23
而不是:
## religion income freq
## 1 Agnostic <10k 12
## 2 Agnostic 10k-50k 58
## 3 Agnostic 50k-100k 79
## 4 Buddhist <10k 31
當然,除了這種把列表每一列代表一些數(shù)值這種情況外,還有多個變量儲存為一列(比如列表不僅以"<10k","10k-50k","50k-100k"做表頭,甚至還加上性別信息"m<10k","m10k-50k","m50k-100k","f<10k","f10k-50k","f50k-100k",其中m代表男性,f代表女性),還有更過分的將列表的變量不僅儲存在列中,行中也有統(tǒng)計變量。
面對這些不好的table,我們首先要做的就是數(shù)據(jù)管理,將數(shù)據(jù)整理為一個干凈的數(shù)據(jù)集。
數(shù)據(jù)管理
按照en:DAMA的定義:“數(shù)據(jù)資源管理,致力于發(fā)展處理企業(yè)數(shù)據(jù)生命周期的適當?shù)慕?gòu)、策略、實踐和程序”。這是一個高層而包含廣泛的定義,而并不一定直接涉及數(shù)據(jù)管理的具體操作(如關(guān)系數(shù)據(jù)庫的技術(shù)層次上的管理)。我們這里主要講述對于數(shù)據(jù)的變量命名與數(shù)據(jù)的合并,旨在方便數(shù)據(jù)共享。
數(shù)據(jù)管理首先要做的就是大致上了解你的數(shù)據(jù),比如有什么樣的變量,每一行大致長成什么樣,最常用的就是head(),tail().
我們要做的基本上就是這么幾項工作:
給每一個變量命名,而不是V1,V2,如果有必要可以給出code book。
每個變量名最好具有可讀性,除非過長,否則不要用縮寫,例如AgeAtDiagnosis這個命名遠好于AgeDx。
通常來說,最好將數(shù)據(jù)放在一張表里面,如果因為數(shù)據(jù)過多,項目過雜,分成了幾張表。那么一定需要有一列使得這些表之間能夠連接起來,但盡量避免這樣做。
我們以UCI的Human Activity Recognition Using Smartphones Data Set 為例來看看數(shù)據(jù)是如何變成一個基本符合要求的數(shù)據(jù)。這個數(shù)據(jù)我們已經(jīng)下載下來了,其中關(guān)于數(shù)據(jù)的詳細信息可以參閱read me文檔,由于UCI的數(shù)據(jù)通常都是一個基本合乎規(guī)范的數(shù)據(jù)集(主要是指它的數(shù)據(jù)集的變量名都是以V1,V2來命名的)加上一個code
book。那么我們看看各個數(shù)據(jù)的名稱(在feature文件里)
> setwd("C:/R/UCI HAR Dataset")> name<-read.table("./features.txt",stringsAsFactors = F)> head(name) V1 V21 1 tBodyAcc-mean()-X2 2 tBodyAcc-mean()-Y3 3 tBodyAcc-mean()-Z4 4 tBodyAcc-std()-X5 5 tBodyAcc-std()-Y6 6 tBodyAcc-std()-Z
我們可以看到各個特征的名稱直接標在數(shù)據(jù)上是非常不友善的,我們?yōu)榱俗屗哂锌勺x性,我們以展示在我們眼前的6個數(shù)據(jù)為例:
variablename <- head(name)# 將標簽中的大寫字母轉(zhuǎn)為小寫,我們這里沒有所以不再賦值,如果需要全變?yōu)榇髮懀梢允褂胻ouppertolower(variablename$V2)
## [1] "tbodyacc-mean()-x" "tbodyacc-mean()-y" "tbodyacc-mean()-z"
## [4] "tbodyacc-std()-x" "tbodyacc-std()-y" "tbodyacc-std()-z"
# 將變量名分離成3部分splitNames <- strsplit(variablename$V2, "-")splitNames[[1]]
## [1] "tBodyAcc" "mean()" "X"
# 將變量名合成有意的名稱named <- function(x) { rr <- paste(x[2], x[1], "-", x[3], sep = "")
chartr("()", "of", rr)
}
sapply(splitNames, named)
## [1] "meanoftBodyAcc-X" "meanoftBodyAcc-Y" "meanoftBodyAcc-Z"
## [4] "stdoftBodyAcc-X" "stdoftBodyAcc-Y" "stdoftBodyAcc-Z"
用這樣的名字給數(shù)據(jù)集命名就感覺舒服多了,我們將一些R中對字符串常用的操作函數(shù)總結(jié)如下,方便我們對數(shù)據(jù)名稱的修改:
sub:替換字符串中的第一個模式為設(shè)定模式(pattern).
gsub:全局替換字符串中的相應(yīng)模式
grep,grepl:這兩個函數(shù)返回向量水平的匹配結(jié)果,grep僅返回匹配項的下標,而grepl返回所有的查詢結(jié)果,并用邏輯向量表示有沒有找到匹配。
nchar:統(tǒng)計字符串單字數(shù)目
substr:取子串
paste:將字符串鏈接起來,sep參數(shù)可以設(shè)置連接符
str_trim:去掉字符串空格
變量的名稱建議滿足如下要求:
英文變量名盡可能用小寫
盡可能的描述清楚變量特征 (Diagnosis versus Dx)
不要太復(fù)雜
不要有下劃線、點、空格
字符型變量應(yīng)該滿足:
是因子類型的應(yīng)該轉(zhuǎn)化為factor
因子盡可能具有一定的描述性 (例如:如果0/1表示真假,那么用TRUE/FALSE代替0/1;在表示性別時用Male/Female代替M/F)
接下來我們討論數(shù)據(jù)集的合并,主要使用函數(shù)merge。
我們以下面兩個數(shù)據(jù)集的合并為例:
df1 <- data.frame(id = sample(1:10), reviewer_id = sample(5:14), time_left = sample(1321:1330),
x = rnorm(10))df2 <- data.frame(id = sample(1:10), answer = rep("B", 10), time_left = sample(321:330),
y = rnorm(10))
head(df1, n = 3)
## id reviewer_id time_left x
## 1 3 9 1326 -0.9232
## 2 10 5 1322 2.5069
## 3 1 14 1330 2.2478
head(df2, n = 3)
## id answer time_left y
## 1 1 B 329 0.8180
## 2 10 B 327 1.4639
## 3 9 B 323 0.8141
merge函數(shù)調(diào)用格式為:
merge(x, y, by = intersect(names(x), names(y)),
by.x = by, by.y = by, all = FALSE, all.x = all, all.y = all,
sort = TRUE, suffixes = c(".x",".y"),
incomparables = NULL, ...)
參數(shù)說明:
x,y:兩個數(shù)據(jù)框
by, by.x, by.y:指定用于合并的列的名稱。
all,all.x,all.y:默認的all = FALSE相當于自然連接, 或者說是內(nèi)部鏈接. all.x = TRUE是一個左連接, all.y = TRUE是一個又連接, all = TRUE 相當于一個外部鏈接.
仔細觀察下面3個例子你就會發(fā)現(xiàn)其中的奧秘:
mergedData <- merge(df1,df2,by.x="reviewer_id",by.y="id",all=TRUE)
head(mergedData)
## reviewer_id id time_left.x x answer time_left.y y
## 1 1 NA NA NA B 329 0.8180
## 2 2 NA NA NA B 330 -0.7706
## 3 3 NA NA NA B 325 -0.4851
mergedData <- merge(df1,df2,by.x="id",by.y="id",all=TRUE)
head(mergedData)
## id reviewer_id time_left.x x answer time_left.y y
## 1 1 14 1330 2.24783 B 329 0.8180
## 2 2 12 1324 1.03181 B 330 -0.7706
## 3 3 9 1326 -0.92317 B 325 -0.4851
## 4 4 7 1321 -0.07841 B 322 0.1801
mergedData2 <- merge(df1,df2,all=TRUE)
head(mergedData2)
## id time_left reviewer_id x answer y
## 1 1 329 NA NA B 0.8180
## 2 1 1330 14 2.2478 <NA> NA
## 3 2 330 NA NA B -0.7706
在plyr包中還提供了join,join_all,arrange等函數(shù)來實現(xiàn)表的連接,但我想merge這個函數(shù)已經(jīng)足夠用了,所以我們不在多說。當然,在極少數(shù)特別好的情況下(比如列的變量是一致的,或者行的觀測個體是一致的時候)rbind,cbind也是有用的。
有些時候我們會遇到一些特殊的字符串:日期。R中提供了各式各樣的函數(shù)來處理時間:
Sys.setlocale("LC_TIME", "C")
## [1] "C"
x <- c("1jan1960", "2jan1960", "31mar1960", "30jul1960")z <- as.Date(x, "%d%b%Y")
format(z, "%a %b %d")
## [1] "Fri Jan 01" "Sat Jan 02" "Thu Mar 31" "Sat Jul 30"
weekdays(z)
## [1] "Friday" "Saturday" "Thursday" "Saturday"
julian(z)
## [1] -3653 -3652 -3563 -3442
## attr(,"origin")
## [1] "1970-01-01"
transform(z, weekend = as.POSIXlt(z, format = "%Y/%m/%d")$wday %in% c(0, 6))
## X_data weekend
## 1 1960-01-01 FALSE
## 2 1960-01-02 TRUE
## 3 1960-03-31 FALSE
## 4 1960-07-30 TRUE
數(shù)據(jù)操作與整合
說到數(shù)據(jù)操作,這也是一個十分寬泛的話題,在這里我們就以下4個方面進行介紹:
數(shù)據(jù)的篩選,過濾:根據(jù)一些特定條件選出或者刪除一些觀測
數(shù)據(jù)的變換:增加或者修改變量
數(shù)據(jù)的匯總:分組計算數(shù)據(jù)的和或者均值
數(shù)據(jù)的排序:改變觀測的排列順序
然而在進行這一切之前首先要做的就是了解你的數(shù)據(jù),我們以世界銀行的數(shù)據(jù)Millennium Development Goals為例,來一步步演示如何進行數(shù)據(jù)操作:
if (!file.exists("C:/Users/yujun/Documents/MDG_Data.csv")) {
download.file("http://databank.worldbank.org/data/download/MDG_csv.zip","F:/MDG.zip")
unzip("F:/MDG.zip")
}MDstats<-read.csv("C:/Users/yujun/Documents/MDG_Data.csv")
首先先來看一部分數(shù)據(jù):
head(MDstats)
## Country.Name Country.Code
## 1 Afghanistan AFG
## 2 Afghanistan AFG
## 3 Afghanistan AFG
tail(MDstats)
## Country.Name Country.Code
## 33093 Zimbabwe ZWE
## 33094 Zimbabwe ZWE
## 33095 Zimbabwe ZWE
## 33096 Zimbabwe ZWE
我們顯然發(fā)現(xiàn)了這不是一個tidy data,那么我們先將其變換為我們喜歡的tidy data,之后再看看數(shù)據(jù)摘要及數(shù)據(jù)集各單元的屬性:
## countryname countrycode
## 1 Afghanistan AFG
## 2 Afghanistan AFG
## 3 Afghanistan AFG
## 4 Afghanistan AFG
## 5 Afghanistan AFG
## 6 Afghanistan AFG
## indicatorname
## 1 Adolescent fertility rate (births per 1,000 women ages 15-19)
## 2 Agricultural support estimate (% of GDP)
我們可以看看各個數(shù)值數(shù)據(jù)的分位數(shù):
quantile(MDstatsMelt$value,na.rm=TRUE)
## 0% 25% 50% 75% 100%
## -9.431e+08 1.054e+01 5.060e+01 9.843e+01 7.526e+13
看看各個國家的統(tǒng)計數(shù)據(jù)有多少:
table(MDstatsMelt$countrycode)
##
## ABW ADO AFG AGO ALB ARB ARE ARG ARM ASM ATG AUS AUT AZE BDI
## 3216 3216 3216 3216 3216 3216 3216 3216 3216 3216 3216 3216 3216 3216 3216
## BEL BEN BFA BGD BGR BHR BHS BIH BLR BLZ BMU BOL BRA BRB BRN
看看缺失值:
sum(is.na(MDstatsMelt$value)) #總的缺失值
## [1] 495519
colSums(is.na(MDstatsMelt)) #每一列的缺失值
## countryname countrycode indicatorname indicatorcode year
## 0 0 0 0 0
## value
## 495519
# 如果我們用回tidy前的數(shù)據(jù)集,那么這個函數(shù)會顯得比較有用colSums(is.na(MDstats))
## Country.Name Country.Code Indicator.Name Indicator.Code X1990
## 0 0 0 0 23059
## X1991 X1992 X1993 X1994 X1995
## 22293 21672 21753 21491 20970
## X1996 X1997 X1998 X1999 X2000
## 20680 20448 20419 19933 18822
# 等價的處理方式stat <- function(x) {
sum(is.na(x))
}
tapply(MDstatsMelt$value, MDstatsMelt$year, stat)
## X1990 X1991 X1992 X1993 X1994 X1995 X1996 X1997 X1998 X1999 X2000 X2001
## 23059 22293 21672 21753 21491 20970 20680 20448 20419 19933 18822 19598
## X2002 X2003 X2004 X2005 X2006 X2007 X2008 X2009 X2010 X2011 X2012 X2013
## 19119 19478 19269 18704 19044 18641 19256 19162 18756 20360 21967 30625
統(tǒng)計某個國家的統(tǒng)計數(shù)據(jù)占總統(tǒng)計數(shù)目的多少
table(MDstatsMelt$countryname %in% c("China"))
##
## FALSE TRUE
## 791136 3216
prop <- table(MDstatsMelt$countryname %in% c("China"))[2]/sum(table(MDstatsMelt$countryname %in% c("China")))prop
## TRUE
## 0.004049
看看數(shù)據(jù)集的大?。?br />
object.size(MDstatsMelt)
## 22301832 bytes
print(object.size(MDstatsMelt),units="Mb")
## 21.3 Mb
至此,我們可以說我們對數(shù)據(jù)有了一定的了解。另外值得一提的是,對于某些特定的數(shù)據(jù),也許xtabs,ftable是有用的。
數(shù)據(jù)的篩選
要提取相應(yīng)內(nèi)容的數(shù)據(jù),最為常用的就是提取相應(yīng)元素,比如提取某個元素,提取某一行,某一列。我們通過下面下面的例子來學(xué)習(xí):
data<-data.frame(a=sample(1:10),b=rep(c("a","b"),each=5),cdf=rnorm(10))data
## a b cdf
## 1 1 a 0.5755
## 2 10 a 0.8087
## 3 2 a 0.9810
## 4 7 a -0.4635
## 5 4 a 0.5094
#提取相應(yīng)元素data[2,1]
## [1] 10
data[[1]][[2]]
## [1] 10
data[[c(1,2)]]
## [1] 10
data$a[2]
## [1] 10
#提取某一列data[[3]]
## [1] 0.5755 0.8087 0.9810 -0.4635 0.5094 1.0514 -1.5338 1.0047
## [9] 1.0004 -1.3566
data$cdf
## [1] 0.5755 0.8087 0.9810 -0.4635 0.5094 1.0514 -1.5338 1.0047
## [9] 1.0004 -1.3566
data$c
## [1] 0.5755 0.8087 0.9810 -0.4635 0.5094 1.0514 -1.5338 1.0047
## [9] 1.0004 -1.3566
data[["c"]]
## NULL
data[["c", exact = FALSE]]
## [1] 0.5755 0.8087 0.9810 -0.4635 0.5094 1.0514 -1.5338 1.0047
## [9] 1.0004 -1.3566
數(shù)據(jù)的篩選還有一個最為常用的的就是移除缺失值:
data<-data.frame(a=c(sample(1:5),NA,NA,sample(6:10)),b=c(rep(c("a","b"),each=5),NA,NA),cdf=rnorm(12))data
## a b cdf
## 1 5 a -0.276400
## 2 1 a -1.861240
good <- complete.cases(data)data[good, ]
## a b cdf
## 1 5 a -0.2764
## 2 1 a -1.8612
## 3 3 a -2.0280
bad <- as.data.frame(is.na(data))data[!(bad$a|bad$b|bad$c),]
## a b cdf
## 1 5 a -0.2764
## 2 1 a -1.8612
數(shù)據(jù)篩選有時是為了獲得符合條件的數(shù)據(jù):
X <- data.frame("var1"=sample(1:5),"var2"=sample(6:10),"var3"=sample(11:15))X <- X[sample(1:5),]; X$var2[c(1,3)] = NAX
## var1 var2 var3
## 2 5 NA 13
## 5 3 6 15
## 1 2 NA 12
## 3 1 8 11
## 4 4 9 14
X[(X$var1 <= 3 & X$var3 > 11),]
## var1 var2 var3
## 5 3 6 15
## 1 2 NA 12
subset(X,(X$var1 <= 3 & X$var3 > 11))
## var1 var2 var3
## 5 3 6 15
## 1 2 NA 12
X[(X$var1 <= 3 | X$var3 > 15),]
## var1 var2 var3
## 5 3 6 15
## 1 2 NA 12
## 3 1 8 11
X[which(X$var1 <= 3 | X$var3 > 15),]
## var1 var2 var3
## 5 3 6 15
## 1 2 NA 12
## 3 1 8 11
對于取子集的函數(shù)subset,在幫助文檔中有一段warning是值得我們注意的:“This is a convenience function intended for use interactively. For programming it is better to use the standard subsetting functions like [, and in particular the non-standard evaluation of argument subset can have unanticipated
consequences."
數(shù)據(jù)的變換
常見的數(shù)據(jù)變換函數(shù)有:
abs(x) 絕對值
sqrt(x) 開根號
ceiling(x) 求上線,例:ceiling(3.475) = 4
floor(x) 求下線,例:floor(3.475) = 3
round(x,digits=n) 四舍五入,例:round(3.475,digits=2) = 3.48
signif(x,digits=n) 四舍五入,例:signif(3.475,digits=2) = 3.5
cos(x), sin(x) etc.三角變換
log(x) 對數(shù)變換
log2(x), log10(x) 以2、10為底的對數(shù)變換
exp(x) 指數(shù)變換
除此以外,我們還經(jīng)常對數(shù)據(jù)加標簽,以期在回歸中測量其效應(yīng)。我們以MASS包的shuttle數(shù)據(jù)集為例,想知道不同類型的風(fēng)(wind)是否需要使用不同的裝載機(use),這里我們希望將head wind標記為1,auto use也記為1,我們可以按照如下辦法設(shè)置虛擬變量:
library(MASS)
data(shuttle)
head(shuttle)
## stability error sign wind magn vis use
## 1 xstab LX pp head Light no auto
## 2 xstab LX pp head Medium no auto
## 3 xstab LX pp head Strong no auto
## 4 xstab LX pp tail Light no auto
## 5 xstab LX pp tail Medium no auto
## 6 xstab LX pp tail Strong no auto
## Make our own variables just for illustrationshuttle$auto <- 1 * (shuttle$use == "auto")shuttle$headwind <- 1 * (shuttle$wind == "head")
head(shuttle)
## stability error sign wind magn vis use auto headwind
## 1 xstab LX pp head Light no auto 1 1
## 2 xstab LX pp head Medium no auto 1 1
當然對于因子類型變量,relevel函數(shù)在線性模型的分析中也是能取得等價效果的。
有些時候,我們還常常將連續(xù)數(shù)據(jù)離散化,這時我們需要用到函數(shù)cut:
data <- rnorm(1000)
table(cut(data, breaks = quantile(data)))
##
## (-3.28,-0.637] (-0.637,0.0321] (0.0321,0.672] (0.672,3.37]
## 249 250 250 250
library(Hmisc)
table(cut2(data, g = 4))
##
## [-3.2847,-0.6372) [-0.6372, 0.0334) [ 0.0334, 0.6829) [ 0.6829, 3.3704]
## 250 250 250 250
detach("package:Hmisc", unload = TRUE)
獲得分組區(qū)間后,我們只需要將區(qū)間的因子重命名就成功的實現(xiàn)了數(shù)據(jù)的離散化。
數(shù)據(jù)的匯總
對數(shù)據(jù)進行匯總,分類匯總是我們也比較常用的,比如對行或列求和,求均值,求分位數(shù):
data <- matrix(1:16, 4, 4)data
## [,1] [,2] [,3] [,4]
## [1,] 1 5 9 13
## [2,] 2 6 10 14
## [3,] 3 7 11 15
## [4,] 4 8 12 16
apply(data, 2, mean)
## [1] 2.5 6.5 10.5 14.5
apply(data, 1, sum)
## [1] 28 32 36 40
apply(data, 1, quantile, probs = c(0.25, 0.75))
## [,1] [,2] [,3] [,4]
## 25% 4 5 6 7
## 75% 10 11 12 13
apply(data, 2, quantile, probs = c(0.25, 0.75))
## [,1] [,2] [,3] [,4]
## 25% 1.75 5.75 9.75 13.75
## 75% 3.25 7.25 11.25 15.25
有時候,為了更快些,我們會用一些函數(shù)替代apply:
rowSums = apply(x, 1, sum)
rowMeans = apply(x, 1, mean)
colSums = apply(x, 2, sum)
colMeans = apply(x, 2, mean
我們有時也會處理一些列表,對列表的分類匯總我們會用到sapply,lapply,不同的是前者返回一個向量或矩陣,后者返回一個列表,例:
x <- list(a = 1:10, beta = exp(-3:3), logic = c(TRUE,FALSE,FALSE,TRUE))
lapply(x, mean)
## $a
## [1] 5.5
##
## $beta
## [1] 4.535
##
## $logic
## [1] 0.5
sapply(x, mean)
## a beta logic
## 5.500 4.535 0.500
# median and quartiles for each list elementlapply(x, quantile, probs = 1:3/4)
## $a
## 25% 50% 75%
## 3.25 5.50 7.75
##
## $beta
## 25% 50% 75%
## 0.2516 1.0000 5.0537
##
## $logic
## 25% 50% 75%
## 0.0 0.5 1.0
sapply(x, quantile)
## a beta logic
## 0% 1.00 0.04979 0.0
## 25% 3.25 0.25161 0.0
## 50% 5.50 1.00000 0.5
## 75% 7.75 5.05367 1.0
## 100% 10.00 20.08554 1.0
有時候我們還會進行分類匯總,如統(tǒng)計男女工資均值,這時你可以用tapply:
group <- (rbinom(32, n = 20, prob = 0.4))groups <- factor(rep(1:2,10))
tapply(group, groups, length)
## 1 2
## 10 10
tapply(group, groups, sum)
## 1 2
## 135 122
tapply(group, groups, mean)
## 1 2
## 13.5 12.2
數(shù)據(jù)的排序
數(shù)據(jù)的排序需要用到的函數(shù)常見的有sort和order,其中sort返回排序的結(jié)果,order返回對應(yīng)數(shù)據(jù)的排名。例:
X <- data.frame("var1"=sample(1:5),"var2"=sample(6:10),"var3"=sample(11:15))X <- X[sample(1:5),]X$var2[c(1,3)] <- NAsort(X$var2,decreasing=TRUE)
## [1] 9 8 6
sort(X$var2,decreasing=TRUE,na.last=TRUE)
## [1] 9 8 6 NA NA
order(X$var2,decreasing=TRUE)
## [1] 2 5 4 1 3
order(X$var2,decreasing=TRUE,na.last=TRUE)
## [1] 2 5 4 1 3
X[order(X$var2),]
## var1 var2 var3
## 2 1 6 13
## 5 5 8 15
## 4 4 9 11
## 1 2 NA 14
## 3 3 NA 12
#deal with the linkX$var2[c(1)] <- sample(na.omit(X$var2),1)X[order(X$var2,X$var3),]
## var1 var2 var3
## 2 1 6 13
## 5 5 8 15
## 4 4 9 11
## 1 2 9 14
## 3 3 NA 12
有些時候,更為強大的aggregate函數(shù)是我們需要的,我們以R的內(nèi)置數(shù)據(jù)集state.x77為例:
aggregate(state.x77, list(Region = state.region, Cold = state.x77[,"Frost"] > 130), mean)
## Region Cold Population Income Illiteracy Life Exp Murder HS Grad
## 1 Northeast FALSE 8802.8 4780 1.1800 71.13 5.580 52.06
## 2 South FALSE 4208.1 4012 1.7375 69.71 10.581 44.34
## 3 North Central FALSE 7233.8 4633 0.7833 70.96 8.283 53.37
## 4 West FALSE 4582.6 4550 1.2571 71.70 6.829 60.11
## 5 Northeast TRUE 1360.5 4308 0.7750 71.44 3.650 56.35
## 6 North Central TRUE 2372.2 4589 0.6167 72.58 2.267 55.67
當然,這里還有一個更為基本與靈活的函數(shù),split,可以幫助你將數(shù)據(jù)分為若干張滿足分類條件的表,你可以一張一張的處理它們:
library(datasets)
head(airquality)
## Ozone Solar.R Wind Temp Month Day
## 1 41 190 7.4 67 5 1
## 2 36 118 8.0 72 5 2
## 3 12 149 12.6 74 5 3
## 4 18 313 11.5 62 5 4
## 5 NA NA 14.3 56 5 5
數(shù)據(jù)分析咨詢請掃描二維碼
若不方便掃碼,搜微信號:CDAshujufenxi
SQL Server 中 CONVERT 函數(shù)的日期轉(zhuǎn)換:從基礎(chǔ)用法到實戰(zhàn)優(yōu)化 在 SQL Server 的數(shù)據(jù)處理中,日期格式轉(zhuǎn)換是高頻需求 —— 無論 ...
2025-09-18MySQL 大表拆分與關(guān)聯(lián)查詢效率:打破 “拆分必慢” 的認知誤區(qū) 在 MySQL 數(shù)據(jù)庫管理中,“大表” 始終是性能優(yōu)化繞不開的話題。 ...
2025-09-18CDA 數(shù)據(jù)分析師:表結(jié)構(gòu)數(shù)據(jù) “獲取 - 加工 - 使用” 全流程的賦能者 表結(jié)構(gòu)數(shù)據(jù)(如數(shù)據(jù)庫表、Excel 表、CSV 文件)是企業(yè)數(shù)字 ...
2025-09-18DSGE 模型中的 Et:理性預(yù)期算子的內(nèi)涵、作用與應(yīng)用解析 動態(tài)隨機一般均衡(Dynamic Stochastic General Equilibrium, DSGE)模 ...
2025-09-17Python 提取 TIF 中地名的完整指南 一、先明確:TIF 中的地名有哪兩種存在形式? 在開始提取前,需先判斷 TIF 文件的類型 —— ...
2025-09-17CDA 數(shù)據(jù)分析師:解鎖表結(jié)構(gòu)數(shù)據(jù)特征價值的專業(yè)核心 表結(jié)構(gòu)數(shù)據(jù)(以 “行 - 列” 規(guī)范存儲的結(jié)構(gòu)化數(shù)據(jù),如數(shù)據(jù)庫表、Excel 表、 ...
2025-09-17Excel 導(dǎo)入數(shù)據(jù)含缺失值?詳解 dropna 函數(shù)的功能與實戰(zhàn)應(yīng)用 在用 Python(如 pandas 庫)處理 Excel 數(shù)據(jù)時,“缺失值” 是高頻 ...
2025-09-16深入解析卡方檢驗與 t 檢驗:差異、適用場景與實踐應(yīng)用 在數(shù)據(jù)分析與統(tǒng)計學(xué)領(lǐng)域,假設(shè)檢驗是驗證研究假設(shè)、判斷數(shù)據(jù)差異是否 “ ...
2025-09-16CDA 數(shù)據(jù)分析師:掌控表格結(jié)構(gòu)數(shù)據(jù)全功能周期的專業(yè)操盤手 表格結(jié)構(gòu)數(shù)據(jù)(以 “行 - 列” 存儲的結(jié)構(gòu)化數(shù)據(jù),如 Excel 表、數(shù)據(jù) ...
2025-09-16MySQL 執(zhí)行計劃中 rows 數(shù)量的準確性解析:原理、影響因素與優(yōu)化 在 MySQL SQL 調(diào)優(yōu)中,EXPLAIN執(zhí)行計劃是核心工具,而其中的row ...
2025-09-15解析 Python 中 Response 對象的 text 與 content:區(qū)別、場景與實踐指南 在 Python 進行 HTTP 網(wǎng)絡(luò)請求開發(fā)時(如使用requests ...
2025-09-15CDA 數(shù)據(jù)分析師:激活表格結(jié)構(gòu)數(shù)據(jù)價值的核心操盤手 表格結(jié)構(gòu)數(shù)據(jù)(如 Excel 表格、數(shù)據(jù)庫表)是企業(yè)最基礎(chǔ)、最核心的數(shù)據(jù)形態(tài) ...
2025-09-15Python HTTP 請求工具對比:urllib.request 與 requests 的核心差異與選擇指南 在 Python 處理 HTTP 請求(如接口調(diào)用、數(shù)據(jù)爬取 ...
2025-09-12解決 pd.read_csv 讀取長浮點數(shù)據(jù)的科學(xué)計數(shù)法問題 為幫助 Python 數(shù)據(jù)從業(yè)者解決pd.read_csv讀取長浮點數(shù)據(jù)時的科學(xué)計數(shù)法問題 ...
2025-09-12CDA 數(shù)據(jù)分析師:業(yè)務(wù)數(shù)據(jù)分析步驟的落地者與價值優(yōu)化者 業(yè)務(wù)數(shù)據(jù)分析是企業(yè)解決日常運營問題、提升執(zhí)行效率的核心手段,其價值 ...
2025-09-12用 SQL 驗證業(yè)務(wù)邏輯:從規(guī)則拆解到數(shù)據(jù)把關(guān)的實戰(zhàn)指南 在業(yè)務(wù)系統(tǒng)落地過程中,“業(yè)務(wù)邏輯” 是連接 “需求設(shè)計” 與 “用戶體驗 ...
2025-09-11塔吉特百貨孕婦營銷案例:數(shù)據(jù)驅(qū)動下的精準零售革命與啟示 在零售行業(yè) “流量紅利見頂” 的當下,精準營銷成為企業(yè)突圍的核心方 ...
2025-09-11CDA 數(shù)據(jù)分析師與戰(zhàn)略 / 業(yè)務(wù)數(shù)據(jù)分析:概念辨析與協(xié)同價值 在數(shù)據(jù)驅(qū)動決策的體系中,“戰(zhàn)略數(shù)據(jù)分析”“業(yè)務(wù)數(shù)據(jù)分析” 是企業(yè) ...
2025-09-11Excel 數(shù)據(jù)聚類分析:從操作實踐到業(yè)務(wù)價值挖掘 在數(shù)據(jù)分析場景中,聚類分析作為 “無監(jiān)督分組” 的核心工具,能從雜亂數(shù)據(jù)中挖 ...
2025-09-10統(tǒng)計模型的核心目的:從數(shù)據(jù)解讀到?jīng)Q策支撐的價值導(dǎo)向 統(tǒng)計模型作為數(shù)據(jù)分析的核心工具,并非簡單的 “公式堆砌”,而是圍繞特定 ...
2025-09-10