在 R 中,有很多方法可以做到这一点。具体来说,by
, aggregate
, split
, and plyr
, cast
, tapply
, data.table
, dplyr
,等等。
从广义上讲,这些问题的形式是拆分-应用-组合。哈德利·威克姆 (Hadley Wickham) 写过一篇漂亮的文章这将使您更深入地了解整个问题类别,非常值得一读。他的plyr
包实现了通用数据结构的策略,并且dplyr
是针对数据帧调整的较新的实现性能。它们允许解决相同形式但比这个问题更复杂的问题。作为解决数据操作问题的通用工具,它们非常值得学习。
性能是非常大的数据集上的一个问题,因此很难击败基于data.table
。但是,如果您只处理中型或更小的数据集,请花时间学习data.table
可能不值得付出努力。dplyr
也可以很快,所以如果你想加快速度,但不太需要可扩展性,这是一个不错的选择data.table
.
下面的许多其他解决方案不需要任何额外的包。其中一些在中型数据集上甚至相当快。它们的主要缺点是隐喻或灵活性。通过比喻,我的意思是,它是一种为其他事物而设计的工具,旨在以“聪明”的方式强制解决这种特定类型的问题。我所说的灵活性是指他们缺乏解决广泛的类似问题或轻松产生整洁输出的能力。
Examples
base
功能
tapply
:
tapply(df$speed, df$dive, mean)
# dive1 dive2
# 0.5419921 0.5103974
aggregate
:
aggregate
接收 data.frames,输出 data.frames,并使用公式接口。
aggregate( speed ~ dive, df, mean )
# dive speed
# 1 dive1 0.5790946
# 2 dive2 0.4864489
by
:
在其最用户友好的形式中,它接收向量并对它们应用函数。然而,它的输出并不是一种非常易于操作的形式:
res.by <- by(df$speed, df$dive, mean)
res.by
# df$dive: dive1
# [1] 0.5790946
# ---------------------------------------
# df$dive: dive2
# [1] 0.4864489
为了解决这个问题,为了简单的使用by
the as.data.frame
方法中的taRifx
图书馆作品:
library(taRifx)
as.data.frame(res.by)
# IDX1 value
# 1 dive1 0.6736807
# 2 dive2 0.4051447
split
:
顾名思义,它仅执行拆分-应用-组合策略的“拆分”部分。为了使剩下的工作顺利进行,我将编写一个使用以下函数的小函数sapply
用于应用组合。sapply
自动尽可能地简化结果。在我们的例子中,这意味着一个向量而不是一个 data.frame,因为我们只有一维的结果。
splitmean <- function(df) {
s <- split( df, df$dive)
sapply( s, function(x) mean(x$speed) )
}
splitmean(df)
# dive1 dive2
# 0.5790946 0.4864489
外部封装
数据表:
library(data.table)
setDT(df)[ , .(mean_speed = mean(speed)), by = dive]
# dive mean_speed
# 1: dive1 0.5419921
# 2: dive2 0.5103974
dplyr
:
library(dplyr)
group_by(df, dive) %>% summarize(m = mean(speed))
plyr
(前身为dplyr
)
这是什么官方网站不得不说plyr
:
已经可以做到这一点base
R 函数(如split
和
这apply
函数族),但是plyr
让一切变得更容易
和:
- 完全一致的名称、参数和输出
- 通过方便的并行化
foreach
package
- data.frames、矩阵和列表的输入和输出
- 进度条用于跟踪长时间运行的操作
- 内置错误恢复和信息丰富的错误消息
- 在所有转换中维护的标签
换句话说,如果您学习一种用于拆分-应用-组合操作的工具,它应该是plyr
.
library(plyr)
res.plyr <- ddply( df, .(dive), function(x) mean(x$speed) )
res.plyr
# dive V1
# 1 dive1 0.5790946
# 2 dive2 0.4864489
reshape2:
The reshape2
库的设计并不是以拆分-应用-组合作为主要焦点。相反,它使用两部分熔化/铸造策略来执行m 各种各样的数据重塑任务。但是,由于它允许聚合函数,因此可以用于解决此问题。它不是我进行分割-应用-组合操作的首选,但它的重塑功能很强大,因此你也应该学习这个包。
library(reshape2)
dcast( melt(df), variable ~ dive, mean)
# Using dive as id variables
# variable dive1 dive2
# 1 speed 0.5790946 0.4864489
基准测试
10行2组
library(microbenchmark)
m1 <- microbenchmark(
by( df$speed, df$dive, mean),
aggregate( speed ~ dive, df, mean ),
splitmean(df),
ddply( df, .(dive), function(x) mean(x$speed) ),
dcast( melt(df), variable ~ dive, mean),
dt[, mean(speed), by = dive],
summarize( group_by(df, dive), m = mean(speed) ),
summarize( group_by(dt, dive), m = mean(speed) )
)
> print(m1, signif = 3)
Unit: microseconds
expr min lq mean median uq max neval cld
by(df$speed, df$dive, mean) 302 325 343.9 342 362 396 100 b
aggregate(speed ~ dive, df, mean) 904 966 1012.1 1020 1060 1130 100 e
splitmean(df) 191 206 249.9 220 232 1670 100 a
ddply(df, .(dive), function(x) mean(x$speed)) 1220 1310 1358.1 1340 1380 2740 100 f
dcast(melt(df), variable ~ dive, mean) 2150 2330 2440.7 2430 2490 4010 100 h
dt[, mean(speed), by = dive] 599 629 667.1 659 704 771 100 c
summarize(group_by(df, dive), m = mean(speed)) 663 710 774.6 744 782 2140 100 d
summarize(group_by(dt, dive), m = mean(speed)) 1860 1960 2051.0 2020 2090 3430 100 g
autoplot(m1)
照常,data.table
开销稍多一些,因此对于小数据集来说大约是平均水平。不过,这些都是微秒,因此差异微不足道。任何方法在这里都可以正常工作,您应该根据以下因素进行选择:
- 您已经熟悉或想要熟悉的内容(
plyr
其灵活性始终值得学习;data.table
如果您打算分析庞大的数据集,那么值得学习;by
and aggregate
and split
都是基本 R 函数,因此普遍可用)
- 它返回什么输出(数字、data.frame 或 data.table ——后者继承自 data.frame)
1000万行,10组
但是如果我们有一个大数据集怎么办?让我们尝试将 10^7 行分为十组。
df <- data.frame(dive=factor(sample(letters[1:10],10^7,replace=TRUE)),speed=runif(10^7))
dt <- data.table(df)
setkey(dt,dive)
m2 <- microbenchmark(
by( df$speed, df$dive, mean),
aggregate( speed ~ dive, df, mean ),
splitmean(df),
ddply( df, .(dive), function(x) mean(x$speed) ),
dcast( melt(df), variable ~ dive, mean),
dt[,mean(speed),by=dive],
times=2
)
> print(m2, signif = 3)
Unit: milliseconds
expr min lq mean median uq max neval cld
by(df$speed, df$dive, mean) 720 770 799.1 791 816 958 100 d
aggregate(speed ~ dive, df, mean) 10900 11000 11027.0 11000 11100 11300 100 h
splitmean(df) 974 1040 1074.1 1060 1100 1280 100 e
ddply(df, .(dive), function(x) mean(x$speed)) 1050 1080 1110.4 1100 1130 1260 100 f
dcast(melt(df), variable ~ dive, mean) 2360 2450 2492.8 2490 2520 2620 100 g
dt[, mean(speed), by = dive] 119 120 126.2 120 122 212 100 a
summarize(group_by(df, dive), m = mean(speed)) 517 521 531.0 522 532 620 100 c
summarize(group_by(dt, dive), m = mean(speed)) 154 155 174.0 156 189 321 100 b
autoplot(m2)
Then data.table
or dplyr
使用操作于data.table
s 显然是要走的路。某些方法(aggregate
and dcast
)开始看起来很慢。
1000万行,1000组
如果你有更多的组,差异就会变得更加明显。和1,000组和相同的 10^7 行:
df <- data.frame(dive=factor(sample(seq(1000),10^7,replace=TRUE)),speed=runif(10^7))
dt <- data.table(df)
setkey(dt,dive)
# then run the same microbenchmark as above
print(m3, signif = 3)
Unit: milliseconds
expr min lq mean median uq max neval cld
by(df$speed, df$dive, mean) 776 791 816.2 810 828 925 100 b
aggregate(speed ~ dive, df, mean) 11200 11400 11460.2 11400 11500 12000 100 f
splitmean(df) 5940 6450 7562.4 7470 8370 11200 100 e
ddply(df, .(dive), function(x) mean(x$speed)) 1220 1250 1279.1 1280 1300 1440 100 c
dcast(melt(df), variable ~ dive, mean) 2110 2190 2267.8 2250 2290 2750 100 d
dt[, mean(speed), by = dive] 110 111 113.5 111 113 143 100 a
summarize(group_by(df, dive), m = mean(speed)) 625 630 637.1 633 644 701 100 b
summarize(group_by(dt, dive), m = mean(speed)) 129 130 137.3 131 142 213 100 a
autoplot(m3)
So data.table
继续良好地扩展,并且dplyr
操作于data.table
也运作良好,与dplyr
on data.frame
慢了接近一个数量级。这split
/sapply
该策略似乎在组数量方面扩展不佳(意味着split()
可能很慢并且sapply
速度很快)。by
仍然相对高效——5秒,这对用户来说绝对是明显的,但对于这么大的数据集来说仍然不是不合理的。不过,如果您经常处理这种大小的数据集,data.table
显然是要走的路 - 100% data.table 以获得最佳性能或dplyr
with dplyr
using data.table
作为一个可行的替代方案。