0
假设我想从R data.table创建嵌套列表,如下面所述玩具例如:转换到嵌套列表
library(data.table)
generate_dt <- function(num_unique_id=100, rows_per_id=2) {
num_rows <- num_unique_id * rows_per_id
my_dt <- data.table(my_id=rep(seq(1, num_unique_id), rows_per_id),
y1=rnorm(num_rows), y2=rnorm(num_rows), y3=rnorm(num_rows),
z=runif(num_rows))
setkey(my_dt, my_id)
return(my_dt)
}
## Suppose I want to go from my_dt to a nested list
list_from_dt <- function(my_dt) {
num_unique_id <- length(unique(my_dt$my_id))
my_list <- lapply(seq_len(num_unique_id), function(id) {
my_dt_subset <- my_dt[J(id)]
return(list(y=as.matrix(my_dt_subset[, c("y1", "y2", "y3"), with=FALSE]),
max_z=max(my_dt_subset$z)))
})
stopifnot(is.matrix(my_list[[1]]$y))
return(my_list)
}
my_dt <- generate_dt()
my_list <- list_from_dt(my_dt) # Suppose I have some code that expects a nested list like this
system.time(replicate(100, unused <- generate_dt())) # Fast, 0.062 elapsed
system.time(replicate(100, unused <- list_from_dt(my_dt))) # Roughly 200 times slower (12.586 elapsed)
为什么创建嵌套列表,以便相对于创建数据表慢?有没有办法加快我的list_from_dt
功能?我认为my_dt
的查找速度相对较快,因为它是由id控制的。在我的嵌套列表中为矩阵分配大量零碎的内存块是否会产生瓶颈?
我的意思是,分割obj和计算汇总统计信息很慢并不奇怪,是吗?也不是创建单个对象的速度很快。你可能对'lapply(split(...))'感兴趣。 'split.data.table'函数在包的开发版本(1.9.7)上是高效的。 – Frank
@Frank谢谢你的指针,我会尝试获取data.table 1.9.7工作(我有1.9.6)。我并不感到惊讶的是,list_from_dt比较慢,但我感到惊讶的是速度有多慢。它没有做太多的计算,只能复制数据。 – Adrian