我注意到关于这个问题的方法和flexclust方法的一些事情是,它们相当慢(基准测试集合中有100万个观察结果和2个特征)。
件原始模型是相当快的:
set.seed(144)
df1 <- data.frame(x=runif(1e6), y=runif(1e6))
df2 <- data.frame(x=runif(1e6), y=runif(1e6))
system.time(km <- kmeans(df1, centers=3))
# user system elapsed
# 1.204 0.077 1.295
我张贴在这个问题的解决方案是在计算测试设置群集分配缓慢,因为它单独调用closest.cluster
为每个测试设定点:
system.time(pred.test <- apply(df2, 1, closest.cluster))
# user system elapsed
# 42.064 0.251 42.586
同时,flexclust包似乎增添了不少开销,无论我们把与as.kcca
拟合模型或安装一个新的自己与kcca
(虽然PR ediction末的速度要快得多)
# APPROACH #1: Convert from the kmeans() output
system.time(km.flexclust <- as.kcca(km, data=df1))
# user system elapsed
# 87.562 1.216 89.495
system.time(pred.flexclust <- predict(km.flexclust, newdata=df2))
# user system elapsed
# 0.182 0.065 0.250
# Approach #2: Fit the k-means clustering model in the flexclust package
system.time(km.flexclust2 <- kcca(df1, k=3, kccaFamily("kmeans")))
# user system elapsed
# 125.193 7.182 133.519
system.time(pred.flexclust2 <- predict(km.flexclust2, newdata=df2))
# user system elapsed
# 0.198 0.084 0.302
似乎有另一种明智的做法在这里:使用快速k最近像kd树的邻居解决发现的内每个测试设置观察近邻集群质心集。这可以紧凑地写和比较快速的:
library(FNN)
system.time(pred.knn <- get.knnx(km$center, df2, 1)$nn.index[,1])
# user system elapsed
# 0.315 0.013 0.345
all(pred.test == pred.knn)
# [1] TRUE
[这是一个很好的资源尝试不同的聚类方法有R代码和解释](http://manuals.bioinformatics.ucr.edu/home/R_BioCondManual# TOC-Clustering-Exercises)还有[biganalytics包](http://cran.r-project.org/web/packages/biganalytics/biganalytics.pdf),它不依赖于记忆,并且有一个K-means算法 – marbel
向学生介绍apply()(他们最终会反复使用它)似乎更加明智,并且使用相对简单的方法,而不是将它们引入到一堆不同的包中,这些包在特殊场合下必须记住(如果他们再次使用它们)。 – naught101