在比较答案中两个函数的效率时检查列表是否包含 R 中的另一个列表 https://stackoverflow.com/a/39350733/4408538,我偶然发现了一个有趣的结果。排序大大提高了效率duplicated
当向量很大时。这让我感到惊讶,因为我从来没有注意到我自己的工作中使用duplicated
。事实上,对于我每天使用的尺寸来说,没有什么区别。观察:
set.seed(1007)
s1 <- sample(10^2, 10^3, replace = TRUE)
s1_sort <- sort(s1)
library(microbenchmark)
microbenchmark(dp=duplicated(s1), dp_sort=duplicated(s1_sort), times=1000)
Unit: microseconds
expr min lq mean median uq max neval cld
dp 16.459 16.9425 22.06371 17.2965 22.5050 1541.137 1000 a
dp_sort 17.007 17.5005 25.54953 17.8200 23.3655 1549.198 1000 a
正如您所看到的,向量排序时的时间没有明显的差异。然而,对于非常大的向量,结果有很大不同。观察:
s2 <- sample(10^6, 10^7, replace = TRUE)
s2_sort <- sort(s2)
microbenchmark(dp=duplicated(s2), dp_sort=duplicated(s2_sort), times=100)
Unit: milliseconds
expr min lq mean median uq max neval cld
dp 816.6883 847.9231 869.6829 861.8210 882.3978 1019.6339 100 b
dp_sort 287.6779 305.4779 322.8830 315.1198 324.9249 449.1734 100 a
几乎快了 3 倍!!!这让我陷入了兔子洞,它从这里开始:r-源.../重复.R https://github.com/SurajGupta/r-source/blob/master/src/library/base/R/duplicated.R。从这里我们看到,duplicated 调用了.Internal(duplicated(x,...))
。然后使用该函数pryr::show_c_source(.Internal(duplicated(x)))
和解决方法 https://github.com/hadley/pryr/issues/48由 @joran 建议(show_c_source
目前出现问题..参见'show_c_source()' 坏了吗? https://stackoverflow.com/q/38353760/4408538),我们看到duplicated
打电话给。最后,heart https://github.com/wch/r-source/blob/6e7a2ed989027f3800d2e2d64e60e6d700034c6b/src/main/unique.c#L667 of duplicated
显示(从第 667 行开始,到第 988 行结束)。看起来整个向量被循环,然后发生一些散列:
724 /* count unique entries */
725 k = 0;
726 for (i = 0; i < n; i++)
727 if (LOGICAL(dup)[i] == 0)
728 k++;
776 /* Build a hash table, ignoring information on duplication */
777 static void DoHashing(SEXP table, HashData *d)
我不完全理解所有代码,但似乎排序并不重要。无论哪种情况(排序与非排序),我们都会循环遍历整个向量,并最终调用各种哈希函数,这不应该取决于向量是否排序。我最初的想法是正在进行某种分支预测(请参阅这个问题 https://stackoverflow.com/q/11227809/4408538),但是从更新到这个答案 https://stackoverflow.com/a/11227902/4408538,看来这些事情应该已经不重要了。
这是怎么回事??
EDIT
随着向量大小和重复项数量的增加,差距似乎也在增加。
set.seed(496)
s3 <- sample(10^6, 10^8, replace = TRUE)
s3_sort <- sort(s3)
microbenchmark(dp=duplicated(s3), dp_sort=duplicated(s3_sort), times = 10)
Unit: seconds
expr min lq mean median uq max neval cld
dp 12.149932 12.175665 12.848843 12.495599 12.719861 15.589190 10 b
dp_sort 2.395636 2.401837 2.706674 2.551375 2.677556 4.373653 10 a
正如@alexis_laz指出的,如果没有重复项,排序的影响就会大大减少。
s4 <- sample(10^8)
s4_sort <- sort(s4)
microbenchmark(dp=duplicated(s4), dp_sort=duplicated(s4_sort), times = 10)
Unit: seconds
expr min lq mean median uq max neval cld
dp 8.013995 8.130565 8.593626 8.197501 8.438703 10.639452 10 b
dp_sort 6.135788 6.158140 6.751101 6.256739 7.241381 8.913507 10 a