假设我想以并行方式将 myfunction 应用到 myDataFrame 的每一行。假设 otherDataFrame 是一个包含两列的数据帧:COLUNM1_odfCOLUMN2_odf 出于某些原因在 myfunction 中使用。所以我想用 parApply 写一个这样的代码:

clus <- makeCluster(4)
clusterExport(clus, list("myfunction","%>%"))

myfunction <- function(fst, snd) {
 #otherFunction and aGlobalDataFrame are defined in the global env
 otherFunction(aGlobalDataFrame)

 # some code to create otherDataFrame **INTERNALLY** to this function
 otherDataFrame %>% filter(COLUMN1_odf==fst & COLUMN2_odf==snd)
 return(otherDataFrame)
}
do.call(bind_rows,parApply(clus,myDataFrame,1,function(r) { myfunction(r[1],r[2]) }

这里的问题是,即使我将它们插入 COLUMN1_odf ,R 也无法识别 COLUMN2_odfclusterExport 。我怎么解决这个问题?有没有办法“导出” snow 需要的所有对象,以便不枚举它们中的每一个?

编辑 1:我添加了一条注释(在上面的代码中)以指定 otherDataFrame 是在 myfunction 内部创建的。

编辑 2:我添加了一些伪代码以概括 myfunction :它现在使用全局数据帧( aGlobalDataFrame 和另一个函数 otherFunction )

最佳答案

做了一些实验,所以我解决了我的问题(在本杰明的建议下,并考虑了我添加到问题中的“编辑”):

clus <- makeCluster(4)
clusterEvalQ(clus, {library(dplyr); library(magrittr)})
clusterExport(clus, "myfunction", "otherfunction", aGlobalDataFrame)

myfunction <- function(fst, snd) {
 #otherFunction and aGlobalDataFrame are defined in the global env
 otherFunction(aGlobalDataFrame)

 # some code to create otherDataFrame **INTERNALLY** to this function
 otherDataFrame %>% dplyr::filter(COLUMN1_odf==fst & COLUMN2_odf==snd)
 return(otherDataFrame)
}

do.call(bind_rows, parApply(clus, myDataFrame, 1,
        {function(r) { myfunction(r[1], r[2]) } )

通过这种方式,我注册了 aGlobalDataFramemyfunctionotherfunction ,简而言之,所有用于并行化作业的函数和数据(myfunction 本身)

关于R、dplyr 和雪 : how to parallelize functions which use dplyr,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/40199284/

10-12 18:58