运行pySpark代码时如何获取执行者ID?我知道使用scala可以使用SparkEnv.get().executorId(),但是使用pySpark时找不到等效项。

最佳答案

您可以使用REST API来查询执行程序,我已经在pySparkUtils中使用它来查找executor IPs

波阿斯

关于apache-spark - pySpark:获取执行者ID,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/44726623/

10-13 09:06