运行pySpark代码时如何获取执行者ID?我知道使用scala可以使用SparkEnv.get().executorId()
,但是使用pySpark时找不到等效项。
最佳答案
您可以使用REST API来查询执行程序,我已经在pySparkUtils中使用它来查找executor IPs
波阿斯
关于apache-spark - pySpark:获取执行者ID,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/44726623/