我是Spark的新手,想在磁盘上运行Spark Program。我想在磁盘而不是RAM上加载RDD,我该怎么做?

最佳答案

使用RDD.cache(DISK_ONLY)

它仅将RDD分区存储在磁盘上。

关于hadoop - 如何在Spark而不是RAM的磁盘上进行计算?,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/26861756/

10-16 16:40