我目前正在使用sparkR测试一个应用程序。这是我的平台和应用程序的详细信息:



我做了什么?

步骤I:将包加载到R环境



步骤II:设置系统环境变量



步骤III:创建一个Spark上下文和一个SQL上下文



在此行获取错误,即 10秒后 JVM尚未准备就绪

请帮我解决这个问题。
谢谢。

最佳答案

我遇到了同样的问题,我可以告诉你我尝试了很多事情。

但是最终以下内容对我有用,在重新启动计算机(以及R和RStudio)之后:

SPARK_HOME <- "C:\\Apache\\spark-1.5.2-bin-hadoop2.6\\"
Sys.setenv('SPARKR_SUBMIT_ARGS'='"--packages" "com.databricks:spark-csv_2.10:1.2.0" "sparkr-shell"')
library(SparkR, lib.loc = "C:\\Apache\\spark-1.5.2-bin-hadoop2.6\\R\\lib")

library(SparkR)
library(rJava)

sc <- sparkR.init(master = "local", sparkHome = SPARK_HOME)

可能有帮助:重新启动系统后,这已包含在我的环境变量PATH中:

C:\ ProgramData \ Oracle \ Java \ javapath

关于r - 初始化sparkR时出错:10秒后JVM尚未就绪,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/32204792/

10-12 17:59