我目前正在使用sparkR测试一个应用程序。这是我的平台和应用程序的详细信息:
我做了什么?
步骤I:将包加载到R环境
步骤II:设置系统环境变量
步骤III:创建一个Spark上下文和一个SQL上下文
在此行获取错误,即 10秒后 JVM尚未准备就绪
请帮我解决这个问题。
谢谢。
最佳答案
我遇到了同样的问题,我可以告诉你我尝试了很多事情。
但是最终以下内容对我有用,在重新启动计算机(以及R和RStudio)之后:
SPARK_HOME <- "C:\\Apache\\spark-1.5.2-bin-hadoop2.6\\"
Sys.setenv('SPARKR_SUBMIT_ARGS'='"--packages" "com.databricks:spark-csv_2.10:1.2.0" "sparkr-shell"')
library(SparkR, lib.loc = "C:\\Apache\\spark-1.5.2-bin-hadoop2.6\\R\\lib")
library(SparkR)
library(rJava)
sc <- sparkR.init(master = "local", sparkHome = SPARK_HOME)
可能有帮助:重新启动系统后,这已包含在我的环境变量PATH中:
C:\ ProgramData \ Oracle \ Java \ javapath
关于r - 初始化sparkR时出错:10秒后JVM尚未就绪,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/32204792/