我是Upstart的新手(也是该公司的Spark新手),

我已经能够使用以下命令启动Spark独立服务器:

./spark-1.5.2-bin-hadoop2.4/sbin/start-master.sh

我希望每次打开计算机时都能自动启动,因此我查找了Upstart并编写了这个简单的conf文件:
 description "satrt a spark master with Upstart"
 author "Ezer"
 exec bash -c '/spark-1.5.2-bin-hadoop2.4/sbin/start-master start'

它不起作用,我得到的是我缺少的基本知识,我们将不胜感激。

最佳答案

怎么样

export SPARK_HOME={YOUR_ACTUAL_SPARK_HOME_PATH}
exec bash $SPARK_HOME/sbin/start-all.sh

在您的新贵conf文件中?但是,请注意脚本的生成过程,因此您实际上无法使用upstart管理服务。

关于apache-spark - 使用Upstart启动Spark独立主机,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/34378778/

10-13 07:20