我是Upstart的新手(也是该公司的Spark新手),
我已经能够使用以下命令启动Spark独立服务器:
./spark-1.5.2-bin-hadoop2.4/sbin/start-master.sh
我希望每次打开计算机时都能自动启动,因此我查找了Upstart并编写了这个简单的conf文件:
description "satrt a spark master with Upstart"
author "Ezer"
exec bash -c '/spark-1.5.2-bin-hadoop2.4/sbin/start-master start'
它不起作用,我得到的是我缺少的基本知识,我们将不胜感激。
最佳答案
怎么样
export SPARK_HOME={YOUR_ACTUAL_SPARK_HOME_PATH}
exec bash $SPARK_HOME/sbin/start-all.sh
在您的新贵
conf
文件中?但是,请注意脚本的生成过程,因此您实际上无法使用upstart
管理服务。关于apache-spark - 使用Upstart启动Spark独立主机,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/34378778/