我正在尝试在我的Cloudera VM 5.10中安装Scala IDE 4.7,该软件分别预先配置了JDK 1.7,Spark 1.6版本。
因此,我已经通过卸载Cloudera提供的/usr/java/jdk1.7中的默认JDK在/ opt /位置中安装了jdk版本1.8。我在.bash_profile中添加了Java环境变量。我已经成功安装了Scala IDE。
但是现在所有的Hadoop生态系统都指向旧的JDK 1.7,我已经将其卸载并在运行时引发错误。谁能告诉我在哪里可以为Hadoop生态系统配置Java变量以使其与新的1.8 JDK一起使用?
Here is the screen shot for reference
最佳答案
步骤1:停止所有hadoop服务器
步骤2:编辑bigtop-utils文件。
我添加了jdk 1.8的位置。
创建一个变量BIGTOP_MAJOR = 8。
选择jdk并打开JDK的优先顺序为6,7,8。
步骤3:保存并重新启动。
关于hadoop - 重新配置Hadoop生态系统的Java环境变量,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/46686828/