我是大数据,Hadoop和Linux的新手。我们有一个小型的4节点集群,1个主节点和3个节点,分别在Ambari 2.1和Hadoop 2.2.6上运行。所有计算机都在Ubuntu Server 12.04上运行。所有配置正确,一切正常。包括DNS,SSH,NTP等。但是,当我尝试在此之上安装HUE 3.8.1时,请遵循本指南:http://gethue.com/hadoop-hue-3-on-hdp-installation-tutorial/安装成功,并且能够在浏览器中打开并登录。但随后向我显示了3个配置错误:

  • 文件系统根目录“/”应归hdfs所有。
  • 密钥应配置为随机字符串。重新启动后所有 session 都将丢失...但是我从未设置过任何kerberos或其他安全性。
  • 如果没有运行Livy Spark服务器,该应用程序将无法运行。

  • 文件夹/ home / user / hue及其所有内容均由hdfs用户拥有,并且属于hdfs组。首次登录HUE时,我已经创建了ADMIN用户。如果需要,我是否需要将此管理员用户添加到某个组?另外,Spark是作为Ambari软件包的一部分安装并运行的。我需要单独安装Livy Spark还是再次进行某些配置?现在很困惑...
    我已经仔细检查了所有配置文件,它对我来说一切正常,可以在任何地方查看,甚至可以在哪里进行挖掘。遵循配置指南中的所有步骤,并用正确的端口,主机和地址替换。任何想法有什么问题,以及如何启动HUE?提前致谢。

    最佳答案

  • 警告:HDFS的/路径不属于默认的“hdfs”。如果所有者是其他人并且很正常,则可以在此处更新Hue https://github.com/cloudera/hue/blob/master/desktop/conf.dist/hue.ini#L60
  • 您应该在https://github.com/cloudera/hue/blob/master/desktop/conf.dist/hue.ini#L21中为“secret_key”输入一个随机的文本字符串,这样没人可以破解您的用户密码
  • 如果您不使用Spark应用程序http://gethue.com/spark-notebook-and-livy-rest-job-server-improvements/,则可以忘记此警告。它要求Livy Spark Server运行
  • 关于linux - 无法在Ambari Hadoop集群上启动HUE,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/32350361/

    10-16 03:21