经过数小时的Google搜索,我找不到任何关于此的信息,希望我能在这里解决我的问题。

我正在尝试使用spark2从远程配置单元群集获取数据。我已经遵循:

  • How to connect to a Hive metastore programmatically in SparkSQL?
  • How to connect to remote hive server from spark

  • 而且我能够成功连接到远程配置单元元存储。

    但是,当我在远程配置单元中执行查询时,我的问题开始了。例如spark.sql(“从表中选择count(*)”)。我将收到“未知主机:ns-bigdata”错误。其中ns-bigdata是远程群集的群集名称。

    我在这里还想念什么呢?我是否需要指定hive.metastore.warehouse.dir的位置?例如hdfs://本地集群:8020 / user / hive / warehouse

    提前致谢。

    最佳答案

    配置单元服务器URL在配置单元站点中。您可以尝试使用它吗?
    还要检查spark的conf /目录中是否存在hive-site.xml

    关于apache-spark - 通过远程配置单元运行sql查询时出现未知主机错误,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/59682433/

    10-10 17:17