经过数小时的Google搜索,我找不到任何关于此的信息,希望我能在这里解决我的问题。
我正在尝试使用spark2从远程配置单元群集获取数据。我已经遵循:
而且我能够成功连接到远程配置单元元存储。
但是,当我在远程配置单元中执行查询时,我的问题开始了。例如spark.sql(“从表中选择count(*)”)。我将收到“未知主机:ns-bigdata”错误。其中ns-bigdata是远程群集的群集名称。
我在这里还想念什么呢?我是否需要指定hive.metastore.warehouse.dir的位置?例如hdfs://本地集群:8020 / user / hive / warehouse
提前致谢。
最佳答案
配置单元服务器URL在配置单元站点中。您可以尝试使用它吗?
还要检查spark的conf /目录中是否存在hive-site.xml
关于apache-spark - 通过远程配置单元运行sql查询时出现未知主机错误,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/59682433/