我在 EMR 中使用 Hive Metastore。
我可以通过 HiveSQL 或 SparkSQL 手动查询表。
但是当我在 Spark Job 中使用同一个表时,它说 表或 View 未找到

File "/usr/lib/spark/python/lib/pyspark.zip/pyspark/sql/utils.py", line 69, in deco pyspark.sql.utils.AnalysisException:
  u"Table or view not found: `logan_test`.`salary_csv`; line 1 pos 21;
'Aggregate [unresolvedalias(count(1), None)]
+- 'UnresolvedRelation `logan_test`.`salary_csv`

这是我的完整代码
from pyspark import SparkContext, HiveContext
from pyspark import SQLContext
from pyspark.sql import SparkSession

sc = SparkContext(appName = "test")
sqlContext = SQLContext(sparkContext=sc)
sqlContext.sql("select count(*) from logan_test.salary_csv").show()
print("done..")

我提交了我的工作如下以使用配置单元目录表。
spark-submit test.py --files /usr/lib/hive/conf/hive-site.xml

最佳答案

看起来您正在使用 Spark 2,因此 SQLContextHiveContext 应该在您使用 SparkSession.sql() 后替换为 enableHiveSupport()
而不是 .sql() ,您可以使用 SparkSession.table() 获取整个表的 DataFrame ,然后使用 count() 跟随它,然后是您想要的任何其他查询。

from pyspark.sql import SparkSession

spark = SparkSession.builder.enableHiveSupport().appName("Hive Example").getOrCreate()
salary_csv = spark.table("logan_test.salary_csv")
print(salary_csv.count())

关于python - spark作业中不存在配置单元表,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/47897050/

10-12 22:51