我有一个Scala Spark应用程序,正在尝试使用Shell脚本在Linux服务器上运行。我收到错误消息:



但是,我不明白哪里出了问题。我这样做是为了实例化Spark:

val sparkConf = new SparkConf().setAppName("HDFStoES").setMaster("local")

      val spark: SparkSession = SparkSession.builder.enableHiveSupport().config(sparkConf).getOrCreate()

我是否正确执行此操作,如果是这样,可能是什么错误?

最佳答案

sparkSession = SparkSession.builder().appName("Test App").master("local[*])
                .config("hive.metastore.warehouse.dir", hiveWareHouseDir)
                .config("spark.sql.warehouse.dir", hiveWareHouseDir).enableHiveSupport().getOrCreate();

在以上使用中,您需要指定"hive.metastore.warehouse.dir"目录以在spark session 中启用配置单元支持。

08-28 05:11