本文介绍了如何使用 Hive 支持创建 SparkSession(因“找不到 Hive 类"而失败)?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!
问题描述
我在尝试运行以下代码时遇到错误:
I'm getting an error while trying to run the following code:
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;
public class App {
public static void main(String[] args) throws Exception {
SparkSession
.builder()
.enableHiveSupport()
.getOrCreate();
}
}
输出:
Exception in thread "main" java.lang.IllegalArgumentException: Unable to instantiate SparkSession with Hive support because Hive classes are not found.
at org.apache.spark.sql.SparkSession$Builder.enableHiveSupport(SparkSession.scala:778)
at com.training.hivetest.App.main(App.java:21)
如何解决?
推荐答案
将以下依赖项添加到您的 maven 项目.
Add following dependency to your maven project.
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-hive_2.11</artifactId>
<version>2.0.0</version>
</dependency>
这篇关于如何使用 Hive 支持创建 SparkSession(因“找不到 Hive 类"而失败)?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!