我在我的Scala文件中import org.apache.spark.sql.DataFrame
,而不是使用sbt
进行编译,错误是object DataFrame is not a member of package org.apache.spark.sql
在Internet上搜索了一些解决方案,看来问题是星火版本太旧了。但是我使用的是最新版本(2.1.1),所以很奇怪。
在REPL中,当我import org.apache.spark.sql.DataFrame
时,没有错误。
我的功能是这样的:
def test(df: DataFrame): Unit={
....
}
当我在REPL中定义此函数时,就可以了,但是当我使用sbt进行编译时,错误为
not found: type DataFrame
。我的build.sbt:
name := "Hello"
version := "1.0"
scalaVersion := "2.11.8"
libraryDependencies += "org.apache.spark" %% "spark-core" % "2.1.1"
有人可以帮助我解决此问题吗?谢谢。
最佳答案
您需要spark-core和spark-sql才能使用Dataframe
libraryDependencies ++= Seq(
// https://mvnrepository.com/artifact/org.apache.spark/spark-core_2.11
"org.apache.spark" %% "spark-core" % "2.1.1",
// https://mvnrepository.com/artifact/org.apache.spark/spark-sql_2.11
"org.apache.spark" %% "spark-sql" % "2.1.1"
)
希望这可以帮助!