我安装了火花。预编译且独立。但是两者都无法运行val conf = new SparkConf()。错误是error: not found: type SparkConf

scala> val conf = new SparkConf()
<console>:10: error: not found: type SparkConf


预编译的是spark 0.9.1和Scala 2.10.3
独立版本是Spark 1.0.1和Scala 2.10.4
对于独立版本,我使用scala 2.10.4进行了编译
您的帮助将不胜感激

最佳答案

正如我们在注释中指出的那样,您的代码缺少适当的import语句:

import org.apache.spark.SparkConf

关于scala - 错误:找不到:键入SparkConf,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/25012320/

10-09 09:11