我安装了火花。预编译且独立。但是两者都无法运行val conf = new SparkConf()
。错误是error: not found: type SparkConf
:
scala> val conf = new SparkConf()
<console>:10: error: not found: type SparkConf
预编译的是spark 0.9.1和Scala 2.10.3
独立版本是Spark 1.0.1和Scala 2.10.4
对于独立版本,我使用scala 2.10.4进行了编译
您的帮助将不胜感激
最佳答案
正如我们在注释中指出的那样,您的代码缺少适当的import语句:
import org.apache.spark.SparkConf
关于scala - 错误:找不到:键入SparkConf,我们在Stack Overflow上找到一个类似的问题:https://stackoverflow.com/questions/25012320/