问题描述
~/sparksample$ sbt
启动SBT:与-help其他选项[信息]设置当前项目星火调用示例(在构建文件:/家庭/ beyhan / sparksample /)
> sbt compile
[信息] {更新文件:/家庭/ beyhan / sparksample /}默认f390c8 ... [信息]解决org.scala琅#斯卡拉库; 2.11.7 ... [资讯]解决org.apache.spark#火花core_2.11.7; 1.2.0 ... [提醒]模块未找到:org.apache.spark#火花core_2.11.7; 1.2.0 [提醒] === =本地:试图[提醒] /home/beyhan/.ivy2/local/org.apache.spark/spark-core_2.11.7/1.2.0/ivys/ivy.xml [提醒] ====市民:试图[警告] http://repo1.maven.org/maven2/org/apache/spark/spark-core_2.11.7/1.2.0/spark-core_2.11.7-1.2.0.pom [提醒] ::::::: ::::::::::::::::::::::::::::::::::::::: [提醒] ::未解决的依赖:: [警告] :::::::::::::::::::::::::::::::::::::::::::::: [提醒] :: org.apache.spark#火花core_2.11.7; 1.2.0:找不到[提醒] ::::::::::::::::::::::::::: ::::::::::::::::::: [错误] {文件:/家庭/ beyhan / sparksample /}默认f390c8 / *:更新时间:sbt.ResolveException:无法解析的依赖性:组织。 apache.spark#火花core_2.11.7; 1.2.0:找不到[错误]总时间:2秒,完成了2015年10月15日上午十一点30分47秒
我使用火花1.2.0彬hadoop2.4
和我的斯卡拉版本 2.11.7
但我,所以我不能使用SBT收到错误。我该怎么办,什么建议吗?谢谢你。
Hi i am using spark-1.2.0-bin-hadoop2.4
and my scala version 2.11.7
but i am getting error so i can't using sbt. How can i do,any suggestion ? Thanks.
推荐答案
有不存在火花core_2.11.7
jar文件。你有火花依赖摆脱维护版本号 0.7
,因为火花core_2.11
存在。所有的Scala版本与版本 2.11
应该是兼容的。
There exists no spark-core_2.11.7
jar file. You have to get rid of the maintenance version number .7
in the spark dependencies because spark-core_2.11
exists. All Scala versions with version 2.11
should be compatible.
一个最小的SBT文件可能看起来像
A minimal sbt file could look like
name := "Simple Project"
version := "1.0"
scalaVersion := "2.11.7"
libraryDependencies += "org.apache.spark" %% "spark-core" % "1.5.1"
这篇关于火花SBT编译错误libraryDependencies的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!