本文介绍了火花SBT编译错误libraryDependencies的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

~/sparksample$ sbt

启动SBT:与-help其他选项[信息]设置当前项目星火调用示例(在构建文件:/家庭/ beyhan / sparksample /)

> sbt compile

[信息] {更新文件:/家庭/ beyhan / sparksample /}默认f390c8 ... [信息]解决org.scala琅#斯卡拉库; 2.11.7 ... [资讯]解决org.apache.spark#火花core_2.11.7; 1.2.0 ... [提醒]模块未找到:org.apache.spark#火花core_2.11.7; 1.2.0 [提醒] === =本地:试图[提醒] /home/beyhan/.ivy2/local/org.apache.spark/spark-core_2.11.7/1.2.0/ivys/ivy.xml [提醒] ====市民:试图[警告] http://repo1.maven.org/maven2/org/apache/spark/spark-core_2.11.7/1.2.0/spark-core_2.11.7-1.2.0.pom [提醒] ::::::: ::::::::::::::::::::::::::::::::::::::: [提醒] ::未解决的依赖:: [警告] :::::::::::::::::::::::::::::::::::::::::::::: [提醒] :: org.apache.spark#火花core_2.11.7; 1.2.0:找不到[提醒] ::::::::::::::::::::::::::: ::::::::::::::::::: [错误] {文件:/家庭/ beyhan / sparksample /}默认f390c8 / *:更新时间:sbt.ResolveException:无法解析的依赖性:组织。 apache.spark#火花core_2.11.7; 1.2.0:找不到[错误]总时间:2秒,完成了2015年10月15日上午十一点30分47秒

我使用火花1.2.0彬hadoop2.4 和我的斯卡拉版本 2.11.7 但我,所以我不能使用SBT收到错误。我该怎么办,什么建议吗?谢谢你。

Hi i am using spark-1.2.0-bin-hadoop2.4 and my scala version 2.11.7 but i am getting error so i can't using sbt. How can i do,any suggestion ? Thanks.

推荐答案

有不存在火花core_2.11.7 jar文件。你有火花依赖摆脱维护版本号 0.7 ,因为火花core_2.11 存在。所有的Scala版本与版本 2.11 应该是兼容的。

There exists no spark-core_2.11.7 jar file. You have to get rid of the maintenance version number .7 in the spark dependencies because spark-core_2.11 exists. All Scala versions with version 2.11 should be compatible.

一个最小的SBT文件可能看起来像

A minimal sbt file could look like

name := "Simple Project"

version := "1.0"

scalaVersion := "2.11.7"

libraryDependencies += "org.apache.spark" %% "spark-core" % "1.5.1"

这篇关于火花SBT编译错误libraryDependencies的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!

07-23 15:55