本文介绍了为什么起动火花壳失败,"我们找不到任何外部IP地址]按钮!;在Windows?的处理方法,对大家解决问题具有一定的参考价值,需要的朋友们下面随着小编来一起学习吧!

问题描述

我有现在在我的Windows计算机上启动火花外壳的麻烦。我使用的火花版本是1.5.2 pre-内置Hadoop的2.4或更高版本。我觉得火花shell.cmd可以直接无需任何配置,因为它是pre-建成运行,我无法弄清楚什么是prevents我无法正常启动星火问题。

除了错误信息打印出来,我还可以在命令行中执行一些基本的命令阶,但显然事情错在这里。

下面是CMD错误日志:

 的log4j:警告没有附加目的地可以为记录器上找到(org.apache.hadoop.metrics2.li
b.MutableMetricsFactory)。
log4j的:WARN请正确初始化log4j的系统。
log4j的:警告见http://logging.apache.org/log4j/1.2/faq.html#noconfig进行更
FO。
使用星火的REPL log4j的配置文件:组织/阿帕奇/火花/ log4j的 - 默认值,repl.propertie
小号
要调整日志记录级别使用sc.setLogLevel(INFO)
欢迎来到
      ____ __
     / __ / __ ___ _____ / / __
    _ \\ \\ / _ \\ / _`/ __ /'_ /
   / ___ / .__ / \\ _,_ / _ / / _ / \\ _ \\ 1.5.2版
      / _ /使用Scala版本2.10.4(Java的热点(TM)64位服务器VM,爪哇1.8.0_25)
在EX pressions类型,让他们评估。
类型:帮助更多的信息。
15/11/18十七点51分32秒WARN MetricsSystem:使用默认名称DAGScheduler源
 因为spark.app.id未设置。
作为SC星火上下文。
15/11/18 17时51分39秒WARN一般:插件(包)org.datanucleus已经是章
istered。确保你没有在CL同一插件的多个版本的JAR
asspath。该URL的file:/ C:/spark-1.5.2-bin-hadoop2.4/lib/datanucleus-core-3.2.10
的.jar已经注册了,你尝试注册相同的插件
位于URL的file:/ C:/spark-1.5.2-bin-hadoop2.4/bin /../ LIB / DataNucleus的核心-3
.2.10.jar。
15/11/18 17时51分39秒WARN一般:插件(包)org.datanucleus.store.rdbms的
 已经注册。确保你不要有相同的插件的多个版本的JAR
在类路径中。该URL的file:/ C:/spark-1.5.2-bin-hadoop2.4/lib/datanucleus
-rdbms-3.2.9.jar已经注册了,你尝试注册的ident
iCal的插件位于URL的file:/ C:/spark-1.5.2-bin-hadoop2.4/bin /../ LIB / datanu
cleus的RDBMS-3.2.9.jar。
15/11/18 17时51分39秒WARN一般:插件(包)org.datanucleus.api.jdo是ALR
伊迪注册。确保你不要有相同的插件我的多个版本的JAR
n中的类路径。该URL的file:/ C:/spark-1.5.2-bin-hadoop2.4/bin /../ LIB / datanucl
EUS-API JDO-3.2.6.jar已被注册,并且您要注册一个
相同的插件位于URL的file:/ C:/spark-1.5.2-bin-hadoop2.4/lib/datanucl
EUS-API JDO-3.2.6.jar。
15/11/18 17时51分39秒WARN连接:BoneCP规定,但在CLASSPATH没有present
 (或一个依赖项)
15/11/18十七点51分40秒WARN连接:BoneCP规定,但在CLASSPATH没有present
 (或一个依赖项)
15/11/18 17时51分46秒WARN ObjectStore的:版本信息metastore没有找到。
hive.metastore.schema.verification没有启用,因此录制模式versio
ñ1.2.0
15/11/18 17时51分46秒WARN的ObjectStore:无法获取数据库默认情况下,没有返回
SuchObjectException
15/11/18 17时51分47秒警告:您的主机名,联想PC解析为回送/非reachab
乐地址:FE80:0:0:0:297A:e76d:828:59dc%WLAN2,但我们找不到任何的extern
人的IP地址!
了java.lang.RuntimeException:显示java.lang.NullPointerException
        在org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.jav
答:522)
        在org.apache.spark.sql.hive.client.ClientWrapper<&初始化GT;(ClientWrapper.s
卡拉:171)
        在org.apache.spark.sql.hive.HiveContext.executionHive $ lzycompute(HiveCo
ntext.scala:162)
        在org.apache.spark.sql.hive.HiveContext.executionHive(HiveContext.scala
:160)
        在org.apache.spark.sql.hive.HiveContext<初始化方式>(HiveContext.scala:167)
        在sun.reflect.NativeConstructorAccessorImpl.newInstance0(本机方法)        在sun.reflect.NativeConstructorAccessorImpl.newInstance(NativeConstruct
orAccessorImpl.java:62)
        在sun.reflect.DelegatingConstructorAccessorImpl.newInstance(DelegatingC
onstructorAccessorImpl.java:45)
        在java.lang.reflect.Constructor.newInstance(Constructor.java:408)
        在org.apache.spark.repl.SparkILoop.createSQLContext(SparkILoop.scala:10
28)
        在IWC万国表$ $$ IWC万国表<初始化方式>(小于控制台> 9)
        在IWC万国表$<&初始化GT;(小于控制台>:18)。
        在与下;初始化>(小于控制台>:20)
        在与下;初始化>(小于控制台>:24)。
        在与下; clinit>(小于控制台&GT)
        在与下;初始化方式>(小于控制台>:7)
        在与下; clinit>(小于控制台&GT)
        在$打印(小于控制台>)
        在sun.reflect.NativeMethodAccessorImpl.invoke0(本机方法)
        在sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl。
Java的:62)
        在sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAcces
sorImpl.java:43)
        在java.lang.reflect.Method.invoke(Method.java:483)
        在org.apache.spark.repl.SparkIMain $ ReadEvalPrint.call(SparkIMain.scala:
1065)
        在org.apache.spark.repl.SparkIMain $ Request.loadAndRun(SparkIMain.scala:
1340)
        在org.apache.spark.repl.SparkIMain.loadAndRunReq $ 1(SparkIMain.scala:840

        在org.apache.spark.repl.SparkIMain.inter preT(SparkIMain.scala:871)
        在org.apache.spark.repl.SparkIMain.inter preT(SparkIMain.scala:819)
        在org.apache.spark.repl.SparkILoop.reallyInter preT $ 1(SparkILoop.scala:8
57)
        在org.apache.spark.repl.SparkILoop.inter pretStartingWith(SparkILoop.sca
LA:902)
        在org.apache.spark.repl.SparkILoop.command(SparkILoop.scala:814)
        在org.apache.spark.repl.SparkILoopInit $$ anonfun $ initializeSpark $ 1.适用
(SparkILoopInit.scala:132)
        在org.apache.spark.repl.SparkILoopInit $$ anonfun $ initializeSpark $ 1.适用
(SparkILoopInit.scala:124)
        在org.apache.spark.repl.SparkIMain.beQuietDuring(SparkIMain.scala:324)
        在org.apache.spark.repl.SparkILoopInit $ class.initializeSpark(SparkILoop
Init.scala:124)
        在org.apache.spark.repl.SparkILoop.initializeSpark(SparkILoop.scala:64)        在org.apache.spark.repl.SparkILoop $$ anonfun $ $组织阿帕奇$火花$ REPL $星火
ILOOP $$过程$ 1 $$ anonfun $ $应用$ MCZ SP $ 5.apply $ MCV $ SP(SparkILoop.scala:974)
        在org.apache.spark.repl.SparkILoopInit $ class.runThunks(SparkILoopInit.s
卡拉:159)
        在org.apache.spark.repl.SparkILoop.runThunks(SparkILoop.scala:64)
        在org.apache.spark.repl.SparkILoopInit $ class.postInitialization(SparkIL
oopInit.scala:108)
        在org.apache.spark.repl.SparkILoop.postInitialization(SparkILoop.scala:
64)
        在org.apache.spark.repl.SparkILoop $$ anonfun $ $组织阿帕奇$火花$ REPL $星火
ILOOP $$过程$ 1.适用$ MCZ $ SP(SparkILoop.scala:991)
        在org.apache.spark.repl.SparkILoop $$ anonfun $ $组织阿帕奇$火花$ REPL $星火
ILOOP $$过程$ 1.适用(SparkILoop.scala:945)
        在org.apache.spark.repl.SparkILoop $$ anonfun $ $组织阿帕奇$火花$ REPL $星火
ILOOP $$过程$ 1.适用(SparkILoop.scala:945)
        在scala.tools.nsc.util.ScalaClassLoader $ .savingContextLoader(ScalaClass
Loader.scala:135)
        在org.apache.spark.repl.SparkILoop.org $阿帕奇$火花$ REPL $ SparkILoop $$公关
ocess(SparkILoop.scala:945)
        在org.apache.spark.repl.SparkILoop.process(SparkILoop.scala:1059)
        在org.apache.spark.repl.Main $。主要(Main.scala:31)
        在org.apache.spark.repl.Main.main(Main.scala)
        在sun.reflect.NativeMethodAccessorImpl.invoke0(本机方法)
        在sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl。
Java的:62)
        在sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAcces
sorImpl.java:43)
        在java.lang.reflect.Method.invoke(Method.java:483)
        在org.apache.spark.deploy.SparkSubmit $ .ORG $阿帕奇$火花$ $部署SparkSub
麻省理工学院$$ runMain(SparkSubmit.scala:674)
        在org.apache.spark.deploy.SparkSubmit $ .doRunMain $ 1(SparkSubmit.scala:18
0)
        在org.apache.spark.deploy.SparkSubmit $ .submit(SparkSubmit.scala:205)
        在org.apache.spark.deploy.SparkSubmit $。主要(SparkSubmit.scala:120)
        在org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
显示java.lang.NullPointerException:产生的原因
        在java.lang.ProcessBuilder.start(ProcessBuilder.java:1012)
        在org.apache.hadoop.util.Shell.runCommand(Shell.java:445)
        在org.apache.hadoop.util.Shell.run(Shell.java:418)
        在org.apache.hadoop.util.Shell $ ShellCommandExecutor.execute(Shell.java:
650)
        在org.apache.hadoop.util.Shell.execCommand(Shell.java:739)
        在org.apache.hadoop.util.Shell.execCommand(Shell.java:722)
        在org.apache.hadoop.fs.FileUtil.execCommand(FileUtil.java:1097)
        在org.apache.hadoop.fs.RawLocalFileSystem $德precatedRawLocalFileStatus。
loadPermissionInfo(RawLocalFileSystem.java:559)
        在org.apache.hadoop.fs.RawLocalFileSystem $德precatedRawLocalFileStatus。
getPermission(RawLocalFileSystem.java:534)
        在org.apache.hadoop.hive.ql.session.SessionState.createRootHDFSDir(SESS
ionState.java:599)
        在org.apache.hadoop.hive.ql.session.SessionState.createSessionDirs(SESS
ionState.java:554)
        在org.apache.hadoop.hive.ql.session.SessionState.start(SessionState.jav
答:508)
        ... 56更多<&控制台GT;:10:错误:未找到:值sqlContext
       进口sqlContext.implicits._
              ^
<&控制台GT;:10:错误:未找到:值sqlContext
       进口sqlContext.sql
              ^


解决方案

有几个问题。你在Windows和东西都放在这个操作系统相比其他POSIX兼容的操作系统不同。

阅读文件运行的Hadoop,看看是否失踪WINUTILS.EXE是问题的开始。请确保您运行火花壳在控制台管理员权限。

您可能还需要阅读的答案了类似的问题为什么起动火花壳失败,NullPointerException异常在Windows?

此外,您可能已经开始火花壳子目录,因此像错误:

And the last issue:

One workaround is to set SPARK_LOCAL_HOSTNAME to some resolvable host name and be done with it.

  • SPARK_LOCAL_HOSTNAME is the custom host name that overrides any other candidates for hostname when driver, master, workers, and executors are created.

In your case, using spark-shell, just execute the following:

SPARK_LOCAL_HOSTNAME=localhost ./bin/spark-shell

You can also use:

./bin/spark-shell -c spark.driver.host=localhost

Refer also to Environment Variables in the official documentation of Spark.

这篇关于为什么起动火花壳失败,"我们找不到任何外部IP地址]按钮!;在Windows?的文章就介绍到这了,希望我们推荐的答案对大家有所帮助,也希望大家多多支持!

10-30 09:35