一、问题出现的原因
启动Hadoop分布式环境时出现主节点的namenode、secondarynamenode启动成功,但是Worker节点datenode启动不成功。
hadoop@master$ ${HADOOP_HOME}/sbin/start.dfs.sh
查看Worker的输出日志,显示如下:
[root@hadoop02 ~]# vim /opt/hadoop/logs/hadoop-root-datanode-hadoop02.log
解决方法:
(1)检查网络问题。
此次问题出现原因是由于本人切换至公司外网,导致网络请求失败。
(2)检查/etc/hosts文件的配置是否有问题。
在hosts文件中删除多余的IP与主机名的对应关系(之前貌似也是ipc通信不成功,然后删除了127.0.0.1和0.0.0.1)之后就成为了如下的样子:
最后,重启HDFS:sbin/start-dsf.sh即可。