学校的机房,每重启一次就会将虚拟机的某些配置还原到部署到学生机时候的状态(例如、etc/hosts文件中ip与主机名的映射),这个时候与我们前面所部署的hadoop就会产生IP不对应的状态,导致了hadoop不管怎么启动都只是有四个节点,dataonde节点怎么都启动不成功,经历了n多次以后,才发现,在 /etc/hosts 文件下的ip并不是当前配置的ip地址,我们将/etc/hosts 中ip与主机名的映射 中的ip修改为当前的ip地址。这个是第一步。
然后我们到hadoop安装的根目录下的etc/hadoop/去编辑core-site.xml文件,将里面的ip地址改为我们当前的ip,记住保存退出。
下来我们在将hadoop的data存储路径干掉,我的是在/home/data/tmp/dfs目录下,所以我们rm -rf 他。再到hadoop的根目录下的bin目录去执行hdfs格式化命令去重新格式化hdfs,
格式化成功后在重新启动hadoop,此时就会发现有五个节点。

11-01 09:50