HDFS三个进程启动都以xxxxxxxx启动:
以我自己的机器名称为例:
HDFS三个进程启动以hadoop001启动:etc/hadoop目录下设置
之前在部署hdfs时候修改了core-site.xml文件slaves文件
(1)在core-site.xml文件中修改fs.defaultFS参数为hadoop001,使NameNode进程以hadoop001启动。
(2)在slaves文件中将localhost改为hadoop001,使DataNode进程以hadoop001启动。
(3)SecondaryNameNode进程默认是0.0.0.0:0启动,我们就值需修改SecondaryNameNode进程
首先在官网hdfs组件服务hdfs-default.xml找dfs.namenode.secondary.http-address和dfs.namenode.secondary.https-address,查看并复制
进入到hdfs-site .xml文件
[hadoop@hadoop001 hadoop-2.6.0-cdh5.7.0]$ vi hdfs-site .xml
因为之前hdfs-site .xml文件也是修改过的,不能删掉任何内容,只需要在最后一个 </ configuration>前面添加以下内容:
< property>
< name>dfs.namenode.secondary.http-address</ name>
< value>hadoop001:50090</ value>
</ property>
< property>
< name>dfs.namenode.secondary.https-address</ name>
< value>hadoop001:50091</ value>
</ property>
之后重启hdfs:可以看到SecondaryNameNode是由启动的:
[hadoop@hadoop001 hadoop-2.6.0-cdh5.7.0]$ sbin/start-dfs.sh
因为我在设置之前没有关掉hdfs,所以重启时NameNode和DataNode是已经在运行状态!
over✌
----------------------------------------------------------未完待续----------------------------------------------