版权声明: https://blog.csdn.net/qq_25302531/article/details/80550504
HDFS启动后会有三个进程,在官网默认配置时,只有Namenode的更改方式如下图所示,更改localhost为指定IP即可完成对Namenode启动ip的更改。
但关于Datenode和Secondarynamenode启动ip的更改,官网并没有给出,在启动过程也是以默认进程启动,如下图所示。(0.0.0.0代表当前机器ip)
以下内容来详细讲解Datenode和Secondarynamenode启动ip的更改。
1、进入hadoop配置文件文件夹etc
由于HDFS的架构模式为主/从架构,故更改slaves文件,即可完成对Datenode启动ip的更改。
2、更改Datenode启动节点
vi slaves
如上所示,更改为所需ip地址即可。
3、更改Secondarynamenode启动节点
查看官网关于默认配置的设置。http://hadoop.apache.org/docs/r2.8.4/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml
查询Secondarynamenode,如下图所示,就是我们需要配置的文件信息,因为是HDFS进程,故进入HDFS配置文件更改即可。
vi etc/hadoop/hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.namenode.secondary.http-address</name>
<value>192.168.233.111:50090</value>
</property>
<property>
<name>dfs.namenode.secondary.https-address</name>
<value>192.168.233.111:50091</value>
</property>
</configuration>
重启HDFS,如下图表示更改成功(我主机更改的是主机hadoop01对应的192.168.233.111地址)