设为首页 加入收藏

TOP

HDFS三进程启动IP更改教程
2019-04-22 00:18:43 】 浏览:50
Tags:HDFS 进程 启动 更改 教程
版权声明: https://blog.csdn.net/qq_25302531/article/details/80550504

HDFS启动后会有三个进程,在官网默认配置时,只有Namenode的更改方式如下图所示,更改localhost为指定IP即可完成对Namenode启动ip的更改。


但关于Datenode和Secondarynamenode启动ip的更改,官网并没有给出,在启动过程也是以默认进程启动,如下图所示。(0.0.0.0代表当前机器ip)


以下内容来详细讲解Datenode和Secondarynamenode启动ip的更改。

1、进入hadoop配置文件文件夹etc


由于HDFS的架构模式为主/从架构,故更改slaves文件,即可完成对Datenode启动ip的更改。

2、更改Datenode启动节点

vi slaves

如上所示,更改为所需ip地址即可。

3、更改Secondarynamenode启动节点

查看官网关于默认配置的设置。http://hadoop.apache.org/docs/r2.8.4/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml


查询Secondarynamenode,如下图所示,就是我们需要配置的文件信息,因为是HDFS进程,故进入HDFS配置文件更改即可。


vi etc/hadoop/hdfs-site.xml
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>192.168.233.111:50090</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.https-address</name>
        <value>192.168.233.111:50091</value>
    </property>
</configuration>

重启HDFS,如下图表示更改成功(我主机更改的是主机hadoop01对应的192.168.233.111地址)


】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇大数据入门教程系列之HDFS分布式.. 下一篇storm(07)——storm与hdfs的整合

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目