设为首页 加入收藏

TOP

基于redhat 7.3的hadoop集群安装
2019-03-19 12:24:06 】 浏览:56
Tags:基于 redhat 7.3 hadoop 集群 安装

基于redhat 7.3的hadoop集群安装
hadoop-2.7.7
jdk1.8.0_121

创建用户hadoop
创建一个用户,名为hadoop。
vim /etc/sudoers
在 root ALL=(ALL) ALL下面加上
hadoop ALL=(ALL) ALL 使。Hadoop用户拥有root权限
在这里插入图片描述
在相关网站上下载Hadoop与jdk
切换到hadoop用户
用ifconfig查看机器的名字
在这里插入图片描述
Sudo vi /etc/sysconfig/network-scripts/ifcfg-ens33(ens33为机器名)
输入登入密码
修改网络配置文件,将BOOTPROTO值修改为”static”
在最后面加上以下网络配置
IPADDR=192.168.60.130 IP地址,130为自己设定的,前面的和网关前面相同
GATEWAY=192.168.60.2 网关
NETMASK=255.255.255.0
DNS1=101.226.4.6
在这里插入图片描述
重新启动网络服务 service network restart
在这里插入图片描述
ping www.baidu.com 在虚拟机联网的情况下,测试网络配置是否成功
在这里插入图片描述
sudo Vi /etc/hostname 修改主机名称为master
在这里插入图片描述
sudo vim /etc/hosts
向这个hosts文件追加三行 ,格式为 Ip地址 主机名 ,方便linux 系统之间进行通信
192.168.60.130 master
192.168.60.131 slave1
192.168.60.132 slave2
在这里插入图片描述
完成之后重启。输入reboot

解压jdk和hadoop
cd /usr/soft/
sudo tar -zxvf hadoop-2.7.7.tar.gz
在这里插入图片描述
sudo tar -zxvf jdk-8u121-linux-x64.gz
在这里插入图片描述
cd /usr/soft/hadoop-2.7.7/etc/hadoop/
sudo vi hadoop-env.sh

按如图下修改配置
#The java implementation to use
export JAVA_HOME=/usr/soft/jdk1.8.0_121
在这里插入图片描述
sudo vi yarn-env.sh

#export JAVA_HOME=/home/y/libexec/jdk1.6.0/
if [ “$JAVA_HOME” != “” ]; then
#echo “run java in $JAVA_HOME”
JAVA_HOME=/usr/soft/jdk1.8.0_121
在这里插入图片描述
sudo vi slaves

删除locallhsot
填入:slave1
slave2
sudo vi core-site.xml

fs.defaultFS
hdfs://master:9000


hadoop.tmp.dir
file:/usr/soft/ hadoop-2.7.7/temp/

在这里插入图片描述

sudo vi hdfs-site.xml

dfs.namenode.secondary.http-address master:50090 dfs.namenode.name.dir file:/usr/soft/hadoop-2.7.7/dfs/name dfs.datanode.data.dir file:/usr/soft/hadoop-2.7.7/dfs/data dfs.replication 2 dfs.webhdfs.enabled true ![在这里插入图片描述](https://img-blog.csdnimg.cn/20190317151018107.x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzQxNDU5MDAw,size_16,color_FFFFFF,t_70) cp mapred-site.xml.template mapred-site.xml

sudo vi mapred-site.xml

mapreduce.framework.name yarn mapreduce.jobhistory.address master:10020 mapreduce.jobhistory.webapp.address master:19888 ![在这里插入图片描述](https://img-blog.csdnimg.cn/20190317151116532.) sudo vi yarn-site.xml yarn.resourcemanager.hostname master yarn.nodemanager.aux-services mapreduce_shuffle ![在这里插入图片描述](https://img-blog.csdnimg.cn/20190317151124916.) 在master节点上创建以下文件夹

sudo mkdir -p dfs/data
sudo mkdir -p dfs/name
sudo mkdir temp
在这里插入图片描述
sudo cd /root
sudo vi ~/.bashrc

export JAVA_HOME=/usr/soft/jdk1.8.0_121
export PATH=PATH:PATH:JAVA_HOME/bin
export HADOOP_HOME=/usr/soft/hadoop-2.7.7
export PATH=PATH:PATH:HADOOP_HOME/bin:$HADOOP_HOME/sbin
在这里插入图片描述
source ~/.bashrc

进行克隆
在这里插入图片描述
将克隆后的节点修改网络配置
sudo vi /etc/sysconfig/network-scripts/ifcfg-ens33
IPADDR=192.168.60.131(slave1)
IPADDR=192.168.60.132(slave2)
service network restart 重启网络服务

将克隆后的节点修改名称 sudo Vi /etc/hostname
分别修改为slave1和slave2

重启节点slave1与slave2 reboot
配置免密登入
ssh localhost (三个节点都要输入
在这里插入图片描述
cd ~/.ssh/ (三个节点都要输入
ssh-keygen -t rsa (一路回车(三个节点都要输入,
在这里插入图片描述
cat id_rsa.pub >> authorized_keys (只需要在一个节点)

chmod 600 authorized_keys

在另外两个节点上输入cat id_rsa.pub 复制密匙到这个节点的authorized_keys
在这里插入图片描述
在节点上输入 vi authorized_keys
在这里插入图片描述
将此节点的authorized_keys复制到其他的节点上
scp authorized_keys hadoop@slave1:~/.ssh/
scp authorized_keys hadoop@slave2:~/.ssh/
在这里插入图片描述
永久关闭防火墙命令。重启后,防火墙不会自动启动。 systemctl disable firewalld
另外,下面的只作为拓展
查看防火墙状态。systemctl status firewalld
临时关闭防火墙命令。重启电脑后,防火墙自动起来。systemctl stop firewalld
打开防火墙命令。systemctl enable firewalld
在这里插入图片描述
hdfs namenode -format
在这里插入图片描述
start-all.sh
在这里插入图片描述
Jps

master
slave1

】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇结合案例讲解MapReduce重要知识点.. 下一篇Hadoop 2.7.2   linux分布..

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目