设为首页 加入收藏

TOP

Ubuntu16.05 下安装hadoop及伪分布式环境配置
2019-03-21 00:38:05 】 浏览:67
Tags:Ubuntu16.05 安装 hadoop 分布式 环境 配置

Ubuntu16.05 下安装hadoop及伪分布式环境配置

一、准备

1.打开ubuntu终端,创建hadoop用户

$ sudo useradd -m hadoop -s /bin/bash #创建hadoop用户,并使用/bin/bash作为shell

$ sudo passwd hadoop #为hadoop用户设置密码,之后需要连续输入两次密码

$ sudo adduser hadoop sudo #为hadoop用户增加管理员权限

$ su - hadoop #切换当前用户为用户hadoop

$ sudo apt-get update #更新hadoop用户的apt,方便后面的安装

2安装SSH,设置SSH无密码登陆

$ sudo apt-get install openssh-server #安装SSH server
$ ssh localhost #登陆SSH,第一次登陆输入yes
$ exit #退出登录的ssh localhost
$ cd ~/.ssh/ #如果没法进入该目录,执行一次ssh localhost
$ ssh-keygen -t rsa  

输入完 $ ssh-keygen -t rsa 语句以后,需要连续敲击三次回车,如下图:

https://images2017.cnblogs.com/blog/1139343/201709/1139343-20170928110119965-299294660.png

其中,第一次回车是让KEY存于默认位置,以方便后续的命令输入。第二次和第三次是确定passphrase,相关性不大。两次回车输入完毕以后,如果出现类似于下图所示的输出,即成功:

https://images2017.cnblogs.com/blog/1139343/201709/1139343-20170928110536840-777008126.jpg

之后再输入:

$ cat ./id_rsa.pub >> ./authorized_keys #加入授权
$ ssh localhost #此时已不需密码即可登录localhost,并可见下图。如果失败则可以搜索SSH免密码登录来寻求答案

二、安装jdk1.8

首先在oracle官网下载jdk1.8 https://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html 接下来进行安装与环境变量配置,根据个人电脑系统选择对应版本,我选的是jdk-8u201-linux-x64.tar.gz

如下图所示

下面进行jdk解压配置操作:

$ sudo mkdir /usr/lib/jvm #创建jvm文件夹
$ sudo tar zxvf jdk-8u201-linux-x64.tar.gz -C /usr/lib/jvm #/ 解压到/usr/lib/jvm目录下
$ cd /usr/lib/jvm #进入该目录
$ sudo mv jdk1.8.0_201 java #重命名为java
$ sudo vi ~/.bashrc #给JDK配置环境变量

注:其中如果权限不够,无法在相关目录下创建jvm文件夹,那么可以使用 $ sudo -i 语句进入root账户来创建文件夹。

另外推荐使用vim来编辑环境变量,即最后一句使用指令

$ sudo vim ~/.bashrc 

如果没有vim,可以使用:

$sudo apt-get install vim

来进行下载。

.bashrc文件添加如下指令:

export JAVA_HOME=/usr/lib/jvm/java
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH

如下图所示:

在文件修改完毕以后,输入代码:

$ source ~/.bashrc #使新配置的环境变量生效
$ java -version #检测是否安装成功,查看java版本

如果出现如下图所示的内容,即为安装成功

三、安装hadoop-2.9.2

先下载hadoop-2.9.2.tar.gz,链接如下:
http://archive.apache.org/dist/hadoop/core/stable/

如下图选择红框文件进行下载:

下面进行安装:

$ sudo tar -zxvf hadoop-2.9.2.tar.gz -C /usr/local #解压到/usr/local目录下
$ cd /usr/local
$ sudo mv hadoop-2.9.2 hadoop #重命名为hadoop
$ sudo chown -R hadoop ./hadoop #修改文件权限

hadoop配置环境变量,将下面代码添加到.bashrc文件:

export HADOOP_HOME=/usr/local/hadoop
export CLASSPATH=$($HADOOP_HOME/bin/hadoop classpath):$CLASSPATH
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

如下图所示

同样,执行source ~/.bashrc使设置生效,并查看hadoop是否安装成功,如下图所示:

四、伪分布式配置

Hadoop 可以在单节点上以伪分布式的方式运行,Hadoop 进程以分离的 Java 进程来运行,节点既作为 NameNode 也作为 DataNode,同时,读取的是 HDFS 中的文件。Hadoop 的配置文件位于 /usr/local/hadoop/etc/hadoop/ 中,伪分布式需要修改2个配置文件 core-site.xml hdfs-site.xml Hadoop的配置文件是 xml 格式,每个配置以声明 property name value 的方式来实现。首先将jdk1.8的路径(export JAVA_HOME=/usr/lib/jvm/java)(文档中一般已经设置好,不过还是需要核对下)添加到hadoop-env.sh文件

代码如下:

$ cd /usr/local/hadoop/etc/hadoop/ # 切换到配置文件目录
$ sudo vim hadoop-env.sh # 打开文件,查看添加路径

上述两种应该均可(不过,我注释了的那种方式,第一次没成功,修改成下一种后,后面就成功了。So,还是推荐我用的这种吧)。

接下来修改core-site.xml文件:

<configuration>

<property>

<name>hadoop.tmp.dir</name>

<value>file:/usr/local/hadoop/tmp</value>

<description>Abase for other temporary directories.</description>

</property>

<property>

<name>fs.defaultFS</name>

<value>hdfs://localhost:9000</value>

</property>

</configuration>

接下来修改配置文件 hdfs-site.xml

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.namenode.name.dir</name>

<value>file:/usr/local/hadoop/tmp/dfs/name</value>

</property>

<property>

<name>dfs.datanode.data.dir</name>

<value>file:/usr/local/hadoop/tmp/dfs/data</value>

</property>

</configuration>

Hadoop 的运行方式是由配置文件决定的(运行 Hadoop 时会读取配置文件),因此如果需要从伪分布式模式切换回非分布式模式,需要删除 core-site.xml 中的配置项。此外,伪分布式虽然只需要配置 fs.defaultFS dfs.replication 就可以运行(可参考官方教程),不过若没有配置 hadoop.tmp.dir 参数,则默认使用的临时目录为 /tmp/hadoo-hadoop,而这个目录在重启时有可能被系统清理掉,导致必须重新执行 format 才行。所以我们进行了设置,同时也指定 dfs.namenode.name.dir dfs.datanode.data.dir,否则在接下来的步骤中可能会出错。

配置完成后,执行 NameNode 的格式化

$ hdfs namenode –format # hadoop namenode –format 也可以

执行后,显示界面如下:

如上所示,不拉不拉一些信息,然后会有一次需要输入确认操作:Y or N ,输入Y,如下图所示:

启动namenodedatanode进程,并查看启动结果

$ start-dfs.sh
$ jps

启动完成后,可以通过命令 jps 来判断是否成功启动,若成功启动则会列出如下进程: “NameNode””DataNode” “SecondaryNameNode”

此时也有可能出现要求输入localhost密码的情况 ,如果此时明明输入的是正确的密码却仍无法登入,其原因是由于如果不输入用户名的时候默认的是root用户,但是安全期间ssh服务默认没有开root用户的ssh权限

输入代码:

$sudo vim /etc/ssh/sshd_config

检查PermitRootLogin 后面是否为yes,如果不是,则将该行代码 PermitRootLogin 后面的内容删除,改为yes,保存。之后输入下列代码重启SSH服务:

$sudo /etc/init.d/sshd restart

即可正常登入(免密码登录参考第一章)

成功启动后,可以访问 Web 界面http://localhost:50070查看 NameNode Datanode 信息,还可以在线查看 HDFS 中的文件。

至此,hadoop的安装就已经完成啦!

enjoy it

参考网址:https://www.cnblogs.com/87hbteo/p/7606012.html

】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇hadoop-1.2安装 下一篇黑猴子的家:如何选择Hadoop版本?

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目