,如图:
(4)下载并解压hadoop安装包
这个和jdk的操作基本一样,但是有一个一定注意的:在?了/usr/local 777权限把hadoop压缩包放到下面后,一定要降低权限改例如755,否则会因为权限过高而导致ssh无密码链接失败,报的错误是connect refuse ,port 22 XXXXX,至此已经完成了50%的工作了.
(5):前面的工作之后,我们要做就是配置好hadoop的各种配置文件,提供给大家一个博客,上面是对这些文件参数的配置说明
http://blog.csdn.net/yangjl38/article/details/7583374
a:跳转到此目录下cd usr/local/hadoop/etc/hadoop,然后你能看到在此目录下面有一堆的配置文件,我们要做的是配置其中的几个

b:配置好hadoop-evn.sh文件,这是它的环境变量配置,hadoop依赖jdk环境,所以问要在此文件中配置好jdk(java_home)的位置,如图:
?
namenode是hdfs的核心,所以在
(6):配置hadoop-env.sh文件

c:配置好core-site.xml

这个配置非常的重要:简单的说下里面的配置项:dfs.defult.name-value:主机的名字和对应的端口号,注意:真机集群一定要写上主机名或者对应的ip地址
hadoop.tmp.dir:存储名称节点的永久元数据的目录的列表.名称节点在列表中的每一个目录下都存储着元数据的副本,到时如果你不小心配置失败,请到此目录下面把对应的数据信息删除掉,然后重新配置
d:hdfs-site.xml,这个配置也非常的重要

前面的规定了有多少个节点在集群中(包括主节点)
dfs.permission:文件操作时的权限检查标识别
e:然后配置slaves,和master,这个比较简单:但是要注意的是slaves中必须要加入主机域名,不然最后会失败

f:配置好mapred-site.xml 这个也是非常的重要,在hadoop中的2大支柱,除了hdfs就是map-reduce
配置如图 : 
?
(7):配置好之后直接向各节点复制haoop
scp -r /usr/local/hadoop hadoop@slave01:/usr/local
在slave节点上,分别把得到的hadoop文件的权限分配给hadoop用户组的hadoop用户,执行如下命令
sudo chown -R hadoop:hadoop hadoop 这个非常的重要,不执行这个hadoop没有权限的话直接导致失败
(8):接下来格式化namenode
第一次启动hadoop集群需要对namenode进行格式化,执行命令:bin/hdfs namenode -format
10:启动hadoop
sbin/start-all.sh
如果搭建不成功则sbin/stop-all.sh关闭服务,清除tmp和你配置的存储数据的文件夹,清空后,然后在配置
11:用jps检验各后台进程是否成功启动
master节点的50070端口,显示活着的节点不是1的话,恭喜你们,成功了