1.安装hadoop
1)进入usr目录
新建hadoop目录
mkdir hadoop
解压hadoop-0.20.203.0rc1.tar.gz到hadoop目录
tar -zxvf hadoop-0.20.203.0rc1.tar.gz
2.配置 hadoop-env.sh
1)在hadoop/conf 里面hadoop-env.sh增加 java的JAVA_HOME环境配置和HADOOP_HOME和PATH环境配置。注意HADOOP_HOME一定不能少。
export JAVA_HOME=/usr/jdk1.7.0
export HADOOP_HOME=/usr/hadoop/hadoop-0.20.203.0
export PATH=$PATH:$HADOOP_HOME/bin
并将
export HADOOP_HOME=/usr/hadoop/hadoop-0.20.203.0
export PATH=$PATH:$HADOOP_HOME/bin
再加到/etc/profile中
3.修改 /usr/hadoop/hadoop-0.20.203.0/conf/目录下的配置文件core-site.xml 、hdfs-site.xml和mapred-site.xml
1)编辑 core-site.xml
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/tmp/hadoop/hadoop-${user.name}</value>
</property>
</configuration>
2)编辑hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
3)编辑mapred-site.xml
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuration>
4.格式化HDFS
cd /usr/hadoop/hadoop-0.20.203.0
source conf/hadoop-env.sh
hadoop namenode -format
提示信息一大堆...
5.启动hadoop
./start-all.sh
然后验证hadoop是否正常启动
jps
(此语句执行后会列出已启动的东西NameNode,JobTracker,SecondaryNameNode...如果NameNode没有成功启动的话就要先执行"bin/stop-all.sh"停掉所有东西,然后重新格式化namenode,再启动)
8.完成后的测试
Java代码
http://localhost:50030/ - Hadoop 管理接口