一、Java安装
?
1、安装包准备:
?
首先到官网
下载jdk,http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html,我下载jdk-7u79-linux-x64.tar.gz,下载到主目录
?
2、解压安装包
?
通过终端在/usr/local目录下新建java文件夹,命令行:
?
sudo mkdir /usr/local/java
?
然后将下载到压缩包拷贝到java文件夹中,命令行:
?
进入jdk压缩包所在目录
?
cp jdk-7u79-linux-x64.tar.gz /usr/local/java
?
然后进入java目录,命令行:
?
cd /usr/local/java
?
解压压缩包,命令行:
?
sudo tar xvf jdk-7u79-linux-x64.tar.gz
?
然后可以把压缩包删除,命令行:
?
sudo rm jdk-7u79-linux-x64.tar.gz
?
3、设置jdk环境变量
?
这里采用全局设置方法,就是修改etc/profile,它是是所有用户的共用的环境变量
?
sudo vi /etc/profile
?
打开之后在末尾添加
?
export JAVA_HOME=/usr/local/java/jdk1.7.0_79
export JRE_HOME=/usr/local/java/jdk1.7.0_79/jre
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib:$CLASSPATH
export PATH=$JAVA_HOME/bin: $PATH
?
使profile生效
?
source /etc/profile
?
4、检验是否安装成功
?
在终端
?
java -version
?
显示如下
?
java version "1.7.0_79"
Java(TM) SE Runtime Environment (build 1.7.0_79-b15)
Java HotSpot(TM) 64-Bit Server VM (build 24.79-b02, mixed mode)
?
PS:后来发现直接rpm包jdk-7u79-linux-x64.rpm桌面双击安装也OK,^_^
?
二、scala2.11.4安装
?
1、安装包准备:
?
首先到官网下载scala,http://www.scala-lang.org/,下载scala-2.11.4.tgz,并复制到/usr/bib
?
2、解压安装包
?
tar -zxf scala-2.11.4.tgz
?
3、设置scala环境变量
?
这里采用全局设置方法,就是修改etc/profile,它是是所有用户的共用的环境变量
?
sudo vi /etc/profile
?
打开之后在末尾添加
?
export SCALA_HOME=/usr/lib/scala-2.11.4
export PATH=$SCALA_HOME/bin:$PATH
?
使profile生效
?
source /etc/profile
?
4、检验是否安装成功
?
在终端
?
scala -version
?
显示如下
?
Scala code runner version 2.11.4 -- Copyright 2002-2013, LAMP/EPFL
?
三、hadoop2.3安装
?
1、安装包准备:
?
hadoop版本有点混乱,除了http://hadoop.apache.org/有众多版本之外,还有Cloudera公司的CDH版本,请从观望下载hadoop-2.3.0.tar.gz或者下载CDH版本hadoop-2.3.0-cdh5.0.0.tar.gz,本文环境是在hadoop-2.3.0-cdh5.0.0.tar.gz之上建立。
?
2、解压安装包
?
下载安装包之后复制到/usr目录。
?
tar -zxf hadoop-2.3.0-cdh5.0.0.tar.gz
解压后生成hadoop-2.3.0-cdh5.0.0,重命名为hadoop-2.3.0。
?
3、配置环境
?
这里采用全局设置方法,就是修改etc/profile,它是是所有用户的共用的环境变量
?
sudo vi /etc/profile
?
打开之后在末尾添加
?
export HADOOP_HOME=/home/zero/hadoop/hadoop-2.3.0
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
使profile生效
?
source /etc/profile
?
3、建立hadoop用户
?
useradd hadoop
?
passwd hadoop
?
3、配置SSH免登录
?
su ?hadoop ?//切换到hadoop用户目录下
?
ssh-keygen-t rsa(一路回车 生成密钥)
?
cd/home/hadoop/.ssh/
?
scp ?id_rsa.pub hadoop@slave1:/home/hadoop/.ssh/
?
mv id_rsa.pub authorized_keys
?
四、spark1.3.1安装
?
1、安装包准备:
?
spark官网下载spark-1.3.1-bin-hadoop2.3.tgz。
?
2、解压安装包
?
下载安装包之后复制到/usr目录。
?
tar -zxf spark-1.3.1-bin-hadoop2.3.tgz
?
解压后生成spark-1.3.1-bin-hadoop2.3,重命名为spark-1.3.1-hadoop2.3。
?
3、配置环境
?
这里采用全局设置方法,就是修改etc/profile,它是是所有用户的共用的环境变量
?
sudo vi /etc/profile
?
打开之后在末尾添加
?
export SPARK_HOME=/usr/spark-1.3.1-hadoop2.3
export PATH=$SPARK_HOME/bin:$PATH
?
使profile生效
?
source /etc/profile
?
4、配置环境
?
这里采用全局设置方法,就是修改etc/profile,它是是所有用户