设为首页 加入收藏

TOP

SPARK的安装与部署
2018-11-21 16:24:39 】 浏览:36
Tags:SPARK 安装 部署

Spark 1.6.0 单机安装配置

一、 约束条件如下

Spark runs on Java7+, Python 2.6+ and R 3.1+. For the Scala API, Spark 1.6.0 uses Scala 2.10. Youwill need to use a compatible Scala version (2.10.x).

Spark 1.6 + Scala 2.10

二、依赖安装

1、JDK 1.8+ (前置安装)

2、HADOOP 2.6.0+(前置安装)

3、SCALA 2.10.+

http://downloads.lightbend.com/scala/2.10.6/scala-2.10.6.tgz

4、Spark -1.6.0 –bin-Hadoop

http://d3kbcqa49mib13.cloudfront.net/spark-1.6.3-bin-hadoop2.6.tgz

三、依赖安装

n 配置ssh localhost

确保已经安装openssh-server

yum –y install openssh-server

n 无密码登陆配置

ssh-keygen -t rsa

cat~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

如果已经生成过密钥,只需执行后两行命令。测试ssh localhost

四、安装scala

n 解压scala安装包到任意目录:

cd /opt/scala

tar -xzvfscala-2.10.6.tgz

n 编辑环境变量

vim /etc/profile

exportSCALA_HOME=/home/tom/scala-2.10.6

exportPATH=$SCALA_HOME/bin:$PATH

n 使环境变量生效

source/etc/profile

n 查看是否成功:

scala -version

五、安装SPARK

n 解压spark安装包到任意目录:

cd /opt/spark

tar -xzvfspark-1.6.0-bin-hadoop2.6.tgz

mvspark-1.6.0-bin-hadoop2.6 spark-1.6.0

vim /etc/profile

n 在 /etc/profile 文件的末尾添加环境变量:

exportSPARK_HOME=/opt/spark

exportPATH=$SPARK_HOME/bin:$PATH

n 保存并更新 /etc/profile :

source/etc/profile

六、配置SPARK

n 在conf目录下复制并重命名 spark-env.sh.template 为 spark-env.sh :

cpspark-env.sh.template spark-env.sh

vim spark-env.sh

n 在 spark-env.sh 中添加:

export JAVA_HOME=/opt/jdk1.8/

exportSPARK_MASTER_IP=localhost

exportSPARK_WORKER_MEMORY=1G

七、启动与测试SPARK

n 启动

$SPARK_HOME/sbin/start-all.sh

n 测试Spark是否安装成功:

$SPARK_HOME/bin/run-exampleSparkPi

n 得到结果:

Pi is roughly 3.14716

n 检查页面: 是否安装成功

http://localhost :8080

感谢科多大数据的同学们做的这个总结,分享给大家

Spark 1.6.0分布式安装配置

一、*配置解释:

JAVA_HOME 指定 Java 安装目录;

SCALA_HOME 指定 Scala 安装目录;

SPARK_MASTER_IP 指定 Spark 集群 Master 节点的 IP 地址;

SPARK_WORKER_MEMORY 指定的是 Worker 节点能够分配给Executors 的最大内存大小;

#HADOOP_CONF_DIR 指定 Hadoop 集群配置文件目录。

二、基于单机集群:

一、主节点配置:

1, 添加配置到 spark-env.sh文件

export HADOOP_CONF_DIR=/opt/hadoop/etc/hadoop

2, slaves.template 拷贝到 slaves编辑其内容为:

hadoop1

hadoop2

hadoop3

(不同机器名的,记得更改)

二、从节点配置

拷贝主节点配置到其他节点,并且修改环境变量

三、启动集群

1) 启动 Master 节点

运行 start-master.sh

2) 启动 Slave 节点

运行 start-slaves.sh

四、验证集群

通过 8080端口能够看到 worker数量为 3



】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇spark的standalone模式部署 下一篇Livy : A REST Interface for Apa..

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目