设为首页 加入收藏

TOP

MAC Spark安装和环境变量设置
2019-02-17 13:18:12 】 浏览:248
Tags:MAC Spark 安装 环境 变量 设置

本文使用的是Spark和python结合Spark的API组件pyspark
安装Spark之前确保已有JDK环境和python环境(本文为JDK1.8.0_60和python3.6.5)

Spark安装

1.官网下载spark
本文下载版本是spark-2.3.0-bin-hadoop2.7.tgz
2.安装spark到/usr/local/
terminal中定位到spark-2.3.0-bin-hadoop2.7.tgz目录,移动spark-2.3.0-bin-hadoop2.7.tgz到/usr/local

rm spark-2.3.0-bin-hadoop2.7.tgz /usr/local

解压缩spark-2.3.0-bin-hadoop2.7.tgz

tar -zvxf spark-2.3.0-bin-hadoop2.7.tgz(若要改名,再添加一个变量为你想改动的名字,本文未改动)

3.安装pyspark(本文使用python3,且mac自带python 2.7)

pip3 install pyspark

4.设置环境变量
打开~/.bash_profile

vim ~/.bash_profile

添加

export SPARK_HOME=/usr/local/spark-2.3.0-bin-hadoop2.7
export PATH=$PATH:$SPARK_HOME/bin

使环境变量生效

source ~/.bash_profile

5.在terminal中输入

pyspark

就会出现如下界面了


10416555-bbf1c60ca8f325a1.png
pyspark交互界面

此时,Spark和pyspark都安装好了

结合Jupyter使用和python版本的冲突请戳此处

转载请注明出处

】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇Spark Streaming并发提交job 下一篇Spark安装和部署

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目