设为首页 加入收藏

TOP

Spark 运行模式 standalong & yarn
2018-12-06 17:27:01 】 浏览:90
Tags:Spark 运行 模式 standalong yarn
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/haohaixingyun/article/details/52337258
standalong 模式需要在spark master 节点上启动 spark/sbin/start-all.sh
主从节点都可以run
standalong client
./bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://bigdatastorm:7077 --driver-memory 512m --executor-memory 512m --total-executor-cores 1 ./lib/spark-examples-1.6.0-hadoop2.6.0.jar 100
standalong cluster
./bin/spark-submit --class org.apache.spark.examples.SparkPi --master spark://bigdatastorm:7077 --deploy-mode cluster --driver-memory 512m --executor-memory 512m --total-executor-cores 1 ./lib/spark-examples-1.6.0-hadoop2.6.0.jar 100
yarn 模式需要启动yarn
主从节点都可以run
yarn client
./bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn --deploy-mode client --driver-memory 512m --executor-memory 512m --total-executor-cores 1 ./lib/spark-examples-1.6.0-hadoop2.6.0.jar 100
yarn cluster
./bin/spark-submit --class org.apache.spark.examples.SparkPi --master yarn --deploy-mode cluster --driver-memory 512m --executor-memory 512m --total-executor-cores 1 ./lib/spark-examples-1.6.0-hadoop2.6.0.jar 100

================================================
standalong 模式需要在/opt/spark-1.6.0/conf 配置 slaves 和 spark-env.sh ,slaves 配置work 节点
spark-env.sh 配置
export SPARK_MASTER_IP=bigdatastorm
export SPARK_MASTER_PORT=7077
export SPARK_WORKER_CORES=1
export SPARK_WORKER_INSTANCES=1
export SPARK_WORKER_MEMORY=512m
export SPARK_LOCAL_DIRS=/data/spark/dataSparkDir

yarn 模式下需要额外配置
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

更重要的是需要配置Scala 了 ,并设置环境变量




】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇IBM专家亲自解读 Spark2.0 操作指.. 下一篇spark集群搭建与集群上运行wordco..

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目