设为首页 加入收藏

TOP

Spark Client部署
2018-11-23 01:28:40 】 浏览:50
Tags:Spark Client 部署
版权声明:本文为博主原创文章,未经博主允许随便转载。(你喜欢就好) https://blog.csdn.net/hotdust/article/details/61615722

1,参考文章(【Spark】Spark的Standalone模式安装部署)进行Spark Client部署时,要注意一点:

如果你在spark-env.sh里设置了JAVA_HOME的话,需要在把spark文件夹拷贝到本地后,修改一下JAVA_HOME,改成你本机的相对应的JAVA_HOME。

2,在client电脑上以“cluster”模式提交任务时,注意要把提交的Jar包放到一个所有Master和Slave都能访问到的地方,例如:hadoop上(hdfs://hadoop-ip:9000/test/spark/wordcount/jar/spark_word_count.jar)

】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇Spark SQL 实现 group_concat 下一篇spark入门教程及经验总结

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目