设为首页 加入收藏

TOP

再探spark之一(复习之前)加spark如何实现远程调试代码
2018-11-13 11:47:49 】 浏览:44
Tags:再探 spark 之一 复习 之前 如何 实现 远程 调试 代码
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/yewakui2253/article/details/80324577

Scala的 练习https://blog.csdn.net/yewakui2253/article/details/80022403

alt+p可以用来上传东西仅限于secureCRT

然后put F:\Users\Administrator\WorkspacesIDEA\scalaMaven\target\scalaMaven-1.0.jar就可以将东西传到Linux上了

没启动spark的话。

可以通过 sbin/start-all.sh 来启动spark

按crtl+c来终止任务,而不是ctrl+z

spark-shell --master spark://192.168.235.128:7077 连接到spark上

spark-shell --master spark://192.168.235.128:7077 --total-executor-cores 3 调整任务用核的数量

spark-shell --master spark://192.168.235.128:7077 --executor-memory 2g 用2g运行内存

spark-submit --master spark://192.168.235.128:7077 --class org.apache.spark.examples.SparkPi /export/servers/spark-2.1.0-bin-hadoop2.7/examples/jars/spark-examples_2.11-2.1.0.jar 100 用来运行spark-submit任务



远程调试代码如下

package com.wxa.spark.one

import org.apache.spark.{SparkConf, SparkContext}

/**
  * Created by root on 2016/5/14.
  * 远程调试的方法
  */
object WordCount {
  def main(args: Array[String]) {
    //非常重要,是通向Spark集群的入口
    val conf = new SparkConf().setAppName("WC").
      setJars(Array("F:\\Users\\Administrator\\WorkspacesIDEA\\scalaMaven\\target\\scalaMaven-1.0.jar"))
        .setMaster("spark://hadoop01:7077")

    val sc = new SparkContext(conf)

    //textFile会产生两个RDD:HadoopRDD  -> MapPartitinsRDD
    sc.textFile(args(0)).cache()
      // 产生一个RDD :MapPartitinsRDD
      .flatMap(_.split(" "))
      //产生一个RDD MapPartitionsRDD
      .map((_, 1))
      //产生一个RDD ShuffledRDD
      .reduceByKey(_+_)
      //产生一个RDD: mapPartitions
      .saveAsTextFile(args(1))
    sc.stop()
  }
}

】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇spark与shark的安装 下一篇spark集群与spark HA高可用快速部..

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目