设为首页 加入收藏

TOP

Spark学习(1)- 入门
2019-03-21 01:08:26 】 浏览:58
Tags:Spark 学习 入门

目录:

  1. Spark简介
  2. Spark特点
  3. Spark环境搭建
  4. Spark简单使用
  5. idea创建sprak项目
  6. Spark运行模式
  7. Spark基础架构

一.Spark简介

1.官网:http://spark.apache.org/

2.

3.

二.Spark特点

三.Spark环境搭建

安装步骤:

  1. 安装的spark版本为 spark-1.6.0,根据文档搭建spark运行环境

  2. 搭建Spark开发环境:提前安装Java 7+、Hadoop 2.6.0+ 、Python 2.6+ 、Scala 2.10.x,版本如
    1. 安装Java:Linux下安装Java(JDK8)
    2. 安装Hadoop:hadoop-2.7.3的安装
    3. 安装Python:http://www.runoob.com/python/python-install.html
    4. 安装Scala:linux下安装scala
  3. 下载Spark-1.6.0:官网下载链接
  4. 上传
  5. 解压
  6. 配置环境变量
  7. 修改配置文件
    第一步:在conf目录下复制并重命名 spark-env.sh.template 为spark-env.sh
    执行:
    cp spark-env.sh.template spark-env.sh
    vim spark-env.sh

    第二步:在spark-env.sh中添加
  8. export JAVA_HOME=/home/jdk1.7.0_80
    SPARK_MASTER_IP=localhost
    SPARK_WORKER_MEMOR=1G
  9. 启动和测试
    启动:因为提前了安装了hadoop,而hadoop的启动命令也是start-all.sh,所以进入spark的安装目录下/sbin/start-all.sh下执行

    验证是否可以web访问:
    crul http://192.168.200.10:8080/

四.Spark简单使用


使用:

  1. 创建hello.txt文件,并写入内容

  2. 使用Spark - shell
  3. 测试

五.idea创建sprak项目



简要步骤:

说明:

六.Spark运行模式

七.Spark基础架构

】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇Scala   WordCount 下一篇Spark运行架构

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目