设为首页 加入收藏

TOP

sparksql读取hive中的数据保存到hdfs中
2019-05-12 00:20:55 】 浏览:114
Tags:sparksql 读取 hive 数据 保存 hdfs
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u012719230/article/details/82492745
package wondersgroup_0905_Test

import org.apache.spark.sql.SparkSession

object sparkHive {
  def main(args: Array[String]): Unit = {
    //数据库名称
    val database ="hivetest"
    //表名称
    val table = "tb_his_zy_fee_detail"
    //hive warehouse在hdfs上的存储目录
    val warehouse = "/user/hive/warehouse"

    val path = "/user/hdfs/test/hivespark"
    val spark = SparkSession
      .builder()
      .appName("Spark Hive Example")
      .config("spark.sql.warehouse.dir", warehouse)
      .enableHiveSupport()
      .getOrCreate()

    val sql="select * from hivetest.tb_his_zy_fee_detail where tb_his_zy_fee_detail."

    val data=spark.sql(sql)
    //显示查询结果
    data.show
    //将结果保存只HDFS
    data.coalesce(1).write.save(path)
    spark.stop()
  }
}
】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇利用SQOOP将数据从数据库导入到HD.. 下一篇【Hadoop】集群之外的机器如何连..

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目