设为首页 加入收藏

TOP

Spark将数据压缩存储
2018-12-06 01:32:29 】 浏览:63
Tags:Spark 数据 压缩 存储
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u012307002/article/details/73650340

/tmp/dj/20170622.1498060818603为json数据
将数据压缩存储成parquet

val logs = spark.read.json("/tmp/dj/20170622.1498060818603")
//logs.coalesce(2).write.option("compression","gzip").json("/tmp/dj/json2")
logs.coalesce(2).write.parquet("/tmp/dj/parquet2")

读取parquet文件

val logs1 = spark.read.parquet("/tmp/dj/parquet2/*")
//now logs1 is DataFrame with some fields of previous json field 
】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇Spark SQL和Spark Streaming简介 下一篇Spark Streaming知识总结

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目