设为首页 加入收藏

TOP

hive读取与flume写入hdfs文件冲突
2018-11-30 00:19:01 】 浏览:108
Tags:hive 读取 flume 写入 hdfs 文件 冲突

可以阅读http://www.aboutyun.com/thread-11252-1-1.html参考

前提:用flume采集数据,sink配置hdfs输出,然后用hive时时查询计算,定期转存数据到历史表。

1、问题一:hive查询时与flume滚动文件冲突

hive查询时包含flume的临时文件(后缀tmp文件),当flume把临时文件滚动成正式文件时,会删掉临时文件,生成正式文件,此时hive查询处理时会报错:file not fond

解决思路:由于hive查询时不会查询以.和_开头的hdfs文件,所以把flume的临时文件生成规则改成前缀是.或_的格式。

1、问题二:hive转存到历史表时使用inster into overwrite语句,可能会把临时文件给删除掉

转存时hive操作把昨日之前数据转存到历史表,并从时时表数据中删除昨日之前数据

解决思路:验证后补充

】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇SparkStreaming实现HDFS的wordCou.. 下一篇HDFS查看文件的前几行-后几行-行数

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目