设为首页 加入收藏

TOP

flume ----采集 目录到 到 HDFS
2019-02-08 12:19:13 】 浏览:17
Tags:flume ---- 采集 目录 HDFS

案例:采集 目录到 到 HDFS

采集需求:某服务器的某特定目录下,会不断产生新的文件,每当有新文件出现,就需要把文件采集到 HDFS 中去。

根据需求,首先定义以下 3 大要素:

数据源组件,即 source ——监控文件目录 : spooldir

spooldir 特性:
1、监视一个目录,只要目录中出现新文件,就会采集文件中的内容
2、采集完成的文件,会被 agent 自动添加一个后缀:.COMPLETED
3、所监视的目录中不允许重复出现相同文件名的文件
下沉组件,即 sink——HDFS 文件系:hdfs sink

通道组件,即 channel——可用 file channel 也可以用内存 channel。

配置文件编写:spooldir-hdfs.properties

#定义三大组件的名称
agent1.sources = source1
agent1.sinks = sink1
agent1.channels = channel1
# 配置 source 组件
agent1.sources.source1.type = spooldir
agent1.sources.source1.spoolDir = /home/cry/cry_logs/
agent1.sources.source1.fileHeader = false
#配置拦截器
agent1.sources.source1.interceptors = i1
agent1.sources.source1.interceptors.i1.type = host
agent1.sources.source1.interceptors.i1.hostHeader = hostname
# 配置 sink 组件
agent1.sinks.sink1.type = hdfs
agent1.sinks.sink1.hdfs.path=hdfs://bd1803/flume_log/%y-%m-%d/%H-%M
agent1.sinks.sink1.hdfs.filePrefix = events
agent1.sinks.sink1.hdfs.maxOpenFiles = 5000
agent1.sinks.sink1.hdfs.batchSize= 100
agent1.sinks.sink1.hdfs.fileType = DataStream
agent1.sinks.sink1.hdfs.writeFormat =Text
agent1.sinks.sink1.hdfs.rollSize = 102400
agent1.sinks.sink1.hdfs.rollCount = 1000000
agent1.sinks.sink1.hdfs.rollInterval = 60
#agent1.sinks.sink1.hdfs.round = true
#agent1.sinks.sink1.hdfs.roundValue = 10
#agent1.sinks.sink1.hdfs.roundUnit = minute
agent1.sinks.sink1.hdfs.useLocalTimeStamp = true
# Use a channel which buffers events in memory
agent1.channels.channel1.type = memory
agent1.channels.channel1.keep-alive = 120
agent1.channels.channel1.capacity = 500000
agent1.channels.channel1.transactionCapacity = 600
# Bind the source and sink to the channel
agent1.sources.source1.channels = channel1

agent1.sinks.sink1.channel = channel1

Channel 参数解释:
capacity:默认该通道中最大的可以存储的 event 数量
trasactionCapacity:每次最大可以从 source 中拿到或者送到 sink 中的 event 数量

keep-alive:event 添加到通道中或者移出的允许时间

启动:

bin/flume-ng agent -c conf -f agentconf/spooldir-hdfs.properties -n agent1

测试:
1、如果 HDFS 集群是高可用集群,那么必须要放入 core-site.xml 和 hdfs-site.xml 文件到
$FLUME_HOME/conf 目录中;
2、查看监控的/home/Hadoop/logs 文件夹中的文件是否被正确上传到 HDFS 上;
3、在该目录中创建文件,或者从其他目录往该目录加入文件,验证是否新增的文件能被自
动的上传到 HDFS。




编程开发网
】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇hive查看表在hdfs上的位置 下一篇【Hadoop】HDFS文件读取流程与副..

评论

帐  号: 密码: (新用户注册)
验 证 码:
表  情:
内  容:

array(4) { ["type"]=> int(8) ["message"]=> string(24) "Undefined variable: jobs" ["file"]=> string(32) "/mnt/wp/cppentry/do/bencandy.php" ["line"]=> int(214) }