设为首页 加入收藏

TOP

对接 kafka的 spark程序   程序可以正常运行 就是接受kafka的数据时很慢 ,怎么调优
2019-03-19 14:11:05 】 浏览:62
Tags:对接 kafka spark 程序   可以 正常 运行 就是 接受 数据时 怎么
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/weixin_40691089/article/details/79175457

1)启动一个console consumer消费topic的数据,判断消费是否正常。
2)如果console consumer消费正常,就检查sparkstream程序。
2.1)sparkstreming 是基于时间片消费数据的。 看看时间片是否过小,最小的时间间隔,参考在0.5~2秒钟之间。可以适当放宽时间片的大小。
2.2)spark streaming虽然是按照时间片消费数据的,但是上一个批次的数据没有处理完,下一个批次也会继续处理,如果有很多批次的数据同时在处理。会拖垮集群,服务器的资源会使用频繁,导致很慢。

】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇zookeeper集群和kafka集群及nginx.. 下一篇kafka和flume的对比

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目