设为首页 加入收藏

TOP

大数据平台任务调度与监控系统
2019-01-15 00:22:52 】 浏览:66
Tags:数据 平台 任务 调度 监控系统
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/m0_37803704/article/details/86476801

背景

大数据平台技术框架支持的开发语言多种多样,开发人员的背景差异也很大,这就产生出很多不同类型的程序(任务)运行在大数据平台之上,如:MapReduce、Hive、Pig、Spark、Java、Shell、Python等。

这些任务需要不同的运行环境,并且除了定时运行,各种类型之间的任务存在依赖关系,一张简单的任务依赖图如下:

目前各业务的数据任务基本都是靠Crontab定时调度,各个任务之间的依赖仅靠简单的串行来实现。

这样做的问题:

很容易造成前面的任务未结束或者失败,后面的任务也运行起来,最终跑出错误的分析结果;

任务不能并发执行,增加任务执行的整体时间窗口;

任务管理和维护很不方便,不好统计任务的执行时间及运行日志;

缺乏及时有效的告警;

SkyNet调度监控系统,正是为了解决以上问题。

系统架构

名词解释

SkyNet任务调度监控系统的名称。

Job/任务一个程序运行单元,比如,一个MapReduce程序、一个Shell脚本等。

业务日期每个程序运行所处理的数据日期。

JobInstance/任务实例一次任务运行实例,因为一个任务在同一业务日期可能会运行多次。

资源任务运行的节点(主机)

DataHub数据交换机,用于异构数据源时间的数据交换。

系统模块

JobManager:SkyNet的Master,提供RPC服务,接收并处理JobClient/Web提交的所有操作;与元数据通讯,维护Job元数据;负责任务的统一配置维护、触发、调度、监控

JobMonitor: 监控正在运行的Job状态、监控任务池、监控等待运行的Job;

JobWorker:SkyNet的Slave,从任务池中获取Job、负责启动并收集Job的执行状态,维护至元数据库;

JobClient/Web:SkyNet客户端类,前端界面提供给用户,用作任务的配置、管理、监控等;

任务元数据:目前使用Mysql,保存Job的配置、依赖关系、运行历史、资源配置、告警配置等;

系统特性

分布式架构:容量和负载能力(JobWorker)可线性扩充,并可以跨外网部署(只需能访问元数据库即可);

高可用性:拥有主备Master,一旦主Master异常,备Master会接替主Master提供服务(后期实现);

高容错性:Master重新启动后,会将之前未完成的任务重新调度运行;

完善易用的Web用户界面:用于用户配置、提交、查询、监控任务及任务的依赖关系;

支持任意类型的任务:除了Hadoop生态圈的MapReduce、Hive、Pig等,还支持其他任何语言开发的任务,如Java、Shell、Python、Perl、Spark等;

完整的日志记录:收集并记录任务运行过程中产生的标准输出和标准错误,提供Http访问,用户可通过访问任务对应的日志Url来方便的访问任务运行日志;

任务之间的灵活依赖:可将任意一个任务作为自己的父任务进行依赖触发;

灵活多样的告警规则:除了失败告警,也支持任务超时未完成、任务超时未开始等告警规则;

页面展示

DashBoard:显示平台任务总体概况,资源总体概况

834325294 加群获取资料

任务查询和维护:

添加任务:

查看任务依赖关系及运行状态:

查看任务运行状态及运行日志:

如果你不想再体验一次自学时找不到资料,没人解答问题,坚持几天便放弃的感受的话,可以加我们的大数据交流群:894951460,里面有各种大数据学习的资料和技术交流。

加油吧,程序员!路就在脚下,成功就在明天!

未来的你肯定会感谢现在拼命的自己!

】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇结合案例讲解MapReduce重要知识点.. 下一篇Spark Core 子模块 storage分析

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目