数据集成是基于Dataphin构建的简单高效的数据同步平台,致力于提供具有强大的数据预处理能力、丰富的异构数据源之间数据高速稳定的同步能力。
如果您是在2020年4月份之后购买的Dataphin,则数据同步能力已升级为数据集成。
背景信息
面对各行各业对大数据的应用,数据集成会有很多的诉求,包括能够简单高效的配置大量数据表的同步任务、能够集成多种异构数据源、能够实现对数据源的数据进行轻度预处理、能够实现数据同步任务的调优(例如容错,限速,并发)等。
功能概述
Dataphin升级了数据集成的能力,旨在为您构建简单高效、安全可靠的数据同步平台:
- 支持通过整库迁移(快速生成批量同步任务)和一键生成目标表(同步到MaxCompute的数据无需手动建表)的方式,提高数据集成的效率,详情请参见配置离线整库迁移和管理MaxCompute输出组件。
- 支持流程和转换组件,实现数据源的数据预处理(例如清洗、转换、字段脱敏、计算、合并、分发、过滤等)能力,详情请参见配置离线单条管道。
- 支持丰富的异构数据源,实现数据源之间数据高速稳定的同步能力,详情请参见配置离线单条管道和配置离线整库迁移。
- 支持Dev-Prod和Basic的开发模式,您可以根据业务场景进行灵活选择开发模式。
- 支持将Dataphin中创建的逻辑表快速地同步到目标库。
- 支持用户自定义系统不支持的组件,以满足不同业务场景数据同步的需求。RDBMS数据库组件通过JDBC链接,非RDBMS数据库组件需要自行上传JAR包。
数据集成支持多种类型组件,过简单的拖拽、配置并组装组件的方式,生成离线单条管道。数据集成支持快速生成批量同步任务。整库迁移来源端支持MySQL、SQL Server、Oracle,目标端支持 MaxCompute。同时,数据集成支持用户自定义系统不支持的组件类型,以满足数据同步的需求。
适用场景说明
场景 | 描述 | 操作指导 |
---|---|---|
通过管道脚本构建同步任务 | 基于已有的管道脚本开发管道任务,实现数据同步。 | |
通过离线单条管道构建同步任务 | 离线的数据管道通过定义数据来源和去向的数据源和数据集,提供一套抽象化的数据输入组件、数据输出组件及流程和转换组件,并基于此框架设计一套简化版的中间数据传输格式,从而实现数据源之间数据传输。 | |
通过离线整库迁移构建同步任务 | 整库迁移是为了提升用户效率、降低用户使用成本的一种快捷工具,它可以快速把MySQL、Oracle、SQL Server数据库内所有表一并上传至MaxCompute,极大减少您初始化上云的配置、迁移成本。 | |
通过自定义组件构建同步任务 | 数据集成支持用户自定义系统不支持的组件,以满足不同业务场景数据同步的需求。 |