设为首页 加入收藏

TOP

数据导入终章:如何将HBase的数据导入HDFS?
2019-04-18 00:16:04 】 浏览:79
Tags:数据 导入 终章 如何 HBase HDFS

我们的最终目标是将数据导入Hadoop,在之前的章节中,我们介绍了如何将传统关系数据库的数据导入Hadoop,本节涉及到了HBase。HBase是一种实时分布式数据存储系统,通常位于与Hadoop集群相同的硬件上,或者与Hadoop集群紧密相连,能够直接在MapReduce中使用HBase数据,或将其导入HDFS,这是选择HBase作为解决方案的巨大优势之一。

实践:将HBase数据导入HDFS

如果将要在MapReduce中使用的客户数据与HDFS中的数据结合使用,那该怎么办可以编写一个MapReduce作业,该作业将HDFS数据集作为输入,并直接从HBase的map或reduce代码中提取数据。但在某些情况下,将HBase中的数据直接转储到HDFS可能更有用,特别是如果计划在多个MapReduce作业中使用该数据并且HBase数据不可变或不经常更改。

问题

将HBase数据导入HDFS

解决方案

HBase包含一个Export类,可用于将HBase数据以SequenceFile格式导入HDFS。此技术还介绍了可用于读取导入的HBase数据代码。

讨论

在开始使用这种技术之前,需要启动并运行HBase。

为了能够从HBase导出数据,首先需要将一些数据加载到HBase。加载器创建一个名为stocks_example的HBase表,其中包含一个列族的详细信息,我们将HBase数据存储为Avro二进制序列化数据,此部分代码就不列举了。

运行加载程序并使用它将样本数据加载到HBase中:

可以使用HBase shell查看负载结果。list命令(不带任何参数)将显示HBase中的所有表,而带有单个参数的scan命令将转储表的所有内容:

有了这些数据,我们就可以将其导出到HDFS了。HBase附带了一个转储HBase表的org.apache.hadoop.hbase.mapreduce.Export类。以下代码段显示了使用Export类的示例。使用此命令,可以导出整个HBase表:

Export类还支持只导出单个列族,还可以压缩输出:

Export类以SequenceFile格式写入HBase输出,其中HBase行键使用org.apache.hadoop.hbase.io .ImmutableBytesWritable存储在SequenceFile记录键中,HBase值使用org.apache.hadoop.hbase.client.Result存储在SequenceFile记录值中.。

如果要在HDFS中处理导出的数据,该怎么办以下列表显示了如何读取HBase SequenceFile并提取Avro记录的示例。

代码5.3 读取HBase SequenceFile以提取Avro记录

可以针对用于导出的HDFS目录运行代码并查看结果:

HBaseExportedStockReader类能够读取和转储HBase的Export类使用的SequenceFile内容。

使用内置的HBase Export类可以更轻松地将HBase中的数据导出到HDFS中。但是,如果不想将HBase数据写入HDFS,而是想直接在MapReduce作业中处理它,该怎么办让我们看看如何使用HBase作为MapReduce作业的数据源。

实践:使用HBase作为MapReduce的数据源

内置的HBase导出器使用SequenceFile输出HBase数据,除了Java之外的编程语言不支持它,并且不支持模式演变。它仅支持Hadoop文件系统作为数据接收器。如果想要更多地控制HBase数据提取,可能需要其他HBase工具。

问题

希望直接在MapReduce作业中对HBase进行操作,而无需将数据复制到HDFS的中间步骤。

解决方案

HBase有一个TableInputFormat类,可以在MapReduce作业中使用,直接从HBase中提取数据。

讨论

HBase提供了一个名为TableInputFormat的InputFormat类,它可以将HBase用作MapReduce中的数据源。以下代码显示了一个MapReduce作业,它使用此输入格式(通过TableMapReduceUtil.initTableMapperJob调用)从HBase读取数据。

代码5.4 使用MapReduce将HBase数据导入HDFS

可以按如下方式运行此MapReduce作业:

1

$hiphip.ch5.hbase.ImportMapReduce--outputoutput

快速查看HDFS,告诉MapReduce作业是否按预期工作:

此输出确认MapReduce作业按预期工作。

总结

TableInputFormat类检查HBase并为每个HBase表区域创建输入拆分。如果有10个HBase region,则将执行10个map任务。输入格式还包括在输入拆分中托管region的服务器,这意味着map任务将被安排在与托管数据的HRegionServer相同的节点上执行。这提供了HBase level的位置,也提供了HDFS level的位置。从该区读取的数据可能来自本地磁盘,因为一段时间后,所有区的数据都将是本地的。这一切都假定HRegionServers与DataNode在同一主机上运行。

我们的最后关注点是持久存储,包括对关系数据库和HBase。接下来,我们将改变方向,看看如何利用kafka将数据导入Hadoop。

】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇HDFS中的文件写入到Mysql,通过DB.. 下一篇Eclipse+Spring MVC+HDFS文件云存..

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目