设为首页 加入收藏

TOP

HBase简介 & 数据存储模型 & 对比RDBMS & 基础架构 & 环境部署
2019-05-07 13:45:03 】 浏览:58
Tags:HBase 简介 数据 存储 模型 对比 RDBMS 基础 架构 环境 部署
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/lemonZhaoTao/article/details/81150397

HBase简介及其在大数据生态圈的位置

HBase简介

  • HBase是一个分布式的、面向列的开源数据库

  • 来源于google的Bigtable
    HBase在Hadoop之上提供了类似于Bigtable的能力(是基于Hadoop的HDFS进行存储)

  • HBase不同于一般的关系数据库,它适合非结构化数据存储

  • Bigtable是什么
    Bigtable是压缩的、高性能的、高可扩展性的、基于Google GFS文件系统的数据库
    用于存储大规模的结构化数据
    在扩展性和性能方面有很大的优势

  • 什么是面向列的数据库
    即列式数据库,就是把每一列中的数据值放在一起进行存储
    对应的就是行式数据库(常见的有关系型数据库):把每一行的数据放在一起存储,存储完了之后就存储下一行的数据
    如下图:
    这里写图片描述
    那么列式存储有什么好处呢?
    假如我们使用的是关系型数据库,现在要去存一堆数据,这时候我们需要去建立表结构,然后去维护相关的索引,如果当数据量过大的时候,查询起来可能就很慢了。
    而列式存储,每一列都是单独进行存放的,在读取某列数据的时候速度更快,降低了IO;而且每一列的数据类型都是统一的,这样就易于压缩;行式存储擅长随机读取的操作,列式存储擅长于大批量的数据查询。
    对于行式和列式的使用,还是得需要看具体的需求。

  • 为什么HBase适合非结构化数据存储
    结构化数据与非结构化数据的概念
    结构化数据:可以用二维表格形式存储的数据
    非结构化数据:图片、文档这些可以认为为非结构化数据

    为什么HBase适合存储非结构化数据
    我们可以将这些非结构化数据以二进制的方式存到HBase里面,这样无论是存储还是查询都是比较方便快捷的,而且很容易进行扩展

HBae在大数据生态圈中的位置

  • HBase是Apache基金会顶级项目

  • HBase基于Hadoop的核心HDFS系统进行数据存储,类似于Hive
    Hive是基于Hadoop的数据仓库工具,用来对于一段时间内的数据进行分析查询,而不是进行实时的数据查询

  • HBase可以存储超大数据并适合用来进行大数据的实时查询

HBase与HDFS

  • HBase建立在Hadoop文件系统之上,利用了Hadoop的文件系统的容错能力

  • HBase提供了对数据的随机实时读/写访问功能

  • HBase内部使用哈希表,并存储索引,可将在HDFS文件中的数据进行快速查找

HBase使用场景

  • 瞬间写入量很大,常用数据库不好支撑或需要很高成本支撑的场景

  • 数据需要长久保存,且量会持久增长到比较大的场景

  • HBase不适用于有join,多级索引,表关系复杂的数据模型

HBase数据存储模型及与关系型数据库的区别

CAP定理

CAP定理就是对于一个分布式计算系统不可能同时满足以下三点:

  • 一致性(所有节点在同一时间具有相同的数据)
  • 可用性(保证每个请求不管成功或者失败都有响应,但不保证获取的数据为正确的数据)
  • 分区容错性(系统中任意信息的丢失或失败不会影响系统的继续运作,系统如果不能在某一个时限内达成数据一致性,就必须在上面两个操作之间做出选择)

那么对于分布式数据系统,分区容错性是最基本的要求,否则就失去了存在的意义,因此需要在一致性和可用性上做出取舍:在很多情况下会牺牲一致性从而来换取可用性,比如:Cassandra就是AP类型的,当然,牺牲一致性,只是要求不像关系型数据库一样,要求强一致性,而是要求系统能达到最终一致性。而HBase属于CP类型的,是强一致性的,它的每一行有regionserver、rowkey、版本标签等来组合,从而保证行的一致性

ACID定义

数据库事务正确执行的4个基本要素

  • 原子性(一个事务要么全部执行,要么全部不执行。如果执行过程中发生了错误,系统会回滚到最初的状态)

  • 一致性(事务的运行,不会改变数据库中数据的一致性)

  • 隔离性(2个以上的事务在执行的过程中,不会出现交错执行的状态(因为这样的话可能会导致数据的不一致))

  • 持久性(一个事务执行成功之后,该事务对数据库的更改,要持久性的保存在数据库当中)

一个支持事务的数据库系统中必须得有这4个特性,否则在事务的过程当中就无法保证事务的正确性

HBase作为一个NoSQL数据库,为了性能不支持严格的ACID,只支持到单个的行

HBase概念

  • NameSpace:可以把NameSpace理解为RDBMS的“数据库”
    1个NameSpace包含一组表

  • Table:表名必须是能用在文件路径里的合法名字
    这样做是因为HBase的表是映射成HDFS上相应的文件的,因此表名必须是合法的路径

  • Row:在表里面,每一行代表着一个数据对象,每一行都是以一个Row Key来进行唯一标识的,Row Key并没有什么特定的数据类型,以二进制的字节来存储

  • Column:HBase的列由Column family和Column qualifier组成,由冒号(:)进行间隔;比如 family:qualifier

  • RowKey:可以唯一标识一行记录,不可被改变;改变的唯一方式是删除这个RowKey,再重新插入

  • Column Family:是一些Column的集合,1个Column Family所包含的所有的Column成员是有着相同的前缀;在物理上1个Column Family所有的成员是存储在一起的,存储的优化都是针对Column Family级别的;这就意味着1个Column Family的成员都是用相同的方式进行访问的;在定义HBase表的时候需要提前设置好列族,表中所有的列都需要组织在列族里面;列族一旦定义好之后,就不能轻易的更改了,因为它会影响到HBase真实的物理存储结构

  • Column Qualifier:列族中的数据通过列标识(Column Qualifier)来进行映射,可以理解为一个键值对,Column Qualifier就是key

  • Cell:每一个RowKey、Column Family、Column Qualifier共同组成的一个单元;存储在Cell里面就是我们想要保存的数据;Cell存储的数据没有特定的数据类型,以二进制字节来进行存储

  • Timestamp:每个值都会有一个timestamp,作为该值特定版本的标识符;默认HBase中每次插入数据的时候,都会用timestamp来进行版本标识;读取数据时,如果这个时间戳没有被指定,就默认返回最新的数据;写入数据时,如果没有设置时间戳,默认使用当前的时间戳;每一个列族的数据的版本都由HBase单独维护;默认情况下,HBase会保留3个版本的数据

HBase与传统关系型数据的区别

这里写图片描述

查询的时候只嫩通过API去查询,不支持SQL,所以也默认支持通过RowKey去进行查询
两者的数据排布方式有很大的区别:

  • 传统的数据库就是行列的组织

  • 而对于HBase这种NoSQL数据库我们可以理解为稀疏的多维的map

每一行都是一个文件,每一列都是相关的属性
关系型数据库:
这里写图片描述

HBase:
这里写图片描述

HBase数据模型

我们可以将HBase的存储模型想象成一个大的map
这里写图片描述

如果想去访问具体的值是层级递进的,从而最终得到我们想要的值
这里写图片描述

HBase基础架构

这里写图片描述
HBase依托于HDFS之上;整体上又划分为HMaster和RegionServer,在上层通过Java API提供查询的功能;通过Zookeeper进行管理

通过上图我们可以发现,HBase工作的三大模块:

  • HMaster
    • HMaster是HBase主/从集群架构中的中央节点
    • HMaster用于协调多个RegionServer、检测各个RegionServer的状态、并且平衡各个RegionServer之间的负载、同时还负责分配region到RegionServer
    • region:region是HBase中存储的最小的单元、是HBase表格的基本单位
    • HMaster维护表和Region的元数据,不参与数据的输入/输出过程
    • HBase本身是支持HA的,也就是说同时可以有多个HMaster进行运行,但是只有1个处于active状态;如果处于active的节点失效了,挂掉了,其它的HMaster节点就会选举出一个active节点来接管整个HBase集群
  • RegionServer
    • 维护HMaster分配给他的region,处理堆这些region的io请求
      当用户需要读取数据的时候会连接到对应的RegionServer,从相关的region中去获取数据
    • 负责切分正在运行过程中变的过大的region,从而保证查询的效率
  • Zookeeer
    • Zookeeper是HBase HA的解决方案,是整个集群的协调器
      通过Zookeeper保证了至少有一个HMaster处于active状态
      HMaster并不直接参与数据的读写操作,当我们使用HBase的API的时候,当我们想用HBase的API去读取数据的时候,我们并不需要知道HMaster的地址、也不需要知道RegionServer的地址,我们只需要知道Zookeeper集群的地址就可以了
    • HMaster启动将系统加载到Zookeeper
      Zookeeper保存了HBase集群region的信息、meta的信息等等
    • 维护着RegionServer的状态信息,知道哪些数据需要从哪些RegionServer去读取

HBase伪分布式环境部署

Hadoop伪分布式集群部署

可以参考博客:Hadoop伪分布式搭建

HBase伪分布式集群部署

hadoop@hadoop001:~ $ cd ~/softeware
hadoop@hadoop001:~/software $ tar -zxvf hbase-1.2.4-bin.tar.gz –C ../app
hadoop@hadoop001:~/software $ cd ../app
hadoop@hadoop001:~/app $ cd hbase-1.2.4/conf
hadoop@hadoop001:~/app/hbase-1.2.4/conf $ cp ~/app/hadoop-2.7.3/etc/hadoop
/hdfs-site.xml .
hadoop@hadoop001:~/app/hbase-1.2.4/conf $ cp ~/app/hadoop-2.7.3/etc/hadoop
/core-site.xml .
hadoop@hadoop001:~/app/hbase-1.2.4/conf $ vi hbase-env.sh
export JAVA_HOME=~/app/jdk1.8.0_161
# export HBASE_MASTER_OPTS=”$HBASE_MASTER_OPTS –XX:PermSize=128m –XX:MaxPermSize
=128m”
# export HBASE_REGIONSERVER_OPTS=”$HBASE_REGIONSERVER_OPTS –XX:PermSize=128m –XX:
MaxPermSize=128m”
hadoop@hadoop001:~/app/hbase-1.2.4/conf $ vi hbase-site.xml
<configuration>
    <property>
        <name>hbase.root.dir </name>
        <value>hdfs://localhost:9000/hbase</value>
    </property>
    <property>
        <name>hbase.zookeeper.property.dataDir</name>
        <value>/home/hadoop/hadoop_data/zookeeper </value>
    </property>
    <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>
</configuration>
hadoop@hadoop001:~/app/hbase-1.2.4/conf $ cd ../bin
hadoop@hadoop001:~/app/hbase-1.2.4/bin $ ./start-hbase.sh
hadoop@hadoop001:~/app/hbase-1.2.4/bin $ jps
13792 HQuorumPeer
13968 HRegionServer
13864 HMaster
12156 NameNode
12556 SecondaryNameNode
14317 Jps
12335 DataNode
hadoop@hadoop001:~/app/hbase-1.2.4/bin $ ./hbase shell
hbase(main):001:0> status
1 active master, 0 backup master, 1 servers, 0 dead, 2.0000 average load 
hadoop@hadoop001:~/app/hbase-1.2.4/bin $ cd ~/app/hadoop-2.7.3/bin
hadoop@hadoop001: ~/app/hadoop-2.7.3/bin $ ./hdfs dfs –ls /
Found 2 items
drwxr-xr-x  - hadoop supergroup 0 2018-07-15 17:23 /hbase
drwxr-xr-x  - hadoop supergroup 0 2018-07-15 17:08 /test
】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
上一篇HBase Client Get 源码分析 下一篇将hdfs文件保存到hbase中

最新文章

热门文章

Hot 文章

Python

C 语言

C++基础

大数据基础

linux编程基础

C/C++面试题目