设为首页 加入收藏

TOP

HBase中MVCC的实现机制及应用情况(一)
2015-08-31 20:00:02 来源: 作者: 【 】 浏览:127
Tags:HBase MVCC 实现 机制 应用 情况

MVCC(Multi-Version Concurrent Control),即多版本并发控制协议,广泛使用于数据库系统。本文将介绍HBase中对于MVCC的实现及应用情况。


在介绍MVCC概念之前,我们先来想一下数据库系统里的一个问题:假设有多个用户同时读写数据库里的一行记录,那么怎么保证数据的一致性呢?一个基本的解决方法是对这一行记录加上一把锁,将不同用户对同一行记录的读写操作完全串行化执行,由于同一时刻只有一个用户在操作,因此一致性不存在问题。但是,它存在明显的性能问题:读会阻塞写,写也会阻塞读,整个数据库系统的并发性能将大打折扣。


MVCC(Multi-Version Concurrent Control),即多版本并发控制协议,它的目标是在保证数据一致性的前提下,提供一种高并发的访问性能。在MVCC协议中,每个用户在连接数据库时看到的是一个具有一致性状态的镜像,每个事务在提交到数据库之前对其他用户均是不可见的。当事务需要更新数据时,不会直接覆盖以前的数据,而是生成一个新的版本的数据,因此一条数据会有多个版本存储,但是同一时刻只有最新的版本号是有效的。因此,读的时候就可以保证总是以当前时刻的版本的数据可以被读到,不论这条数据后来是否被修改或删除。


更多关于MVCC基本思想的介绍,参考Wikipedia


1)memstoreRead:用于记录当前全局可读的readPoint,同时为了每个客户端读请求能够记录自己发起请求时刻的readPoint,还有一个ThreadLocal的perThreadReadPoint变量,以及相关的set和get方法;


2)memstoreWrite:用于记录当前全局最大的writePoint,根据它为下个事务生成新的writePoint。


MultiVersionConsistencyControl中关键的实现方法如下:


1)WriteEntry beginMemstoreInsert():开始一个更新操作,将memstoreWrite加1,创建writeQueue并插入到writeQueue,并返回WriteEntry对象;


2)void completeMemstoreInsert(WriteEntry e):完成当前更新操作,将WriteEntry对象标记为可读,具体分两步:


见org.apache.hadoop.hbase.regionserver.HRegion.java,每个Region包含一个Memstore,维护一个MultiVersionConsistencyControl对象。


见HRegion.java中的以下写操作的方法:


1)put


2)checkAndPut


3)delete


4)checkAndDelete


5)internalFlushcache


6)mutateRow


7)mutateRowsWithLocks


8)batchMutate


最终会调用到applyFamilyMapToMemstore方法使用MVCC进行写操作:


? /**
? * Atomically apply the given map of family->edits to the memstore.
? * This handles the consistency control on its own, but the caller
? * should already have locked updatesLock.readLock(). This also does
? * not check the families for validity.
? *
? *
@param familyMap Map of kvs per family
? *
@param localizedWriteEntry The WriteEntry of the MVCC for this transaction.
? *? ? ? ? If null, then this method internally creates a mvcc transaction.
? *
@return the additional memory usage of the memstore caused by the
? * new entries.
?
*/
? private long applyFamilyMapToMemstore(Map<byte[], List> familyMap,
? ? MultiVersionConsistencyControl.WriteEntry localizedWriteEntry) {
? ?
long size = 0;
? ?
boolean freemvcc = false;

? ?
try {
? ? ?
if (localizedWriteEntry == null) {
? ? ? ? localizedWriteEntry
= mvcc.beginMemstoreInsert();
? ? ? ? freemvcc
= true;
? ? ? }

? ? ?
for (Map.Entry<byte[], List> e : familyMap.entrySet()) {
? ? ? ?
byte[] family = e.getKey();
? ? ? ? List
edits = e.getValue();

? ? ? ? Store store
= getStore(family);
? ? ? ?
for (KeyValue kv: edits) {
? ? ? ? ? kv.setMemstoreTS(localizedWriteEntry.getWriteNumber());
? ? ? ? ? size
+= store.add(kv);
? ? ? ? }
? ? ? }
? ? }
finally {
? ? ?
if (freemvcc) {
? ? ? ? mvcc.completeMemstoreInsert(localizedWriteEntry);
? ? ? }
? ? }

? ?
return size;
? }


HRegion.java中通过private ConcurrentHashMap scannerReadPoints;维护各个查询请求的readPoint。


以get或scan请求为例,最终会通过getScanner方法需要构造RegionScannerImpl对象:


org.apache.hadoop.hbase.regionserver.HRegion.RegionScannerImpl:


1)根据Scan对象构造时设置好readPoint,scan.getIsolationLevel()分为READ_UNCOMMITTED和READ_COMMITTED,只有当READ_COMMITTED时根据MultiVersionConsistencyControl.resetThreadReadPoint(mvcc);设置当前scanner线程的readPoint,并插入到scannerReadPoints维护起来。


2)根据scan需要读取的column family,创建StoreScanner(根据bloom filter、time range、ttl筛选需要的MemStoreScanner和StoreFileScanner),添加到scanners中,并最终根据scanners构造出一个KeyValueHeap


下面看下RegionScannerImpl中的next方法是每次查询时需要调用的函数:


boolean org.apache.hadoop.hbase.regionserver.HRegion.RegionScannerImpl.ne

首页 上一页 1 2 下一页 尾页 1/2/2
】【打印繁体】【投稿】【收藏】 【推荐】【举报】【评论】 【关闭】 【返回顶部
分享到: 
上一篇MySQL中整数类型使用 下一篇如何统计Redis中各种数据的大小

评论

帐  号: 密码: (新用户注册)
验 证 码:
表  情:
内  容: