HBASE数据架构

标签: hbase 数据 架构 | 发表时间:2014-12-17 09:38 | 作者:zhangxiong0301
出处:http://www.iteye.com

 

1、数据结构

 

关系数据库一般用B+树,HBASE用的是LSM树。MYSQL所用类B+树一般深度不超过3层,数据单独存放,在B+树的叶节点存储指向实际数据的指针,叶节点之间也相互关联,类似双向链表。这种结构的特点是数据更新或写入导致数据页表分散,不利于顺序访问。LSM存储中,各个文件的结构类似于B+树,但是分多个存在内存或磁盘中,更新和写入变成了磁盘的顺序写,只在合并时去掉重复或过时的数据。也就是说,LSM树将B+树种的随机写变成顺序写,从而提高写吞吐量。

 

2、存储

 

存储对象:HregionServer对应多个HRegion,Region的每个列族对应一个Store,每个Store对应多个StoreFile,以及一个memstore。当然,数据刷写时,一个Region只要有一个列族的memStore需要刷写磁盘,则该region的所有列族的memstore都会刷写磁盘。

 

数据访问流程:客户端联系zookeeper集群查找-ROOT-表所在Region服务器,通过-ROOT- Region服务器查找.Meta.表中含有数据region的服务器,然后在.META.表中定位到实际数据对应region的服务器,最后连接这个服务器读写数据。

 

写路径:客户端发起put等请求,交给HRegion实例来处理。HRegion根据put设置决定是否要预写日志,日志写完后数据被写入memstore中。若memstore已满,则数据被刷写到磁盘,同时在文件中保存最后写入的序列号(跟Hlog中的序列号一样,用于决定日志重做起始位置)。

hbase在hadoop上的文件:分为根级文件和表级文件。第一组是WAL文件,对应/hbase/.logs/目录,每个region服务器在该目录下对应一个子目录,里面包含多个日志文件(日志滚动产生:hbase.regionserver.logroll.period)。当日志对应的所有修改被刷写到磁盘,则该日志文件会被转到/hbase/.oldlogs/目录中,再过一段时间(对应配置hbase.master.logcleaner.interval)会被master删除。另外,/hbase/hbase.id和/hbase/hbase.version分别对应集群的唯一ID和文件格式的版本信息。此外,/hbase/splitlog/和/hbase/.corrupt/分别对应存储日志拆分过程中产生的中间拆分文件和损坏的日志。

表级文件,每张表对应/hbase/tableName/目录,该目录包含.tableinfo文件,用来存储HTableDescriptor的序列化信息。

 

表级目录下每个region对应一个子目录,目录中包含一个.regioninfo文件,对应HRegionInfo的序列化信息。日志拆分完成后会在对应Region目录下创建recovered.edits目录,用来存放需要恢复的日志。当region被打开时,region服务器会看到需要回复的文件并重做。region拆分时,关闭该region,在该region目录下创建spits目录,包括新的region目录和引用文件,然后将两个目录移到表目录下,.META.表中父region被更新,增加splitA列和splitB列以标志该region正被更新。之后同时打开两个子region,更新.META.表,增加子region的条目。最后在region目录下的.tmp目录拷贝父region的文件数据。

 

合并:合并分为minor和并和major和并。minor合并的文件最小数量控制:hbase.hstore.compaction.min或hbase.htore.compactionThreshold,最大数量控制:hbase.hstore.compaction.max,被合并文件最大尺寸控制:hbase.hstore.compaction.max.size,最小尺寸:hbase.hstore.compaction.min.size表示所有小于该值的文件都将参与合并,直到达到合并文件最大数量限制。major合并检查的触发条件:memstore被刷写,shell执行compact或major_compact,或相应API调用。除非执行major_compact或majorCompact API,否则不会绕过检查阶段的。

HFILE:HFile由块组成包括数据块,FileInfo块和Trailer块。值得注意的块的大小,太小会增加块间索引空间,太大会导致每次get操作读入内存的数据量过大,影响IO性能。顺序读多的情况下设置块较大,随机读多的情况下减小块配置,建议8k-1M。对于带压缩的表,每块实际大小会比设置的块大小要小。

 

3、WAL

 

实现WAL的类叫Hlog,如果是在大批量导入数据的mapreduce,建议关闭写日志。Hlog维护一个序列号,要么从零开始,要么从每一个数据文件storefile中取出序列号,取其最大值,最中数据文件中的序列号和日志中的序列号完全对应,以便日志重做。一个region服务器上所有region共享一个hlog实例,意味着所有日志顺序写入日志文件,在日志重做时会产生日志拆分带来的额外开销。WAL用hadoop的SequenceFile存日志,其中key对应类HLogKey包含(表名和region)。客户端的每个修改被封装为一个WALEdit实例。LogSyncer提供了日志延迟刷写的特性,通过hbase.regionserver.optionallogflushinterval设置刷写间隔。

普通的hadoop文件是一读多写,在写入过程中其他用户不可见这个文件。但如果在写日志过程中服务器崩溃,是不是会出问题呢?幸好hadoop新版本添加了append属性,用户可以读到上次崩溃的日志位置。

 

4、读路径

 

get即scan:hbase中没有索引文件,hFile中最小的单元是块,所以regionserver和底层的Store必须定位到块后把块载入内存然后遍历这个块,才能确定所需数据。这就是scan做的事情,get也必须这么做。

查询数据时,首先是用时间戳或布隆过滤器去掉那些绝对不包含keyvalue的文件。然后加载剩余所有文件的可能数据块。最终还要把keyvalue排序,取得合适的数目的版本数据,以及判断是否有墓碑标记覆盖的过时记录。

 

5、region查找

 

一般情况是3次网络往返定位到特定region:请求zookeeper查找-ROOT-表,请求-ROOT-表所在region服务器查找.META.表对应的region,再从上一步结果对应的region服务器查找正真的数据region。但是当缓存的region位置信息过期,或者region服务器发生了拆分、合并、移动或负载均衡等操作,最坏情况下定位region服务器需要6次网络往返请求。这是因为客户端采用的是回退迭代的思路,即第一次直接访问发现region不在了,接着会去用缓存的-ROOT-信息定位.META.表位置,发现.META.数据失效,从zookeeper请求-ROOT-表信息,则回到3次网络请求的步骤。

 

6、zookeeper

 

zookeeper用来跟踪region服务器,保存-ROOT-表地址等。加入zookeeper后,region服务器发送给master的心跳信息交给了zookeeper。hbase集群的跟节点:/hbase,由属性zookeeper.znode.parent参数控制。

/hbase/hbaseid:集群ID

/hbase/master:master的服务器名和端口

/hbase/replication:副本信息

/hbase/root-region-server:包含-ROOT-表所在region服务器的机器名。

/hbase/rs:region服务器的根节点,集群用来跟踪服务器异常。每个region服务器有一个以region服务器名为名称的znode临时节点。

 

 

 

 

 



已有 0 人发表留言,猛击->> 这里<<-参与讨论


ITeye推荐



相关 [hbase 数据 架构] 推荐:

HBASE数据架构

- - 数据库 - ITeye博客
关系数据库一般用B+树,HBASE用的是LSM树. MYSQL所用类B+树一般深度不超过3层,数据单独存放,在B+树的叶节点存储指向实际数据的指针,叶节点之间也相互关联,类似双向链表. 这种结构的特点是数据更新或写入导致数据页表分散,不利于顺序访问. LSM存储中,各个文件的结构类似于B+树,但是分多个存在内存或磁盘中,更新和写入变成了磁盘的顺序写,只在合并时去掉重复或过时的数据.

HBase 系统架构

- - 博客园_首页
HBase是Apache Hadoop的数据库,能够对大型数据提供随机、实时的读写访问. HBase的目标是存储并处理大型的数据. HBase是一个开源的,分布式的,多版本的,面向列的存储模型. 5 可在廉价PC Server搭建大规模结构化存储集群. HBase是Google BigTable的开源实现,其相互对应如下:.

HBase Metrics机制、架构

- - 开源软件 - ITeye博客
HBase Metrics是一种监控信息实时收集机制. 功能性信息(Compaction Queue、Store Files个数等). JVM使用信息 (Heap Memory 的变化). 借助与Hadoop Metrics同样的方式,向Ganglia汇报. Ganglia的架构图:. Ganglia相关特性:.

hbase写数据过程

- - 数据库 - ITeye博客
博文说明:1、研究版本hbase0.94.12;2、贴出的源代码可能会有删减,只保留关键的代码. 从client和server两个方面探讨hbase的写数据过程.     写数据主要是HTable的单条写和批量写两个API,源码如下:. hbase写数据的客户端核心方法是HConnectionManager的processBatchCallback方法,相关源码如下:.

HBase数据查询之Coprocessor

- - 开源软件 - ITeye博客
协处理器的概念、作用和类型不介绍,可以参看:http://www.cnblogs.com/ventlam/archive/2012/10/30/2747024.html,官方blog:https://blogs.apache.org/hbase/entry/coprocessor_introduction.

Solr与HBase架构设计 - aitanjupt

- - 博客园_首页
摘要:本篇是本人在做一个大数据项目. ,对于系统架构总结的一点想法,如何在保证存储量的情况下,又能保证数据的检索速度. 前提:      Solr、SolrCloud提供了一整套的数据检索方案,HBase提供了完善的大数据存储机制. 需求:      1、对于添加到HBase中的结构化数据,能够检索出来.

从hbase(hive)将数据导出到mysql

- - CSDN博客云计算推荐文章
在上一篇文章《 用sqoop进行mysql和hdfs系统间的数据互导》中,提到sqoop可以让RDBMS和HDFS之间互导数据,并且也支持从mysql中导入到HBase,但从HBase直接导入mysql则不是直接支持,而是间接支持. 要么将HBase导出到HDFS平面文件,要么将其导出到Hive中,再导出到mysql.

通过HBase Observer同步数据到ElasticSearch

- - SegmentFault 最新的文章
Observer希望解决的问题. HBase是一个分布式的存储体系,数据按照RowKey分成不同的Region,再分配给RegionServer管理. 但是RegionServer只承担了存储的功能,如果Region能拥有一部分的计算能力,从而实现一个HBase框架上的MapReduce,那HBase的操作性能将进一步提升.

HBase基本数据操作详解

- - 互联网 - ITeye博客
之前详细写了一篇HBase过滤器的文章,今天把基础的表和数据相关操作补上. 本文档 参考最新 (截止2014年7月16日)的 官方 Ref Guide、 Developer API编写. 所有代码均基于“hbase  0.96.2-hadoop2 ”版本编写,均实测通过. 对于建表,和RDBMS类似,HBase也有namespace的概念,可以指定表空间创建表,也可以直接创建表,进入default表空间.

JAVA操作HBASE数据操作详解

- -
Hbase对于建表,和RDBMS类似,HBase也有namespace的概念,可以指定表空间创建表,也可以直接创建表,进入default表空间. 对于数据操作,HBase支持四类主要的数据操作,分别是:. Put :增加一行,修改一行;. Delete :删除一行,删除指定列族,删除指定column的多个版本,删除指定column的制定版本等;.