微信搜索bigdata029 | 邀请体验:数阅–数据管理、OLAP分析与可视化平台 | 订阅本站 | 赞助作者:赞助作者

Hive over HBase和Hive over HDFS性能比较分析

Hadoop lxw1234@qq.com 13818℃ 3评论

环境配置:

hadoop-2.0.0-cdh4.3.0 (4 nodes, 24G mem/node)

hbase-0.94.6-cdh4.3.0 (4 nodes,maxHeapMB=9973/node)

hive-0.10.0-cdh4.3.0

 

一、查询性能比较:

query1:
select count(1) from on_hdfs;
select count(1) from on_hbase;
query2(根据key过滤)
select * from on_hdfs
where key = ‘13400000064_1388056783_460095106148962′;
select * from on_hbase
where key = ‘13400000064_1388056783_460095106148962′;
query3(根据value过滤)
select * from on_hdfs where value = ‘XXX';
select * from on_hbase where value = ‘XXX';

 

on_hdfs (20万记录,150M,TextFile on HDFS)
on_hbase(20万记录,160M,HFile on HDFS)

 

Hive over HBase

Hive over HBase

 

on_hdfs (2500万记录,2.7G,TextFile on HDFS)
on_hbase(2500万记录,3G,HFile on HDFS)

 

Hive over HBase

Hive over HBase

 

从上图可以看出,
对于全表扫描,hive_on_hbase查询时候如果不设置catching,性能远远不及hive_on_hdfs;
根据rowkey过滤,hive_on_hbase性能上略好于hive_on_hdfs,特别是数据量大的时候;
设置了caching之后,尽管比不设caching好很多,但还是略逊于hive_on_hdfs;

 

二、Hive over HBase原理

 

Hive与HBase利用两者本身对外的API来实现整合,主要是靠HBaseStorageHandler进行通信,利用 HBaseStorageHandler,Hive可以获取到Hive表对应的HBase表名,列簇以及列,InputFormat和 OutputFormat类,创建和删除HBase表等。
Hive访问HBase中表数据,实质上是通过MapReduce读取HBase表数据,其实现是在MR中,使用HiveHBaseTableInputFormat完成对HBase表的切分,获取RecordReader对象来读取数据。
对HBase表的切分原则是一个Region切分成一个Split,即表中有多少个Regions,MR中就有多少个Map;
读取HBase表数据都是通过构建Scanner,对表进行全表扫描,如果有过滤条件,则转化为Filter。当过滤条件为rowkey时,则转化为对rowkey的过滤;
Scanner通过RPC调用RegionServer的next()来获取数据;

 

三、性能瓶颈分析

1. Map Task

Hive读取HBase表,通过MR,最终使用HiveHBaseTableInputFormat来读取数据,在getSplit()方法中对 HBase表进行切分,切分原则是根据该表对应的HRegion,将每一个Region作为一个InputSplit,即,该表有多少个Region,就 有多少个Map Task;
每个Region的大小由参数hbase.hregion.max.filesize控制,默认10G,这样会使得每个map task处理的数据文件太大,map task性能自然很差;
为HBase表预分配Region,使得每个Region的大小在合理的范围;
下图是给该表预分配了15个Region,并且控制key均匀分布在每个Region上之后,查询的耗时对比,其本质上是Map数增加。

Hive over HBase

Hive over HBase

 

2. Scan RPC 调用:

  •     在Scan中的每一次next()方法都会为每一行数据生成一个单独的RPC请求, query1和query3中,全表有2500万行记录,因此要2500万次RPC请求;

 

  •     扫描器缓存(Scanner Caching):HBase为扫描器提供了缓存的功能,可以通过参数hbase.client.scanner.caching来设置;默认是1;缓存 的原理是通过设置一个缓存的行数,当客户端通过RPC请求RegionServer获取数据时,RegionServer先将数据缓存到内存,当缓存的数 据行数达到参数设置的数量时,再一起返回给客户端。这样,通过设置扫描器缓存,就可以大幅度减少客户端RPC调用RegionServer的次数;但并不 是缓存设置的越大越好,如果设置的太大,每一次RPC调用将会占用更长的时间,因为要获取更多的数据并传输到客户端,如果返回给客户端的数据超出了其堆的 大小,程序就会终止并跑出OOM异常;

所以,需要为少量的RPC请求次数和客户端以及服务端的内存消耗找到平衡点。

rpc.metrics.next_num_ops
未设置caching,每个RegionServer上通过next()方法调用RPC的次数峰值达到1000万:

Hive over HBase

Hive over HBase

 

设置了caching=2000,每个RegionServer上通过next()方法调用RPC的次数峰值只有4000:

Hive over HBase

Hive over HBase

 

设置了caching之后,几个RegionServer上的内存消耗明显增加:

Hive over HBase

Hive over HBase

 

  •     扫描器批量(Scanner Batch):缓存是面向行一级的操作,而批量则是面向列一级的操作。批量可以控制每一次next()操作要取回多少列。比如,在扫描器中设置setBatch(5),则一次next()返回的Result实例会包括5列。
  •     RPC请求次数的计算公式如下:
    RPC请求次数 =
    (表行数 * 每行的列数)/ Min(每行的列数,批量大小)  / 扫描器缓存

因此,在使用Hive over HBase,对HBase中的表做统计分析时候,需要特别注意以下几个方面:

1. 对HBase表进行预分配Region,根据表的数据量估算出一个合理的Region数;

2. rowkey设计上需要注意,尽量使rowkey均匀分布在预分配的N个Region上;

3. 通过set hbase.client.scanner.caching设置合理的扫描器缓存;

4. 关闭mapreduce的推测执行:

set mapred.map.tasks.speculative.execution = false;
set mapred.reduce.tasks.speculative.execution = false;

如果觉得本博客对您有帮助,请 赞助作者

转载请注明:lxw的大数据田地 » Hive over HBase和Hive over HDFS性能比较分析

喜欢 (31)
分享 (0)
发表我的评论
取消评论
表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
(3)个小伙伴在吐槽
  1. 楼主你好,感谢分享,有几个问题想在这里请教一下: 1.有没有比较hive_on_hbase在设置合理的caching和均衡RegionServer后与hive_on_hdfs的性能 2.现今引入的spark内存计算框架有没有对比较产生影响 3.关于 第四点:4.关闭mapreduce的推测执行,有没有原理上的阐述 best wishes
    kevin2015-07-02 14:50 回复
    • 在我看来: 1. 除非是基于Rowkey的查询或者范围扫描,否则hive_on_hbase肯定比hive_on_hdfs性能差。 因为从HBase中获取数据,虽然也有任务本地化(即把获取数据的task分配到RegionServer所在的节点), 但终究还是要通过RPC请求RegionServer来获取,而RegionServer从磁盘中读取并返回数据。 而如果从hdfs上读,也是本地化任务的话,那么就直接从本地磁盘读了。 我想,通过磁盘直接读,要比RPC+磁盘读快一些吧。 2. Spark从HDFS中读数据进行计算,要比MapReduce快,这点是毋庸置疑的,如果把数据cache到Spark内存,那肯定更快。 至于从HBase中读取数据,我觉得和MapReduce差不多,因为原理是一样的,都是通过HBase API,Spark的优势在于它的调度比MapReduce快, 另外,它可以把从HBase中获取的数据缓存起来,后续再统计分析就很快了。 3. 关于推测执行, 本身一个map task去获取一个region上的数据,如果数据量大,肯定要比较长的时间。 如果开启了推测执行,那么还会有另一个map task去相同的region上获取数据,极大的增加了RPC请求次数和RegionServer的压力, 那肯定就更慢了。
      lxw1234@qq.com2015-07-02 15:24 回复
  2. 请教大神,在您的实验中hive_on_hbase设置caching之后查询性能大幅度提升。请问是怎么设置caching的,直接在hbase客户端上的配置文件设置set hbase.client.scanner.caching 吗?
    westfire2017-05-08 15:15 回复