微信搜索lxw1234bigdata | 邀请体验:数阅–数据管理、OLAP分析与可视化平台 | 赞助作者:赞助作者

使用Hive读写ElasticSearch中的数据

ElasticSearch lxw1234@qq.com 69983℃ 10评论

关键字:hive、elasticsearch、integration、整合

ElasticSearch已经可以与YARN、Hadoop、Hive、Pig、Spark、Flume等大数据技术框架整合起来使用,尤其是在添加数据的时候,可以使用分布式任务来添加索引数据,尤其是在数据平台上,很多数据存储在Hive中,使用Hive操作ElasticSearch中的数据,将极大的方便开发人员。这里记录一下Hive与ElasticSearch整合,查询和添加数据的配置使用过程。基于Hive0.13.1、Hadoop-cdh5.0、ElasticSearch 2.1.0。

通过Hive读取与统计分析ElasticSearch中的数据

ElasticSearch中已有的数据

_index:lxw1234
_type:tags
_id:用户ID(cookieid)
字段:area、media_view_tags、interest

elasticsearch

Hive建表

由于我用的ElasticSearch版本为2.1.0,因此必须使用elasticsearch-hadoop-2.2.0才能支持,如果ES版本低于2.1.0,可以使用elasticsearch-hadoop-2.1.2.

下载地址:https://www.elastic.co/downloads/hadoop

add jar file:///home/liuxiaowen/elasticsearch-hadoop-2.2.0-beta1/dist/elasticsearch-hadoop-hive-2.2.0-beta1.jar;
CREATE EXTERNAL TABLE lxw1234_es_tags (
cookieid string,
area string,
media_view_tags string,
interest string 
)
STORED BY 'org.elasticsearch.hadoop.hive.EsStorageHandler'
TBLPROPERTIES(
'es.nodes' = '172.16.212.17:9200,172.16.212.102:9200',
'es.index.auto.create' = 'false',
'es.resource' = 'lxw1234/tags',
'es.read.metadata' = 'true',
'es.mapping.names' = 'cookieid:_metadata._id, area:area, media_view_tags:media_view_tags, interest:interest');

注意:因为在ES中,lxw1234/tags的_id为cookieid,要想把_id映射到Hive表字段中,必须使用这种方式:
‘es.read.metadata’ = ‘true’,
‘es.mapping.names’ = ‘cookieid:_metadata._id,…’

在Hive中查询数据

elasticsearch

数据已经可以正常查询。

执行SELECT COUNT(1) FROM lxw1234_es_tags;Hive还是通过MapReduce来执行,每个分片使用一个Map任务:

elasticsearch

可以通过在Hive外部表中指定search条件,只查询过滤后的数据。比如,下面的建表语句会从ES中搜索_id=98E5D2DE059F1D563D8565的记录:

CREATE EXTERNAL TABLE lxw1234_es_tags_2 (
cookieid string,
area string,
media_view_tags string,
interest string 
)
STORED BY 'org.elasticsearch.hadoop.hive.EsStorageHandler'
TBLPROPERTIES(
'es.nodes' = '172.16.212.17:9200,172.16.212.102:9200',
'es.index.auto.create' = 'false',
'es.resource' = 'lxw1234/tags',
'es.read.metadata' = 'true',
'es.mapping.names' = 'cookieid:_metadata._id, area:area, media_view_tags:media_view_tags, interest:interest',
'es.query' = '?q=_id:98E5D2DE059F1D563D8565'
);

hive> select * from lxw1234_es_tags_2;
OK
98E5D2DE059F1D563D8565  四川|成都       购物|1  购物|1
Time taken: 0.096 seconds, Fetched: 1 row(s)

如果数据量不大,可以使用Hive的Local模式来执行,这样不必提交到Hadoop集群:

在Hive中设置:

set hive.exec.mode.local.auto.inputbytes.max=134217728;
set hive.exec.mode.local.auto.tasks.max=10;
set hive.exec.mode.local.auto=true;
set fs.defaultFS=file:///;

hive> select area,count(1) as cnt from lxw1234_es_tags group by area order by cnt desc limit 20;
Automatically selecting local only mode for query
Total jobs = 2
Launching Job 1 out of 2
…..
Execution log at: /tmp/liuxiaowen/liuxiaowen_20151211133030_97b50138-d55d-4a39-bc8e-cbdf09e33ee6.log
Job running in-process (local Hadoop)
Hadoop job information for null: number of mappers: 0; number of reducers: 0
2015-12-11 13:30:59,648 null map = 100%,  reduce = 100%
Ended Job = job_local1283765460_0001
Execution completed successfully
MapredLocal task succeeded
OK
北京|北京       10
四川|成都       4
重庆|重庆       3
山西|太原       3
上海|上海       3
广东|深圳       3
湖北|武汉       2
陕西|西安       2
福建|厦门       2
广东|中山       2
福建|三明       2
山东|济宁       2
甘肃|兰州       2
安徽|合肥       2
湖南|长沙       2
湖南|湘西       2
河南|洛阳       2
江苏|南京       2
黑龙江|哈尔滨   2
广西|南宁       2
Time taken: 13.037 seconds, Fetched: 20 row(s)
hive>

很快完成了查询与统计。

通过Hive向ElasticSearch中写数据

Hive建表

add jar file:///home/liuxiaowen/elasticsearch-hadoop-2.2.0-beta1/dist/elasticsearch-hadoop-hive-2.2.0-beta1.jar;
CREATE EXTERNAL TABLE lxw1234_es_user_tags (
cookieid string,
area string,
gendercode STRING,
birthday STRING,
jobtitle STRING,
familystatuscode STRING,
haschildrencode STRING,
media_view_tags string,
order_click_tags STRING,
search_egine_tags STRING,
interest string ) 
STORED BY 'org.elasticsearch.hadoop.hive.EsStorageHandler'
TBLPROPERTIES(
'es.nodes' = '172.16.212.17:9200,172.16.212.102:9200',
'es.index.auto.create' = 'true',
'es.resource' = 'lxw1234/user_tags',
'es.mapping.id' = 'cookieid',
'es.mapping.names' = 'area:area,
gendercode:gendercode,
birthday:birthday,
jobtitle:jobtitle,
familystatuscode:familystatuscode,
haschildrencode:haschildrencode,
media_view_tags:media_view_tags,
order_click_tags:order_click_tags,
search_egine_tags:search_egine_tags,
interest:interest');

这里要注意下:如果是往_id中插入数据,需要设置’es.mapping.id’ = ‘cookieid’参数,表示Hive中的cookieid字段对应到ES中的_id,而es.mapping.names中不需要再映射,这点和读取时候的配置不一样。

关闭Hive推测执行,执行INSERT:

SET hive.mapred.reduce.tasks.speculative.execution = false;
SET mapreduce.map.speculative = false;
SET mapreduce.reduce.speculative = false;

INSERT overwrite TABLE lxw1234_es_user_tags 
SELECT cookieid,
area,
gendercode,
birthday,
jobtitle,
familystatuscode,
haschildrencode,
media_view_tags,
order_click_tags,
search_egine_tags,
interest 
FROM source_table;

注意:如果ES集群规模小,而source_table数据量特别大、Map任务数太多的时候,会引发错误:

Caused by: org.elasticsearch.hadoop.rest.EsHadoopInvalidRequest: 
FOUND unrecoverable error [172.16.212.17:9200] returned Too Many Requests(429) - rejected 
execution of org.elasticsearch.action.support.replication.TransportReplicationAction$PrimaryPhase$1@b6fa90f 
ON EsThreadPoolExecutor[bulk, queue capacity = 50, 
org.elasticsearch.common.util.concurrent.EsThreadPoolExecutor@22e73289[Running, pool size = 32, active threads = 32, queued tasks = 52, completed tasks = 12505]]; 
Bailing out..

原因是Map任务数太多,并发发送至ES的请求数过多。
这个和ES集群规模以及bulk参数设置有关,目前还没弄明白。
减少source_table数据量(即减少Map任务数)之后,没有出现这个错误。

执行完成后,在ES中查询lxw1234/user_tags的数据:

curl -XGET http://172.16.212.17:9200/lxw1234/user_tags/_search?pretty -d '
{
    "query" : {
        "match" : {
            "area" : "成都"
        }
    }
}'

elasticsearch

数据已经写入到ElasticSearch中。

总结

使用Hive将数据添加到ElasticSearch中还是非常实用的,因为我们的数据都是在HDFS上,通过Hive可以查询的。

另外,通过Hive可以查询ES数据,并在其上做复杂的统计与分析,但性能一般,比不上使用ES原生API,亦或是还没有掌握使用技巧,后面继续研究。

相关阅读:

ElasticSearch集群安装配置

ElasticSearch与Hive整合官方文档

您可以关注 lxw的大数据田地 ,或者 加入邮件列表 ,随时接收博客更新的通知邮件。

 

如果觉得本博客对您有帮助,请 赞助作者

转载请注明:lxw的大数据田地 » 使用Hive读写ElasticSearch中的数据

喜欢 (11)
分享 (0)
发表我的评论
取消评论
表情

Hi,您需要填写昵称和邮箱!

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址
(10)个小伙伴在吐槽
  1. 这个可以有!
    91jufan2015-12-15 16:18 回复
  2. 有问题。使用hive 读取es的数据,使用插件,es-hadoop是吗??使用hive往es写数据使用es-hadoop-hive是吗?版本必须严格对应吗?
    蒋龙2016-03-12 07:41 回复
  3. 请问这个错您知道是怎么回事吗? Caused by: org.elasticsearch.hadoop.EsHadoopException: Could not write all entries [1000/1436608] (maybe ES was overloaded?). Bailing out...
    蒋龙2016-03-14 20:21 回复
    • 你好,请问解决了吗?
      笑笑2017-06-13 22:16 回复
    • 连接中断,写入不了,我设置了两个参数,连接不中断不断尝试不报错,但是一直写入不完,'es.batch.write.retry.count'='-1', 'es.batch.write.retry.wait'='300',
      喜上眉梢+2017-11-09 17:34 回复
  4. 为什么不提供es相关数据下载嘞。。
    黑猫警长酒驾2017-01-06 17:04 回复
  5. 为什么我不能使用count(*)去查询,会报错
    笑美女2017-08-16 11:22 回复
    • 你好,请问解决了嘛,我count(*)也报错
      jery2020-07-05 11:46 回复
  6. 写入es的id是重复的。
    喜上眉梢+2017-11-09 17:32 回复
  7. hive查es性能好慢,有什么更快的查询es的hadoop生态圈的组件吗
    passerbye2018-10-09 15:22 回复