GET _mget { "docs":[ { "_index":"test_index", "_type":"test_type", "_id":1 }, { "_index":"test_index", "_type":"test_type", "_id":2 } ] }
{ "took": 2, "timed_out": false, "_shards": { "total": 5, "successful": 5, "failed": 0 }, "hits": { "total": 9, "max_score": 1, "hits": [ { "_index": "test_index", "_type": "test_type", "_id": "AWypxxLYFCl_S-ox4wvd", "_score": 1, "_source": { "test_content": "my test" } }, { "_index": "test_index", "_type": "test_type", "_id": "8", "_score": 1, "_source": { "test_field": "test client 2" } }, { "_index": "test_index", "_type": "test_type", "_id": "10", "_score": 1, "_source": { "test_field1": "test1", "test_field2": "updated test2" } }, { "_index": "test_index", "_type": "test_type", "_id": "2", "_score": 1, "_source": { "test_content": "my test" } }, { "_index": "test_index", "_type": "test_type", "_id": "4", "_score": 1, "_source": { "test_field": "test test" } }, { "_index": "test_index", "_type": "test_type", "_id": "6", "_score": 1, "_source": { "test_field": "test test" } }, { "_index": "test_index", "_type": "test_type", "_id": "1", "_score": 1, "_source": { "test_field1": "test field1", "test_field2": "test field2" } }, { "_index": "test_index", "_type": "test_type", "_id": "7", "_score": 1, "_source": { "test_field": "test client 1" } }, { "_index": "test_index", "_type": "test_type", "_id": "11", "_score": 1, "_source": { "num": 0, "tags": [] } } ] } }
若是查询的document是一个index下的不一样type的话java
GET /test_index/_mget { "docs" : [ { "_type" : "test_type", "_id" : 1 }, { "_type" : "test_type", "_id" : 2 } ] }
GET /test_index/test_type/_mget { "ids": [1, 2] }
能够说mget是很重要的,通常来讲,在进行查询的时候,若是一次性要查询多条数据的话,那么必定要用batch批量操做的api
尽量减小网络开销次数,可能能够将性能提高数倍,甚至数十倍,很是很是之重要node
POST /_bulk { "delete": { "_index": "test_index", "_type": "test_type", "_id": "3" }} { "create": { "_index": "test_index", "_type": "test_type", "_id": "12" }} { "test_field": "test12" } { "index": { "_index": "test_index", "_type": "test_type", "_id": "2" }} { "test_field": "replaced test2" } { "update": { "_index": "test_index", "_type": "test_type", "_id": "1", "_retry_on_conflict" : 3} } { "doc" : {"test_field2" : "bulk test1"} }
有哪些类型的操做能够执行呢?算法
bulk api对json的语法,有严格的要求,每一个json串不能换行,只能放一行,同时一个json串和一个json串之间,必须有一个换行json
示例:api
POST _bulk {"delete":{"_index":"test_index","_type":"test_type","_id":10}} {"create":{"_index":"test_index","_type":"test_type","_id":3}} {"test_field":"test3"} {"create":{"_index":"test_index","_type":"test_type","_id":2}} {"test_field":"test2"} {"index":{"_index":"test_index","_type":"test_type","_id":4}} {"test_field":"test4"} {"index":{"_index":"test_index","_type":"test_type","_id":2}} {"test_field":"replaces test2"} {"update":{"_index":"test_index","_type":"test_type","_id":1}} {"doc":{"test_field2":"partial updated test1"}}
{ "took": 17, "errors": true, "items": [ { "delete": { "found": true, "_index": "test_index", "_type": "test_type", "_id": "10", "_version": 3, "result": "deleted", "_shards": { "total": 2, "successful": 1, "failed": 0 }, "status": 200 } }, { "create": { "_index": "test_index", "_type": "test_type", "_id": "3", "_version": 1, "result": "created", "_shards": { "total": 2, "successful": 1, "failed": 0 }, "created": true, "status": 201 } }, { "create": { "_index": "test_index", "_type": "test_type", "_id": "2", "status": 409, "error": { "type": "version_conflict_engine_exception", "reason": "[test_type][2]: version conflict, document already exists (current version [17])", "index_uuid": "d7GOSxVnTNKYuI8x7cZfkA", "shard": "2", "index": "test_index" } } }, { "index": { "_index": "test_index", "_type": "test_type", "_id": "4", "_version": 2, "result": "updated", "_shards": { "total": 2, "successful": 1, "failed": 0 }, "created": false, "status": 200 } }, { "index": { "_index": "test_index", "_type": "test_type", "_id": "2", "_version": 18, "result": "updated", "_shards": { "total": 2, "successful": 1, "failed": 0 }, "created": false, "status": 200 } }, { "update": { "_index": "test_index", "_type": "test_type", "_id": "1", "_version": 3, "result": "updated", "_shards": { "total": 2, "successful": 1, "failed": 0 }, "status": 200 } } ] }
bulk操做中,任意一个操做失败,是不会影响其余的操做的,可是在返回结果里,会告诉你异常日志数组
BulkIndex语法:(指定Index)性能优化
POST /test_index/_bulk { "delete": { "_type": "test_type", "_id": "3" }} { "create": { "_type": "test_type", "_id": "12" }} { "test_field": "test12" } { "index": { "_type": "test_type" }} { "test_field": "auto-generate id test" } { "index": { "_type": "test_type", "_id": "2" }} { "test_field": "replaced test2" } { "update": { "_type": "test_type", "_id": "1", "_retry_on_conflict" : 3} } { "doc" : {"test_field2" : "bulk test1"} }
BulkIndex语法:(指定Index、type)网络
POST /test_index/test_type/_bulk { "delete": { "_id": "3" }} { "create": { "_id": "12" }} { "test_field": "test12" } { "index": { }} { "test_field": "auto-generate id test" } { "index": { "_id": "2" }} { "test_field": "replaced test2" } { "update": { "_id": "1", "_retry_on_conflict" : 3} } { "doc" : {"test_field2" : "bulk test1"} }
bulk size最佳大小:bulk request会加载到内存里,若是太大的话,性能反而会降低,所以须要反复尝试一个最佳的bulk size。通常从1000~5000条数据开始,尝试逐渐增长。另外,若是看大小的话,最好是在5~15MB之间。数据结构
咱们知道,一个index的数据会被分红多个分片shard,因此说一个document只能存在与一个shard中。负载均衡
当客户端建立document的时候,elasticsearch此时就须要决定这个document是放在这个index的哪一个分片shard中,这个过程就称之为document routing,即数据路由。
算法;shard = hash(routing) % number_of_primary_shards
举个例子,假设一个index有5个primary shard(p0,p1,p2,p3,p4)。每次对index的一个document进行增删改查的时候,都会带过来一个routing number,默认就是这个documentd的_id(多是手动指定,也能够是自动生成),routing=_id。
假设_id=1,那么就会将routing=1这个routing值传入一个hash函数中,产生一个routing值的hash值,假设hash(routing)=21,而后将hash函数产生的值对这个index的primary shard的数量求余数,21 % 5 = 1
也就决定了这个document就放在p1上。
注意:此这个计算过程就能够看出,决定一个document在哪一个shard上,最重要的值就是routing值,默认是_id,也能够手动指定,相同的routing值,每次过来,从hash函数中生成的hash值必定是相同的。不管最后计算的hash值是多少,对number_of_primary_shards求余数,结果必定在0~number_of_primary_shards之间。
决定一个document在哪一个shard上,最重要的一个值就是routing值,默认是_id,也能够手动指定,相同的routing值,每次过来,从hash函数中,产出的hash值必定是相同的
默认的routing就是_id
也能够在发送请求的时候,手动指定一个routing value,好比说put /index/type/id?routing=user_id
手动指定routing value是颇有用的,能够保证说,某一类document必定被路由到一个shard上去,那么在后续进行应用级别的负载均衡,以及提高批量读取的性能的时候,是颇有帮助的
//先插入数据 PUT /test_index/test_doc/10 { "test_field": "test10 routing _id" } //获取数据不带routing参数 GET /test_index/test_doc/10 { "_index" : "test_index", "_type" : "_doc", "_id" : "10", "_version" : 1, "_seq_no" : 0, "_primary_term" : 1, "found" : true, "_source" : { "test_field" : "test10 routing _id" } } //获取数据带routing参数 参数值为_id GET /test_index/test_doc/10?routing=10 { "_index" : "test_index", "_type" : "_doc", "_id" : "10", "_version" : 1, "_seq_no" : 0, "_primary_term" : 1, "found" : true, "_source" : { "test_field" : "test10 routing _id" } }
//先插入数据 PUT /test_index/test_doc/11?routing=12 { "test_field": "test routing not _id" } //获取数据不带routing参数 GET /test_index/test_doc/11 { "_index" : "test_index", "_type" : "_doc", "_id" : "11", "found" : false } //获取数据带routing参数 参数值为自定义的值 GET /test_index/test_doc/11?routing=12 { "_index" : "test_index", "_type" : "_doc", "_id" : "11", "_version" : 1, "_seq_no" : 9, "_primary_term" : 1, "_routing" : "12", "found" : true, "_source" : { "test_field" : "test routing not _id" } }
主分片数量不可变
经过上面的分析,特别是路由算法,咱们不难知道,在咱们最开始建立索引的时候,肯定了primary shard的数量,以后根据路由算法,每一个document就被路由到了指定的shard上面,以后的各类操做路由规则都是同样的。试想一下,若是咱们改变了primary shard的数量,那么路由算法取余的时候值可能就跟以前的不同了,就会被路由到其它的shard上面去,就会致使数据混乱,本该已经存在的document,可能经过查询根本查不到,某种程度上说这也会形成数据的丢失。
下面手工画图展现一下上面的过程:
假设咱们有2个节点,5个primary shard replica=1
consistency
默认状况下,主分片须要法定数量或大部分的分片副本(其中分片副本能够是主分片或副本分片)在尝试写入操做以前可用。这是为了防止将数据写入网络分区的 “wrong side”。法定人数定义以下:
int((primary + number_of_replicas)/ 2)+ 1
容许的值consistency是one(仅主要分片),all (主要和全部副本),或默认quorum或大多数分片副本。
请注意,它number_of_replicas是索引设置中指定的副本数,而不是当前活动的副本数。若是您已指定索引应具备三个副本,则仲裁将以下所示:
int( (primary + 3 replicas) / 2 ) + 1 = 4
可是,若是仅启动两个节点,则将没有足够的活动分片副原本知足仲裁,而且您将没法索引或删除任何文档。
timeout
若是可用的分片副本不足,会发生什么?Elasticsearch等待,但愿会出现更多的分片。默认状况下,它将等待最多1分钟。若是须要,可使用timeout参数让它更快地停止:100是100毫秒,30s是30秒。
注意
默认状况下,新索引具备一个副本,这意味着应该须要两个活动分片副本以知足须要的quorum。可是,这些默认设置会阻止咱们对单节点群集执行任何有用的操做。为避免此问题,仅当number_of_replicas大于1时才强制要求仲裁。
移除consistency这个参数以后,用wait_for_active_shards这个参数替代了。
缘由就是,consistency检查是在Put以前作的。然而,虽然检查的时候,shard知足quorum,可是真正从primary shard写到replica以前,仍会出现shard挂掉,但Update Api会返回succeed。所以,这个检查并不能保证replica成功写入,甚至这个primary shard是否能成功写入也未必能保证。
为了提升对系统写入的弹性,使用wait_for_active_shards,能够将索引操做配置为在继续操做以前等待必定数量的活动分片副本。若是必需数量的活动分片副本不可用,则写入操做必须等待并重试,直到必需的分片副本已启动或发生超时。默认状况下,写入操做仅等待主分片在继续(即wait_for_active_shards=1)以前处于活动状态。
注意,此设置大大下降了写入操做不写入所需数量的分片副本的可能性,但它并未彻底消除这种可能性,由于此检查在写入操做开始以前发生。一旦写入操做正在进行,复制在任何数量的分片副本上仍然可能失败,但仍然能够在主分片上成功。在_shards写操做的响应部分揭示了其复制成功/失败碎片的份数。
查询请求打过来Elasticsearch内部作了什么?
对于读取请求,协调节点将在每一个请求上选择不一样的分片副本以平衡负载; 它循环遍历全部碎片副本。
在索引文档时,文档可能已经存在于主分片上但还没有复制到副本分片。在这种状况下,副本可能会报告文档不存在,而主副本可能会成功返回文档。索引请求将成功返回给用户后,该文档将在主分片和全部副本分片上可用。
最后简单描述一下随机轮询算法:
举个例子,好比一个协调节点coordinating接受到一个document的4次请求,就会使用随机轮询算法,循环遍历全部shard,将4次请求均匀的打在全部shard上面,好比有4个shard,就会每一个shard各一个请求。
为何bulk要采用这种奇特的json格式?
因为bulk中的每一个操做均可能要转发到不一样的node的shard去执行,假设咱们不用这种奇特的json格式,采用比较良好的json数组格式,容许任意的换行,整个可读性很是棒,读起来很爽。可是ES拿到这种标准格式的json串以后,要按照下述流程去进行执行处理。
格式以下:
[{ "action": { }, "data": { } }]
不难看出这样就会耗费更多的内存,更多的jvm gc开销。
假设一个场景,对于bulk size的大小通常建议在几千条,大小在10MB左右,因此说,可怕的事情来了。假设说如今100个bulk请求发送到了一个节点上去,而后每一个请求是10MB,100个请求就是1000MB=1G,而后每一个请求的json都copy一份JSONArray对象,此时内存中的占用就会翻倍,就会占用2GB的内存,甚至还不止,由于弄成JSONArray对象以后,还可能会多弄一些其它的数据结构,2GB+的内存占用。
占用更多的内存可能就会积压其它请求的内存使用量,好比说最重要的搜索请求,分析请求等等。此时就可能会致使其它请求的性能急速降低,另外的话,占用内存更多,就会致使java虚拟机的垃圾回收次数更多,更加频繁,每次要回收的垃圾对象更多,耗费的时间更多,致使ES的java虚拟机中止工做线程的时间更多。
而使用这个奇特格式的json
{"action": {"meta"}}\n {"data"}\n {"action": {"meta"}}\n {"data"}\n
和标准格式的json相比,最大的优点在于不须要将json数组解析为一个JSONArray对象,造成一份大数据的拷贝,浪费内存空间,尽量的保证性能。
示例:
PUT _bulk {"index": {"_index": "test","_type":"test_doc", "_id": "1"}} {"field1": "value1", "field2": "value2"} {"index": {"_index": "test","_type":"test_doc", "_id": "2"}} {"field1": "value1 id2", "field2": "value2 id2"} {"delete": {"_index": "test","_type":"test_doc", "_id": "2"}} {"create": {"_index": "test","_type":"test_doc", "_id": "3"}} {"field1": "value3"} {"update": {"_index": "test", "_type":"test_doc","_id": "1"}} {"doc": {"field2": "value2"}}
{ "took": 136, "errors": false, "items": [ { "index": { "_index": "test", "_type": "test_doc", "_id": "1", "_version": 1, "result": "created", "_shards": { "total": 2, "successful": 1, "failed": 0 }, "created": true, "status": 201 } }, { "index": { "_index": "test", "_type": "test_doc", "_id": "2", "_version": 1, "result": "created", "_shards": { "total": 2, "successful": 1, "failed": 0 }, "created": true, "status": 201 } }, { "delete": { "found": true, "_index": "test", "_type": "test_doc", "_id": "2", "_version": 2, "result": "deleted", "_shards": { "total": 2, "successful": 1, "failed": 0 }, "status": 200 } }, { "create": { "_index": "test", "_type": "test_doc", "_id": "3", "_version": 1, "result": "created", "_shards": { "total": 2, "successful": 1, "failed": 0 }, "created": true, "status": 201 } }, { "update": { "_index": "test", "_type": "test_doc", "_id": "1", "_version": 1, "result": "noop", "_shards": { "total": 2, "successful": 1, "failed": 0 }, "status": 200 } } ] }