zoukankan      html  css  js  c++  java
  • elasticsearch 路由文档到分片

    路由文档到分片

    当你索引一个文档,它被存储在单独一个主分片上。Elasticsearch是如何知道文档属于哪个分片的呢?当你创建一个新文档,它是如何知道是应该存储在分片1还是分片2上的呢?

    进程不能是随机的,因为我们将来要检索文档。事实上,它根据一个简单的算法决定:

    shard = hash(routing) % number_of_primary_shards
    

    routing值是一个任意字符串,它默认是_id但也可以自定义。这个routing字符串通过哈希函数生成一个数字,然后除以主切片的数量得到一个余数(remainder),余数的范围永远是0number_of_primary_shards - 1,这个数字就是特定文档所在的分片。

    这也解释了为什么主分片的数量只能在创建索引时定义且不能修改:如果主分片的数量在未来改变了,所有先前的路由值就失效了,文档也就永远找不到了。

    有时用户认为固定数量的主分片会让之后的扩展变得很困难。现实中,有些技术会在你需要的时候让扩展变得容易。

    所有的文档API(getindexdeletebulkupdatemget)都接收一个routing参数,它用来自定义文档到分片的映射。自定义路由值可以确保所有相关文档——例如属于同一个人的文档——被保存在同一分片上。我们将在《扩展》章节说明你为什么需要这么做。

    参考: http://es.xiaoleilu.com/040_Distributed_CRUD/05_Routing.html

    而我们为什么会需要自定义的Routing模式呢?首先默认的Routing模式在很多情况下都是能满足我们的需求的——平均的数据分布、对我们来说是透明的、多数时候性能也不是问题。但是在我们更深入地理解我们的数据的特征之后,使用自定义的Routing模式可能会给我们带来更好的性能。

    通常情况下,ElasticSearch是如何把数据分发到各个分片中,哪个分片存储哪一类的文档等细节并不重要。因为查询时,将查询命令分发到每个分片 就OK了。唯一的关键点在于算法,将数据均等地分配到各个分片的算法。在删除或者更新文档时,情况就会变得有点复杂了。实际上,这也不是什么大问题。只要 保证分片算法在处理文档时,对于相同的文档标识生成相同的映射值就可以了。如果我们有这样的分片算法,ElasticSearch就知道在处理文档时,如 何定位到正确的分片。但是,在选择文档的存储分片时,采用一个更加智能的办法不就更省事儿了吗?比如,把某一特定类型的书籍存储到特定的分片上去,这样在 搜索这一类书籍的时候就可以避免搜索其它的分片,也就避免了多个分片搜索结果的合并。这就是路由功能(routing)的用武之地。路由功能向 ElasticSearch提供一种信息来决定哪些分片用于存储和查询。同一个路由值将映射到同一个分片。这基本上就是在说:“通过使用用户提供的路由值,就可以做到定向存储,定向搜索。”

    假设你有一个100个分片的索引。当一个请求在集群上执行时会发生什么呢?

    1. 这个搜索的请求会被发送到一个节点

    2. 接收到这个请求的节点,将这个查询广播到这个索引的每个分片上(可能是主分片,也可能是复制分片)

    3. 每个分片执行这个搜索查询并返回结果

    4. 结果在通道节点上合并、排序并返回给用户


    因为默认情况下,Elasticsearch使用文档的ID(类似于关系数据库中的自增ID,当然,如果不指定ID的 话,Elasticsearch使用的是随机值)将文档平均的分布于所有的分片上,这导致了Elasticsearch不能确定文档的位置,所以它必须将 这个请求广播到所有的100个分片上去执行。这同时也解释了为什么主分片的数量在索引创建的时候是固定下来的,并且永远不能改变。因为如果分片的数量改变 了,所有先前的路由值就会变成非法了,文档相当于丢失了。

    原来的查询语句:“请告诉我,USER1的文档数量一共有多少”

    使用自定义Routing(在USESR ID上)后的查询语句:“请告诉我,USER1的文档数量一共有多少,它就在第三个分片上,其它的分片就不要去扫描了”


    指定个性化路由

    所有的文档API(get,index,delete,update和mget)都能接收一个routing参数,可以用来形成个性化文档分片映射。一个个性化的routing值可以确保相关的文档存储到同样的分片上——比如,所有属于同一个用户的文档。


    第一种方法,也是比较直观的方法就是直接在请求的URL中指定routing参数:

        curl -XPOST 'http://localhost:9200/store/order?routing=user123' -d '  
        {  
            "productName": "sample",  
            "customerID": "user123"  
        }'  

    这样我们就按照用户的customerID的值将具有相同customerID的文档置于同一分片上了。

    第二种方法就是直接从文档中提取到对应的路由值:

        curl -XPUT 'http://localhost:9200/store/order/_mapping' -d '  
        {  
            "order": {  
                "_routing": {  
                    "required": true,  
                    "path": "customerID"  
                }  
            }  
        }'  

    这样的方法和第一种方法在效果上一样的,但是有一点需要注意,相比于第一种方法这种方法的效率稍低,因为第一种方法直接就在请求的参数中确定了路由的值,而第二种方法中,首先需要将文档读入之后,再从中提取到对应的路由值。

    利用路由机制的查询

    利用路由机制的查询也是非常简单明了的,只需要在查询中指定对应的路由值即可:

        curl -XGET 'http://localhost:9200/store/order/_search?routing=user123' -d '  
        {  
            "query": {  
                "filtered": {  
                    "query": {  
                        "match_all": {}  
                    },  
                    "filter": {  
                        "term": {  
                            "userID": "user123"  
                        }  
                    }  
                }  
            }  
        }'  

    通过指定的路由值,我们就可以直接定位到user123的文档所在的分片,而不用一股脑的向索引的所有节点都发送请求。这样的话,会大大减少系统资源的浪费。

    当然,也可以同时指定多个路由值,方法也是显而易见的,只需要在查询参数中指定多个路由值即可:

        curl -XGET 'http://localhost:9200/forum/posts/?routing=Admin,Moderator' -d '{}'  

    路由机制的总结

    实际上,如果不明确指明使用路由机制,实际上路由机制也是在发挥作用的,只是默认的路由值是文档的id而已。而个性化路由的需求主要是和业务相关 的。默认的路由(如果是自动的生成的id)直观上会把所有的文档随机分配到一个分片上,而个性化的路由值就是和业务相关的了。这也会造成一些潜在的问题, 比如user123本身的文档就非常多,有数十万个,而其他大多数的用户只有几个文档,这样的话就会导致user123所在的分片较大,出现数据偏移的情 况,特别是多个这样的用户处于同一分片的时候,现象会更明显。具体的使用还是要结合实际的应用场景来选择的。

    参考:http://blog.csdn.net/cnweike/article/details/38531997

  • 相关阅读:
    Matlab之快速傅里叶变换
    关于Debug和Release的区别 (VS C#)
    QSqlQuery::value: not positioned on a valid record
    UML系列图--用例图
    SQLite 数据类型总结
    c++构造函数
    求Fibonacci数列通项公式
    ObjectMapper类
    命令行运行jar 提示找不到主程序解决方案
    httpclient框架实现接口自动化的思路(二)
  • 原文地址:https://www.cnblogs.com/bonelee/p/6055340.html
Copyright © 2011-2022 走看看