zoukankan      html  css  js  c++  java
  • 【算法】一致性哈希算法实现

    一致性Hash算法介绍

      算法的具体原理这里再次贴上:

      先构造一个长度为232的整数环(这个环被称为一致性Hash环),根据节点名称的Hash值(其分布为[0, 232-1])将服务器节点放置在这个Hash环上,然后根据数据的Key值计算得到其Hash值(其分布也为[0, 232-1]),接着在Hash环上顺时针查找距离这个Key值的Hash值最近的服务器节点,完成Key到服务器的映射查找。

      这种算法解决了普通余数Hash算法伸缩性差的问题,可以保证在上线、下线服务器的情况下尽量有多的请求命中原来路由到的服务器。

      当然,万事不可能十全十美,一致性Hash算法比普通的余数Hash算法更具有伸缩性,但是同时其算法实现也更为复杂,本文就来研究一下,如何利用Java代码实现一致性Hash算法。在开始之前,先对一致性Hash算法中的几个核心问题进行一些探究。

    数据结构的选取

      一致性Hash算法最先要考虑的一个问题是:构造出一个长度为232的整数环,根据节点名称的Hash值将服务器节点放置在这个Hash环上。

      那么,整数环应该使用何种数据结构,才能使得运行时的时间复杂度最低?首先说明一点,关于时间复杂度,常见的时间复杂度与时间效率的关系有如下的经验规则:

      O(1) < O(log2N) < O(N) < O(N * log2N) < O(N2) < O(N3)  < O(N!)

      一般来说,前四个效率比较高,中间两个差强人意,最后一个后比较差(只要N比较大,这个算法就动不了了)。OK,继续前面的话题,应该如何选取数据结构,我认为有以下几种可行的解决方案。

    1、解决方案一:排序+List

      我想到的第一种思路是:算出所有待加入数据结构的节点名称的Hash值放入一个数组中,然后使用某种排序算法将其从小到大进行排序,最后将排序后的数据放入List中,采用List而不是数组是为了结点的扩展考虑。

      之后,待路由的结点,只需要在List中找到第一个Hash值比它大的服务器节点就可以了,比如服务器节点的Hash值是[0,2,4,6,8,10],带路由的结点是7,只需要找到第一个比7大的整数,也就是8,就是我们最终需要路由过去的服务器节点。

      如果暂时不考虑前面的排序,那么这种解决方案的时间复杂度:

    • 最好的情况是第一次就找到,时间复杂度为O(1)
    • 最坏的情况是最后一次才找到,时间复杂度为O(N)

      平均下来时间复杂度为O(0.5N+0.5),忽略首项系数和常数,时间复杂度为O(N)。

       

      看得出来,排序算法要么稳定但是时间复杂度高、要么时间复杂度低但不稳定,看起来最好的归并排序法的时间复杂度仍然有O(N * logN),稍微耗费性能了一些。

    2、解决方案二:遍历+List

      既然排序操作比较耗性能,那么能不能不排序?可以的,所以进一步的,有了第二种解决方案。

      解决方案使用List不变,不过可以采用遍历的方式:

    • 服务器节点不排序,其Hash值全部直接放入一个List中
    • 带路由的节点,算出其Hash值,由于指明了"顺时针",因此遍历List,比待路由的节点Hash值大的算出差值并记录,比待路由节点Hash值小的忽略
    • 算出所有的差值之后,最小的那个,就是最终需要路由过去的节点

      在这个算法中,看一下时间复杂度:

    • 最好情况是只有一个服务器节点的Hash值大于带路由结点的Hash值,其时间复杂度是O(N)+O(1)=O(N+1),忽略常数项,即O(N)
    • 最坏情况是所有服务器节点的Hash值都大于带路由结点的Hash值,其时间复杂度是O(N)+O(N)=O(2N),忽略首项系数,即O(N)

      所以,总的时间复杂度就是O(N)。其实算法还能更改进一些:给一个位置变量X,如果新的差值比原差值小,X替换为新的位置,否则X不变。这样遍历就减少了一轮,不过经过改进后的算法时间复杂度仍为O(N)。

      总而言之,这个解决方案和解决方案一相比,总体来看,似乎更好了一些。

    3、解决方案三:二叉查找树

      抛开List这种数据结构,另一种数据结构则是使用二叉查找树。对于树不是很清楚的朋友可以简单看一下这篇文章树形结构

      当然我们不能简单地使用二叉查找树,因为可能出现不平衡的情况。平衡二叉查找树有AVL树、红黑树等,这里使用红黑树,选用红黑树的原因有两点:

    • 红黑树主要的作用是用于存储有序的数据,这其实和第一种解决方案的思路又不谋而合了,但是它的效率非常高
    • JDK里面提供了红黑树的代码实现TreeMap和TreeSet

      另外,以TreeMap为例,TreeMap本身提供了一个tailMap(K fromKey)方法,支持从红黑树中查找比fromKey大的值的集合,但并不需要遍历整个数据结构。

      使用红黑树,可以使得查找的时间复杂度降低为O(logN),比上面两种解决方案,效率大大提升。

      为了验证这个说法,我做了一次测试,从大量数据中查找第一个大于其中间值的那个数据,比如10000数据就找第一个大于5000的数据(模拟平均的情况)。看一下O(N)时间复杂度和O(logN)时间复杂度运行效率的对比:

      

      因为再大就内存溢出了,所以只测试到4000000数据。可以看到,数据查找的效率,TreeMap是完胜的,其实再增大数据测试也是一样的,红黑树的数据结构决定了任何一个大于N的最小数据,它都只需要几次至几十次查找就可以查到。

      当然,明确一点,有利必有弊,根据我另外一次测试得到的结论是,为了维护红黑树,数据插入效率TreeMap在三种数据结构里面是最差的,且插入要慢上5~10倍

    Hash值重新计算

      服务器节点我们肯定用字符串来表示,比如"192.168.1.1"、"192.168.1.2",根据字符串得到其Hash值,那么另外一个重要的问题就是Hash值要重新计算,这个问题是我在测试String的hashCode()方法的时候发现的,不妨来看一下为什么要重新计算Hash值:

     1 /**
     2  * String的hashCode()方法运算结果查看
     3  * @author 五月的仓颉 http://www.cnblogs.com/xrq730/
     4  *
     5  */
     6 public class StringHashCodeTest
     7 {
     8     public static void main(String[] args)
     9     {
    10         System.out.println("192.168.0.0:111的哈希值:" + "192.168.0.0:1111".hashCode());
    11         System.out.println("192.168.0.1:111的哈希值:" + "192.168.0.1:1111".hashCode());
    12         System.out.println("192.168.0.2:111的哈希值:" + "192.168.0.2:1111".hashCode());
    13         System.out.println("192.168.0.3:111的哈希值:" + "192.168.0.3:1111".hashCode());
    14         System.out.println("192.168.0.4:111的哈希值:" + "192.168.0.4:1111".hashCode());
    15     }
    16 }

      我们在做集群的时候,集群点的IP以这种连续的形式存在是很正常的。看一下运行结果为:

    192.168.0.0:111的哈希值:1845870087
    192.168.0.1:111的哈希值:1874499238
    192.168.0.2:111的哈希值:1903128389
    192.168.0.3:111的哈希值:1931757540
    192.168.0.4:111的哈希值:1960386691

      这个就问题大了,[0,232-1]的区间之中,5个HashCode值却只分布在这么小小的一个区间,什么概念?[0,232-1]中有4294967296个数字,而我们的区间只有114516604,从概率学上讲这将导致97%待路由的服务器都被路由到"192.168.0.0"这个集群点上,简直是糟糕透了!

      另外还有一个不好的地方:规定的区间是非负数,String的hashCode()方法却会产生负数(不信用"192.168.1.0:1111"试试看就知道了)。不过这个问题好解决,取绝对值就是一种解决的办法。

      综上,String重写的hashCode()方法在一致性Hash算法中没有任何实用价值,得找个算法重新计算HashCode。这种重新计算Hash值的算法有很多,比如CRC32_HASH、FNV1_32_HASH、KETAMA_HASH等,其中KETAMA_HASH是默认的MemCache推荐的一致性Hash算法,用别的Hash算法也可以,比如FNV1_32_HASH算法的计算效率就会高一些。

    一致性Hash算法实现版本1:不带虚拟节点

      使用一致性Hash算法,尽管增强了系统的伸缩性,但是也有可能导致负载分布不均匀,解决办法就是使用虚拟节点代替真实节点,第一个代码版本,先来个简单的,不带虚拟节点。

    下面来看一下不带虚拟节点的一致性Hash算法的Java代码实现:

     1 /**
     2  * 不带虚拟节点的一致性Hash算法
     3  * @author 五月的仓颉http://www.cnblogs.com/xrq730/
     4  *
     5  */
     6 public class ConsistentHashingWithoutVirtualNode
     7 {
     8     /**
     9      * 待添加入Hash环的服务器列表
    10      */
    11     private static String[] servers = {"192.168.0.0:111", "192.168.0.1:111", "192.168.0.2:111",
    12             "192.168.0.3:111", "192.168.0.4:111"};
    13 
    14     /**
    15      * key表示服务器的hash值,value表示服务器的名称
    16      */
    17     private static SortedMap<Integer, String> sortedMap =
    18             new TreeMap<Integer, String>();
    19 
    20     /**
    21      * 程序初始化,将所有的服务器放入sortedMap中
    22      */
    23     static
    24     {
    25         for (int i = 0; i < servers.length; i++)
    26         {
    27             int hash = getHash(servers[i]);
    28             sortedMap.put(hash, servers[i]);
    29         }
    30         // 遍历查看集合
    31         sortedMap.forEach((k, v) -> {
    32             System.out.println("服务器:" + v + ",	对应Hash值:" + k);
    33         });
    34         System.out.println();
    35     }
    36 
    37     /**
    38      * 使用FNV1_32_HASH算法计算服务器的Hash值,这里不使用重写hashCode的方法,最终效果没区别
    39      */
    40     private static int getHash(String str)
    41     {
    42         // FNV用于散列的质数
    43         final int p = 16777619;
    44         // 初始的哈希值
    45         int hash = (int) 2166136261L;
    46         for (int i = 0; i < str.length(); i++)
    47             hash = (hash ^ str.charAt(i)) * p;
    48         hash += hash << 13;
    49         hash ^= hash >> 7;
    50         hash += hash << 3;
    51         hash ^= hash >> 17;
    52         hash += hash << 5;
    53 
    54         return hash;
    55     }
    56 
    57     /**
    58      * 得到应当路由到的结点
    59      */
    60     private static String getServer(String node)
    61     {
    62         // 得到带路由的结点的Hash值
    63         int hash = getHash(node);
    64         // 得到大于该Hash值的所有Map
    65         SortedMap<Integer, String> subMap = sortedMap.tailMap(hash);
    66 
    67         if (subMap.size() > 0) {
    68             // 第一个Key就是顺时针过去离node最近的那个结点
    69             Integer i = subMap.firstKey();
    70             // 返回对应的服务器名称
    71             return subMap.get(i);
    72         }else {
    73             // 比所有服务器的hash值大,则取最小hash值的服务器
    74             return sortedMap.get(sortedMap.firstKey());
    75         }
    76 
    77     }
    78 
    79     public static void main(String[] args)
    80     {
    81         String[] nodes = {"127.0.0.1:1111", "221.226.0.1:2222", "10.211.0.1:3333"};
    82         for (int i = 0; i < nodes.length; i++) {
    83             System.out.println("服务器[" + nodes[i] + "]	对应hash值为" +
    84                     getHash(nodes[i]) + ",被路由到结点[" + getServer(nodes[i]) + "]");
    85         }
    86     }
    87 }

      可以运行一下看一下结果:

    服务器:192.168.0.4:111,    对应Hash值:-1764547046
    服务器:192.168.0.2:111,    对应Hash值:-1361847097
    服务器:192.168.0.1:111,    对应Hash值:-8518713
    服务器:192.168.0.0:111,    对应Hash值:575774686
    服务器:192.168.0.3:111,    对应Hash值:1171828661
    
    服务器[127.0.0.1:1111]    对应hash值为380278925,被路由到结点[192.168.0.0:111]
    服务器[221.226.0.1:2222]    对应hash值为1493545632,被路由到结点[192.168.0.4:111]
    服务器[10.211.0.1:3333]    对应hash值为1393836017,被路由到结点[192.168.0.4:111]

      看到经过FNV1_32_HASH算法重新计算过后的Hash值,就比原来String的hashCode()方法好多了。从运行结果来看,也没有问题,三个点路由到的都是顺时针离他们Hash值最近的那台服务器上。

    使用虚拟节点来改善一致性Hash算法

      上面的一致性Hash算法实现,可以在很大程度上解决很多分布式环境下不好的路由算法导致系统伸缩性差的问题,但是会带来另外一个问题:负载不均。

      比如说有Hash环上有A、B、C三个服务器节点,分别有100个请求会被路由到相应服务器上。现在在A与B之间增加了一个节点D,这导致了原来会路由到B上的部分节点被路由到了D上,这样A、C上被路由到的请求明显多于B、D上的,原来三个服务器节点上均衡的负载被打破了。某种程度上来说,这失去了负载均衡的意义,因为负载均衡的目的本身就是为了使得目标服务器均分所有的请求

      解决这个问题的办法是引入虚拟节点,其工作原理是:将一个物理节点拆分为多个虚拟节点,并且同一个物理节点的虚拟节点尽量均匀分布在Hash环上。采取这样的方式,就可以有效地解决增加或减少节点时候的负载不均衡的问题。

      至于一个物理节点应该拆分为多少虚拟节点,下面可以先看一张图:

      

    一致性Hash算法实现版本2:带虚拟节点

      在理解了使用虚拟节点来改善一致性Hash算法的理论基础之后,就可以尝试开发代码了。编程方面需要考虑的问题是:

    • 一个真实结点如何对应成为多个虚拟节点?
    • 虚拟节点找到后如何还原为真实结点?

      这两个问题其实有很多解决办法,我这里使用了一种简单的办法,给每个真实结点后面根据虚拟节点加上后缀再取Hash值,比如"192.168.0.0:111"就把它变成"192.168.0.0:111&&VN0"到"192.168.0.0:111&&VN4",VN就是Virtual Node的缩写,还原的时候只需要从头截取字符串到"&&"的位置就可以了。

      下面来看一下带虚拟节点的一致性Hash算法的Java代码实现:

      1 /**
      2  * 带虚拟节点的一致性Hash算法
      3  *
      4  * @author 五月的仓颉 http://www.cnblogs.com/xrq730/
      5  */
      6 public class ConsistentHashingWithVirtualNode {
      7 
      8     /**
      9      * 待添加入Hash环的服务器列表
     10      */
     11     private static String[] servers = {"192.168.0.0:111", "192.168.0.1:111", "192.168.0.2:111",
     12             "192.168.0.3:111", "192.168.0.4:111"};
     13 
     14     /**
     15      * 真实结点列表,考虑到服务器上线、下线的场景,即添加、删除的场景会比较频繁,这里使用LinkedList会更好
     16      */
     17     private static List<String> realNodes = new LinkedList<String>();
     18 
     19     /**
     20      * 虚拟节点,key表示虚拟节点的hash值,value表示虚拟节点的名称
     21      */
     22     private static SortedMap<Integer, String> virtualNodes =
     23             new TreeMap<Integer, String>();
     24 
     25     /**
     26      * 虚拟节点的数目,这里写死,为了演示需要,一个真实结点对应5个虚拟节点
     27      */
     28     private static final int VIRTUAL_NODES = 5;
     29 
     30     static {
     31         // 先把原始的服务器添加到真实结点列表中
     32         for (int i = 0; i < servers.length; i++) {
     33             realNodes.add(servers[i]);
     34         }
     35 
     36         SortedMap<Integer, String> sortMap = new TreeMap<Integer, String>();
     37 
     38         // 再添加虚拟节点,遍历LinkedList使用foreach循环效率会比较高
     39         for (String str : realNodes) {
     40             for (int i = 0; i < VIRTUAL_NODES; i++) {
     41                 String virtualNodeName = str + "&&VN" + String.valueOf(i);
     42                 // 返回的hash(范围是 Integer.MIN_VALUE ~ Integer.MAX_VALUE)
     43                 int hash = getHash(virtualNodeName);
     44                 virtualNodes.put(hash, virtualNodeName + " %" +hash / (Integer.MAX_VALUE / 100));
     45             }
     46         }
     47 
     48         // 遍历查看虚拟节点
     49         virtualNodes.forEach((k, v) -> {
     50             System.out.println("虚拟服务器:" + v + ",	对应Hash值:" + k);
     51         });
     52         System.out.println();
     53     }
     54 
     55     /**
     56      * 使用FNV1_32_HASH算法计算服务器的Hash值,这里不使用重写hashCode的方法,最终效果没区别
     57      */
     58     private static int getHash(String str) {
     59         // FNV用于散列的质数
     60         final int p = 16777619;
     61         // 初始的哈希值
     62         int hash = (int) 2166136261L;
     63         for (int i = 0; i < str.length(); i++)
     64             hash = (hash ^ str.charAt(i)) * p;
     65         hash += hash << 13;
     66         hash ^= hash >> 7;
     67         hash += hash << 3;
     68         hash ^= hash >> 17;
     69         hash += hash << 5;
     70 
     71         return hash;
     72     }
     73 
     74     /**
     75      * 得到应当路由到的结点
     76      */
     77     private static String getServer(String node) {
     78         // 得到带路由的结点的Hash值
     79         int hash = getHash(node);
     80         // 得到大于该Hash值的所有Map
     81         SortedMap<Integer, String> subMap = virtualNodes.tailMap(hash);
     82 
     83         String virtualNode = "";
     84         if (subMap.size() > 0) {
     85             // 第一个Key就是顺时针过去离node最近的那个结点
     86             Integer i = subMap.firstKey();
     87             virtualNode = subMap.get(i);
     88         }else {
     89             // 比所有服务器的hash值大,则取最小hash值的服务器
     90             return virtualNodes.get(virtualNodes.firstKey());
     91         }
     92         // 返回对应的虚拟节点名称,这里字符串稍微截取一下
     93         return virtualNode.substring(0, virtualNode.indexOf("&&"));
     94     }
     95 
     96     public static void main(String[] args) {
     97         String[] nodes = {"127.0.0.1:1111", "221.226.0.1:1111", "10.211.0.1:3333"};
     98         for (int i = 0; i < nodes.length; i++) {
     99             System.out.println("服务器[" + nodes[i] + "]	的hash值为" +
    100                     getHash(nodes[i]) + ", 被路由到结点[" + getServer(nodes[i]) + "]");
    101         }
    102 //        System.out.println("Integer.MIN_VALUE = " + Integer.toBinaryString(Integer.MIN_VALUE));
    103 //        System.out.println("Integer.MIN_VALUE = " + Integer.MIN_VALUE);
    104 //        System.out.println("Integer.MAX_VALUE = " + Integer.toBinaryString(Integer.MAX_VALUE));
    105 //        System.out.println("Integer.MIN_VALUE = " + Integer.toBinaryString(Math.abs(Integer.MIN_VALUE)));
    106 //        System.out.println("Math.abs(Integer.MIN_VALUE) = " + Math.abs(Integer.MIN_VALUE + 1));
    107 //        System.out.println("Integer.MAX_VALUE = " + Integer.MAX_VALUE);
    108 //        System.out.println("Integer.MAX_VALUE = " + Integer.toBinaryString(Math.abs(Integer.MAX_VALUE)));
    109     }
    110 } 

      关注一下运行结果:

    虚拟服务器:192.168.0.2:111&&VN1 %-94,    对应Hash值:-2023612840
    虚拟服务器:192.168.0.2:111&&VN4 %-93,    对应Hash值:-2010506136
    虚拟服务器:192.168.0.4:111&&VN2 %-62,    对应Hash值:-1331645117
    虚拟服务器:192.168.0.4:111&&VN4 %-57,    对应Hash值:-1232193678
    虚拟服务器:192.168.0.1:111&&VN0 %-48,    对应Hash值:-1032739288
    虚拟服务器:192.168.0.1:111&&VN4 %-39,    对应Hash值:-848442551
    虚拟服务器:192.168.0.0:111&&VN3 %-38,    对应Hash值:-817889914
    虚拟服务器:192.168.0.2:111&&VN3 %-36,    对应Hash值:-790847074
    虚拟服务器:192.168.0.3:111&&VN3 %-31,    对应Hash值:-676720500
    虚拟服务器:192.168.0.0:111&&VN4 %-18,    对应Hash值:-396663629
    虚拟服务器:192.168.0.0:111&&VN1 %-16,    对应Hash值:-354859081
    虚拟服务器:192.168.0.1:111&&VN2 %-14,    对应Hash值:-302114528
    虚拟服务器:192.168.0.1:111&&VN3 %-1,    对应Hash值:-36526861
    虚拟服务器:192.168.0.4:111&&VN1 %8,    对应Hash值:184078390
    虚拟服务器:192.168.0.4:111&&VN0 %27,    对应Hash值:586921010
    虚拟服务器:192.168.0.2:111&&VN2 %32,    对应Hash值:697907480
    虚拟服务器:192.168.0.1:111&&VN1 %32,    对应Hash值:707592309
    虚拟服务器:192.168.0.3:111&&VN0 %41,    对应Hash值:891084251
    虚拟服务器:192.168.0.4:111&&VN3 %42,    对应Hash值:918790803
    虚拟服务器:192.168.0.3:111&&VN2 %52,    对应Hash值:1127720370
    虚拟服务器:192.168.0.0:111&&VN2 %60,    对应Hash值:1306497370
    虚拟服务器:192.168.0.2:111&&VN0 %67,    对应Hash值:1452694222
    虚拟服务器:192.168.0.0:111&&VN0 %78,    对应Hash值:1686427075
    虚拟服务器:192.168.0.3:111&&VN1 %80,    对应Hash值:1725031739
    虚拟服务器:192.168.0.3:111&&VN4 %95,    对应Hash值:2050578780
    
    服务器[127.0.0.1:1111]    的hash值为380278925, 被路由到结点[192.168.0.4:111]
    服务器[221.226.0.1:1111]    的hash值为470599669, 被路由到结点[192.168.0.4:111]
    服务器[10.211.0.1:3333]    的hash值为1393836017, 被路由到结点[192.168.0.2:111]

      从代码运行结果看,每个点路由到的服务器都是Hash值顺时针离它最近的那个服务器节点,没有任何问题。

      通过采取虚拟节点的方法,一个真实结点不再固定在Hash换上的某个点,而是大量地分布在整个Hash环上,这样即使上线、下线服务器,也不会造成整体的负载不均衡。

    原文连接:https://www.cnblogs.com/xrq730/p/5186728.html

  • 相关阅读:
    ARM汇编指令
    Linux系统里如何彻底的清空终端屏幕?
    Linux命令(16)压缩,解压文件
    Linux命令(18)查看当前用户who、whoami、who am i
    Linux命令(17)du 查看文件和目录磁盘使用情况
    Mongodb(3)插入文档,更新文档,删除文档
    Mongodb(2)创建数据库,删除数据库,创建集合,删除集合,显示文档内容
    Mongodb(1)如何存储以及简介
    Linux命令(15)查看系统版本信息
    Python 结巴分词(2)关键字提取
  • 原文地址:https://www.cnblogs.com/h--d/p/15021196.html
Copyright © 2011-2022 走看看