zoukankan      html  css  js  c++  java
  • Java:HashMap原理与设计缘由

    Java:HashMap原理与设计缘由

    前言

    Java中使用最多的数据结构基本就是ArrayList和HashMap,HashMap的原理也常常出现在各种面试题中,本文就HashMap的设计与设计缘由作出一一讲解,并点明面试常见的一些问题。

    一 HashMap数据结构

    HashMap是一张哈希表(即数组),表中的每个元素都是键值对(Map.Entry类)。并且每个元素都是一个链表(红黑树)的节点。并且HashMap的数组长度一定是2的次幂

    1.1 为何数组长度一定是2的次幂

    正常情况下,新增节点时,会对节点进行取模运算,确定节点在哈希表中的位置。但是当哈希表(数组)长度为2的次幂时,取模运算可以修改为位与运算
    源码如下:

    static final int hash(Object key) {
        if (key == null){
            return 0;
        }
        int h;
        h = key.hashCode();返回散列值也就是hashcode
        // ^ :按位异或
        // >>>:无符号右移,忽略符号位,空位都以0补齐
        //其中n是数组的长度,即Map的数组部分初始化长度
        return (n-1)&(h ^ (h >>> 16));
    }
    

    具体原理可以参考专门讲解该算法的文章:
    由HashMap哈希算法引出的求余%和与运算&转换问题

    二 HashMap的键值存储

    我们给 put() 方法传递键和值时,我们先对键调用 hashCode() 方法,计算并返回 hashCode,然后使用HashMap内部的hash算法,将hashCode计算为表中的具体位置,找到 Map 数组的 bucket 位置来储存 Node 对象。

    三 解决Hash碰撞

    使用拉链法

    如果hash到的数组位置已存在对象,即为Hash碰撞。JDK使用拉链法解决Hash碰撞问题。
    即以原有的Node节点为基础,构造链表。将新的Node节点设为链表表头。

    3.1 JDK7中新节点为表头

    如果已原有节点为表头,则需要遍历链表,徒增不必要的性能消耗

    3.2 JDK8中新节点为表尾

    因为JDK8中链表在长度大于等于8时会转变为红黑树,所以每次在链表中添加节点,都必须遍历链表计算一次链表长度,所以新节点直接在遍历完链表后添加到表尾。

    3.3 链表过长导致的复杂度问题

    HashMap的查询操作最佳时间复杂度是O(1),但是当表中的某个链表过长时,查询该链表上的元素时间复杂度为O(n)JDK1.8中解决了该问题,当HashMap中某链表长度大于8时,链表会重构为红黑树,这样,HashMap的最坏时间复杂度为O(n)。同理,为了不必要的消耗,当链表长度小于6时,红黑树会重新变回链表

    3.4 还有什么方法解决Hash碰撞

    开放寻址法,再哈希法
    感兴趣可以参看此文:
    Hash碰撞和解决策略

    四 HashMap的扩容

    4.1 扩容时机

    当size超过阈值(数组长度*负载因子)时,即开始扩容,HashMap的负载因子为0.75。

    4.1.1 为何要数组未满就扩容

    避免频繁出现Hash碰撞,造成拉链过长(红黑树过长)。这样会导致查询复杂度频繁出现最坏情况

    4.2 扩容过程

    创建原本数组容量*2的新数组,将节点从原本的数组中迁移过去。

    4.2.1 为何扩容的倍数是2倍

    原因一上文已说明,方便进行哈希运算。
    原因二是不需要重新计算Hash值(JDK1.8优化)。经过观测可以发现,我们使用的是2次幂的扩展(指长度扩为原来2倍),所以,经过rehash之后,元素的位置要么是在原位置,要么是在原位置再移动2次幂的位置。对应的就是下方的resize的注释。

    /** 
     * Initializes or doubles table size.  If null, allocates in 
     * accord with initial capacity target held in field threshold. 
     * Otherwise, because we are using power-of-two expansion, the 
     * elements from each bin must either stay at same index, or move 
     * with a power of two offset in the new table. 
     * 
     * @return the table 
     */  
    final Node<K,V>[] resize() {  }
    
    

    看下图可以明白这句话的意思,n为table的长度,图(a)表示扩容前的key1和key2两种key确定索引位置的示例,图(b)表示扩容后key1和key2两种key确定索引位置的示例,其中hash1是key1对应的哈希值(也就是根据key1算出来的hashcode值)与高位与运算的结果。

    元素在重新计算hash之后,因为n变为2倍,那么n-1的mask范围在高位多1bit(红色),因此新的index就会发生这样的变化:

    因此,我们在扩充HashMap的时候,不需要像JDK1.7的实现那样重新计算hash,只需要看看原来的hash值新增的那个bit是1还是0就好了,是0的话索引没变,是1的话索引变成“原索引+oldCap”。

    五 重写equals方法需同时重写hashCode方法

    这个是老生常谈的问题了,如果顺利理解了HashMap的底层结构那么这个问题就很好理解了。equals相同的key理论上必定有相同hashCode,所以必须也重写hashCode方法。可以思考下如果没重写,在put,get过程中会导致什么问题。

    该文章原创自EricTao

    博客:https://www.erictao2.com/

    本文版权归作者所有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出, 如有问题, 可邮件(erictaotwo@gmail.com)咨询。
  • 相关阅读:
    idea快捷方式2
    idea快捷方式1
    小程序数组倒序
    小程序列表倒计时 wxs 实现
    cnpm
    小程序的空判断
    小程序正则写法
    Sphinx中文入门指南——新手可先看此文
    sphinx –rotate机制详解
    sphinx数据文件简析
  • 原文地址:https://www.cnblogs.com/taojinxuan/p/11133495.html
Copyright © 2011-2022 走看看