zoukankan      html  css  js  c++  java
  • 集合类源码(六)Map(HashMap, Hashtable, LinkedHashMap, WeakHashMap)

    HashMap

    内部结构

    内部是一个Node数组,每个Node都是链表的头,当链表的大小达到8之后链表转变成红黑树。

    put操作

    final V putVal(int hash, K key, V value, boolean onlyIfAbsent, boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        // 当table为空或者长度为0,执行resize
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
        // 根据hash计算对应数组下标
        if ((p = tab[i = (n - 1) & hash]) == null)
            // 如果没有值,直接插入
            tab[i] = newNode(hash, key, value, null);
        else {
            // 如果有值
            Node<K,V> e; K k;
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                // key存在,把当前节点引用存在e中
                e = p;
            else if (p instanceof TreeNode)
                // 如果是树节点,插入树中。这里也一样,如果key冲突了,就返回冲突节点的引用,存储在e中
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else {
                // 插入链表
                for (int binCount = 0; ; ++binCount) {
                    // 插入到链表末尾
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        // 此时如果 binCount大于等于7(因为是从0开始),则将链表转变成红黑树
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    // 找到元素,break
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    // 向后遍历
                    p = e;
                }
            }
            // 修改e所在位置的值(这个位置代码的作用就是处理链表中和树中的冲突key)
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                // 新value覆盖旧value
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                // 返回旧value
                return oldValue;
            }
        }
        ++modCount;
        // 容量达到阈值,扩容
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
    }

    流程可以概括为:如果Node数组为空则先按照默认容量初始化数组。利用计算得到的hsah值确定数组下标,

    1. 如果下标所在位置的Node为null,则直接新创建节点放在此处;

    2. 如果下标所在位置的Node不为null,则判断是否已存在相同key的Node,有则临时存储冲突key涉及的Node的引用;

    3. 如果key不冲突,则判断当前位置的Node的类型,如果为TreeNode,则将其插入树中,如果和树中已有的key冲突了,把涉及到的节点的引用返回并临时存储;如果不是TreeNode,则从头开始遍历链表,把新结点插入到链表尾部,插完之后判断是否达到链表的阈值,决定是否进行红黑树的转变。

    4. 如果有冲突key需要处理,也就是临时变量存储的Node引用不为空,则用新value覆盖旧的value,并返回旧的value。

    5. 如果没有冲突key,则判断添加完毕之后是否需要扩容。

    下面说一下扩容

    // 初始化或者加倍table的大小。如果table为空,则按照默认容量初始化;
    // 如果table不为空,则根据规则把老数组的数据放到新数组中。
    final Node<K,V>[] resize() {
        // 老数组:扩容之前的数组
        Node<K,V>[] oldTab = table;
        // 如果老数组为空,老容量为0
        int oldCap = (oldTab == null) ? 0 : oldTab.length;
        // 老的扩容阈值,默认为0(扩容阈值=容量*负载因子,默认情况下达到容量的75%即需要扩容)
        int oldThr = threshold;
        int newCap, newThr = 0;
        // 老容量大于0,也就是老数组不为空
        if (oldCap > 0) {
            // 如果老容量大于等于最大容量
            if (oldCap >= MAXIMUM_CAPACITY) {
                // 扩容阈值设置为Integer的最大值
                threshold = Integer.MAX_VALUE;
                // 返回旧容量
                return oldTab;
            }
            // 新容量=2*旧容量;新容量小于最大容量 并且 老容量大于等于默认初始化容量(16)
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                // 新扩容阈值=2*老扩容阈值
                newThr = oldThr << 1; // double threshold
        }
        // 如果老的扩容阈值大于0
        else if (oldThr > 0) // initial capacity was placed in threshold
            // 新容量 = 老的扩容阈值
            newCap = oldThr;
        else {               // zero initial threshold signifies using defaults
            // 老的扩容阈值等于0,也就是初始化的时候【这里可以看出,在这个地方进行了初始化的工作:设置默认容量,设置扩容阈值】
            // 新容量等于默认的容量
            newCap = DEFAULT_INITIAL_CAPACITY;
            // 新的扩容阈值等于默认容量的75%
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        if (newThr == 0) {
            // 如果新扩容阈值等于0,则设置新的扩容阈值(新容量的75%)
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        // 更新扩容阈值!
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
            // 按照新容量new了一个新的Node数组
            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        // 更新table!
        table = newTab;
        // 第一次初始化为oldTab=null,不走这个
        if (oldTab != null) {
            // 这里才是真正意义上的扩容操作!
            // 遍历老数组
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                // 老数组当前位置的元素不为null
                if ((e = oldTab[j]) != null) {
                    // 置空,这里可以看出:table中存放的只是Node的引用
                    oldTab[j] = null;
                    // 如果没有后继元素
                    if (e.next == null)
                        // 根据当前元素的hash,放进新数组对应的位置
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)
                        // 如果当前元素类型为TreeNode,主要分为两个部分:1. 将树进行节点拆分 2. 如果达到退化阈值6,将把红黑树退化成链表
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { // 对链表的拆分,实际上和上一步类似,都是把原结构拆分成high和low两部分
                        // low链的head和tail
                        Node<K,V> loHead = null, loTail = null;
                        // high链的head和tail
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        // 查看循环条件可知:遍历原链表e,一直到最后e.next=null
                        do {
                            // 下一个节点
                            next = e.next;
                            // 根据条件:(e.hash & oldCap) == 0 把原链表划分成两部分
                            if ((e.hash & oldCap) == 0) {
                                if (loTail == null)
                                    // low链表为空,直接放在头结点
                                    loHead = e;
                                else
                                    // 否则放在尾部
                                    loTail.next = e;
                                // 移动尾指针
                                loTail = e;
                            }
                            else {
                                // 过程同上
                                if (hiTail == null)
                                    hiHead = e;
                                else
                                    hiTail.next = e;
                                hiTail = e;
                            }
                        } while ((e = next) != null);
                        // 把low链放在新表j的位置上。新表的下标位置与旧表一致都为j 
                        if (loTail != null) {
                            loTail.next = null;
                            newTab[j] = loHead;
                        }
                        // 把high链放在新表[j+oldCap]的位置上
                        if (hiTail != null) {
                            hiTail.next = null;
                            newTab[j + oldCap] = hiHead;
                        }
                    }
                }
            }
        }
        // 返回新table
        return newTab;
    }

    总结一下过程:

    1. 如果table为null,则按照默认配置初始化,容量为16,扩容阈值为16*0.75=12【也就是添加完第13个元素的时候启动扩容】。

    2. 如果table不为null:①、如果老容量大于0,则新容量=2*老容量,新扩容阈值=2*老扩容阈值。②、在不满足①的前提下,新容量=老的扩容阈值。③、在不满足①个②的前提下,初始化新容量为默认的16,新扩容阈值为12。

    3. 如果新的扩容阈值为0,则将其设置为新容量的75%。然后更新HashMap的成员变量threshold为新的扩容阈值。

    4. 利用前面计算出来的新容量,new一个新的Node数组。然后更新HashMap的成员变量table为新的数组。

    5. 如果老数组里面有数据,则将老数组里的数据转移到新数组。遍历老数组,①:当前元素的后继为null,直接把当前元素放在新数组的e.hash & (newCap - 1)位置上。②:如果当前节点有后继元素并且元素类型为TreeNode,则按照树的规则进行拆分;如果元素数量达到阈值6,则退化成一个链表。③:如果当前节点有后继元素并且元素类型为Node,则按照(e.hash & oldCap) == 0规则将链表拆分为两部分,一部分放在新数组j的位置上,一部分放在新数组j+oldCap位置上。

    6. 返回新数组。

     简单来讲:

    1. 当table需要初始化或者需要扩容的时候执行resize。初始化的时候按照默认值进行初始化(容量=16,扩容阈值=12);扩容的时候新容量是老容量的2倍,扩容阈值也是老扩容阈值的2倍。

    2. 每次扩容都会新建一个数组,然后将老table中的元素re-hash到新的table中, 但元素在新旧table中的位置存在一定的联系:要么下标相同,要么相差一个oldCap(原table的大小)。

    扩展一下hash方法

    我们知道默认Object的hashCode()方法是个native方法,也有人说返回值是内存地址,但是事实上

    JDK8 的默认hashCode的计算方法是通过和当前线程有关的一个随机数+三个确定值,运用Marsaglia's xorshift scheme随机数算法得到的一个随机数。

    这位网友解读的很详细:https://www.jianshu.com/p/be943b4958f4

    知道了hashCode的返回值是什么之后,回到HashMap的hash方法

    static final int hash(Object key) {
        int h;
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }

    其返回值是key的hashCode与hashCode无符号右移16位的结果进行异或运算。

    然后计算存储位置的方法 (n - 1) & hash,数组长度-1,和hash值进行按位与操作。

    1. 无符号右移16位,异或运算

    int h = new Object().hashCode();
    int hh = h >>> 16;
    int hash = h ^ hh;
    System.out.println(h + "	" + Integer.toBinaryString(h));
    System.out.println(hh + "		" + Integer.toBinaryString(hh));
    System.out.println(hash + "	" + Integer.toBinaryString(hash));

    执行结果:

    1880587981    1110000000101110111111011001101
    28695         111000000010111
    1880559322    1110000000101110000111011011010

    以上代码取了一个hashCode,然后进行了无符号右移操作和异或操作。

    h                      0111 0000 0001 0111 0111 1110 1100 1101

    h >>> 16    0000 0000 0000 0000 0111 0000 0001 0111

    右移16位,也就是保留了高区的16位。

    按位异或:相同为0,不同为1。0^0=0, 1^1=0, 1^0=1, 0^1=1

    h                        0111 0000 0001 0111 0111 1110 1100 1101

    h >>> 16      0000 0000 0000 0000 0111 0000 0001 0111

    h ^ (h >>> 16)    0111 0000 0001 0111 0000 1110 1101 1010

    原hashCode和右移16位之后的结果做异或操作。也就是自己的高半区低半区做异或操作。混合原始哈希码的高位和低位,得到的结果:高位不变,低位是混合后的结果。

    这一步的目的是增大低位的随机性,进而降低碰撞的几率

    2. 按位与运算

    hash & (n-1)

    这一步骤利用上一步计算得到的hash值,和数组长度减1做按位与运算。

    按位与:有0则0,无0则1。0&0=0, 0&1=0, 1&0=0, 1&1=1

    16-1         0000 0000 0000 0000 0000 0000 0000 1111

    hash         0111 0000 0001 0111 0000 1110 1101 1010

    hash & (n-1)    0000 0000 0000 0000 0000 0000 0000 1010

    1010的十进制就是10

    ==================================

    这一步的目的就是计算位置,而一般我们找位置,取模运算就可以了啊:hash % 16。为什么用按位与运算?

    1. 位运算直接对内存数据进行操作,处理速度非常快。并且移位指令有更高的效率,因为移位指令占2个机器周期,而乘除法指令占4个机器周期。

    2. 因为HashMap要求数组长度为2的幂,在这种情况下, hash & (n-1)  等价于 hash % n

    两种方试都可以,当然选择效率高的方式了。

    总结:对hashCode做右移16位,然后自己的高半区和低半区做异或,就是为了增加hashCode低位的随机性,减少hash碰撞的几率。而hashCode和数组长度减1做与运算,仅仅是因为与运算效率高于取模运算。

    Hashtable

    先来看默认构造方法

    public Hashtable() {
        this(11, 0.75f);
    }

    初始容量是11,并不是16。

    HashMap计算位置用的是与运算,为了提高效率;HashTable为什么直接用取模运算呢?

    HashTable默认的初始大小为11,之后每次扩容为原来的2n+1。这样,HashTable底层数组的大小维持在一个素数(在大于1的整数中,仅有1及其本身能将它整除的数)。

    证明表示:当哈希表的大小为素数时,简单的取模哈希的结果会更加均匀。

    添加操作

    public synchronized V put(K key, V value) {
        // HashTable不允许值为空
        if (value == null) {
            throw new NullPointerException();
        }
        // Makes sure the key is not already in the hashtable.
        Entry<?,?> tab[] = table;
        // 计算hash值
        int hash = key.hashCode();
        // 计算位置(不同:HashMap的做法是(n - 1) & hash)
        int index = (hash & 0x7FFFFFFF) % tab.length;
        @SuppressWarnings("unchecked")
        Entry<K,V> entry = (Entry<K,V>)tab[index];
        // 遍历数组位置的链表
        for(; entry != null ; entry = entry.next) {
            // 如果发现key已存在,则覆盖旧值
            if ((entry.hash == hash) && entry.key.equals(key)) {
                V old = entry.value;
                entry.value = value;
                return old;
            }
        }
        // 检查扩容
        addEntry(hash, key, value, index);
        return null;
    }
    
    private void addEntry(int hash, K key, V value, int index) {
        // 修改次数+1
        modCount++;
        Entry<?,?> tab[] = table;
        // 如果当前元素数量超过了扩容阈值
        if (count >= threshold) {
            // Rehash the table if the threshold is exceeded
            rehash();
            // 指向新table
            tab = table;
            hash = key.hashCode();
            // 重新计算下标
            index = (hash & 0x7FFFFFFF) % tab.length;
        }
        // Creates the new entry.
        @SuppressWarnings("unchecked")
        Entry<K,V> e = (Entry<K,V>) tab[index];
        // 把元素添加到新位置
        tab[index] = new Entry<>(hash, key, value, e);
        // 元素数量+1
        count++;
    }
    
    
    protected void rehash() {
        // 旧容量
        int oldCapacity = table.length;
        // 临时存储旧table数据
        Entry<?,?>[] oldMap = table;
        // 新容量 = 2 * oldCapacity + 1 (左移1位相当于乘2)
        int newCapacity = (oldCapacity << 1) + 1;
        // 检查新容量是否满足要求
        if (newCapacity - MAX_ARRAY_SIZE > 0) {
            if (oldCapacity == MAX_ARRAY_SIZE)
                // Keep running with MAX_ARRAY_SIZE buckets
                return;
            newCapacity = MAX_ARRAY_SIZE;
        }
        Entry<?,?>[] newMap = new Entry<?,?>[newCapacity];
        modCount++;
        // 新的扩容阈值 = 新容量 * 扩容因子(默认0.75)
        threshold = (int)Math.min(newCapacity * loadFactor, MAX_ARRAY_SIZE + 1);
        // 替换旧table
        table = newMap;
        // 重新规划元素位置
        for (int i = oldCapacity ; i-- > 0 ;) {
            for (Entry<K,V> old = (Entry<K,V>)oldMap[i] ; old != null ; ) {
                Entry<K,V> e = old;
                old = old.next;
                int index = (e.hash & 0x7FFFFFFF) % newCapacity;
                e.next = (Entry<K,V>)newMap[index];
                newMap[index] = e;
            }
        }
    }

    过程:

    0. 首先线程安全的保证是synchronized关键字

    1. 对key取hash值,hash值和0x7FFFFFFF做与运算(目的是得出一个正整数),其结果与数组容量做取模运算得出index。

    2. 遍历index位置的链表,判断key是否已存在。

    3. 如果当前存储的元素数量大于等于扩容阈值,则进行扩容

      - 新容量 = 2* 旧容量 + 1,新扩容阈值 = 新容量 * 0.75

      - 把旧数组中的元素rehash放进新数组中

    4. 扩容之后,根据传入的key重新计算下标,并放入新数组中。

    get元素

    public synchronized V get(Object key) {
        Entry<?,?> tab[] = table;
        // 取hash
        int hash = key.hashCode();
        // 计算下标
        int index = (hash & 0x7FFFFFFF) % tab.length;
        // 遍历目标位置的链表,找到即返回
        for (Entry<?,?> e = tab[index] ; e != null ; e = e.next) {
            if ((e.hash == hash) && e.key.equals(key)) {
                return (V)e.value;
            }
        }
        return null;
    }

    小结:

    总体来说没有HashMap复杂,有意思的地方是容量为素数,计算下标用的取模。扩容为旧容量的2倍+1。

    LinkedHashMap

    成员变量

    /**
     * LinkedHashMap 继承了 HashMap.Node
     */
    static class Entry<K,V> extends HashMap.Node<K,V> {
        // 前驱后继,双向链表特征
        Entry<K,V> before, after;
        Entry(int hash, K key, V value, Node<K,V> next) {
            super(hash, key, value, next);
        }
    }
    
    // transient关键字标记的成员变量不参与序列化过程
    
    // 表头
    transient LinkedHashMap.Entry<K,V> head;
    // 表尾
    transient LinkedHashMap.Entry<K,V> tail;

    put【实际上调用的是HashMap的put方法】

    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        // 1. table初始化,LinkedHashMap的数据依然存储在数组上,没想到吧
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
        // 2. 下标位置为null,新建node【这个newNode方法被LinkedHashMap重写】
        if ((p = tab[i = (n - 1) & hash]) == null)
            // 调用LinkedHashMap#newNode
            tab[i] = newNode(hash, key, value, null);
        else {
            Node<K,V> e; K k;
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
            else if (p instanceof TreeNode)
                // 3. 在红黑树结构中,LinkedHashMap也重写了其中newTreeNode方法:LinkedHashMap#newTreeNode
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            else {
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {
                        // 4. 在已存在的链表结构里插入也是调用 LinkedHashMap#newNode
                        p.next = newNode(hash, key, value, null);
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        ++modCount;
        if (++size > threshold)
            resize();
        // 节点插入后置处理【LinkedHashMap重写】
        afterNodeInsertion(evict);
        return null;
    }
    
    
    
    Node<K,V> newNode(int hash, K key, V value, Node<K,V> e) {
        LinkedHashMap.Entry<K,V> p =
            new LinkedHashMap.Entry<K,V>(hash, key, value, e);
        // 连接到表尾
        linkNodeLast(p);
        return p;
    }
    private void linkNodeLast(LinkedHashMap.Entry<K,V> p) {
        LinkedHashMap.Entry<K,V> last = tail;
        // 尾指针指向新元素
        tail = p;
        if (last == null)
            // 链表为空,则初始化头指针
            head = p;
        else {
            // 新元素的前驱指向老尾巴
            p.before = last;
            // 老尾巴的后继指向新元素
            last.after = p;
        }
    }
    
    // 而对于红黑树,LinkedHashMap依然重新了其 newTreeNode 方法
    TreeNode<K,V> newTreeNode(int hash, K key, V value, Node<K,V> next) {
        TreeNode<K,V> p = new TreeNode<K,V>(hash, key, value, next);
        linkNodeLast(p);
        return p;
    }

    虽然调用的是HashMap的put方法,内部数据存储结构依然是数组,但是仅仅重写了newNode方法就实现了双向链表的逻辑。

    remove方法【直接调用的HashMap的remove方法】

    public V remove(Object key) {
        Node<K,V> e;
        return (e = removeNode(hash(key), key, null, false, true)) == null ?
            null : e.value;
    }
    
    final Node<K,V> removeNode(int hash, Object key, Object value,
                               boolean matchValue, boolean movable) {
        Node<K,V>[] tab; Node<K,V> p; int n, index;
        if ((tab = table) != null && (n = tab.length) > 0 &&
            (p = tab[index = (n - 1) & hash]) != null) {
            Node<K,V> node = null, e; K k; V v;
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                // 下标位置的node
                node = p;
            else if ((e = p.next) != null) {
                // 从红黑树中寻找
                if (p instanceof TreeNode)
                    node = ((TreeNode<K,V>)p).getTreeNode(hash, key);
                else {
                    // 从数组链表中寻找
                    do {
                        if (e.hash == hash &&
                            ((k = e.key) == key ||
                             (key != null && key.equals(k)))) {
                            node = e;
                            break;
                        }
                        // 记录当前元素的前驱
                        p = e;
                    } while ((e = e.next) != null);
                }
            }
            // 找到之后
            if (node != null && (!matchValue || (v = node.value) == value ||
                                 (value != null && value.equals(v)))) {
                if (node instanceof TreeNode)
                    // 从红黑树中移除
                    ((TreeNode<K,V>)node).removeTreeNode(this, tab, movable);
                else if (node == p)
                    // 在下标位置,node的后继成为数组下标位置的元素
                    tab[index] = node.next;
                else
                    // 在链表中,node前驱的next指向node的后继
                    p.next = node.next;
                ++modCount;
                --size;
                // 移除node之后的处理【重写方法:LinkedHashMap#afterNodeRemoval】
                afterNodeRemoval(node);
                return node;
            }
        }
        return null;
    }
    
    // 删除node,连接其前驱和后继【LinkedHashMap#afterNodeRemoval】
    void afterNodeRemoval(Node<K,V> e) { // unlink
        // 先记录好node的前驱和后继
        LinkedHashMap.Entry<K,V> p =
            (LinkedHashMap.Entry<K,V>)e, b = p.before, a = p.after;
        p.before = p.after = null;
        
        if (b == null)
            // 前驱为空,则head直接指向node的后继,也就是a
            head = a;
        else
            // 前驱不为空,则node前驱的after指向node的后继
            b.after = a;
    
        if (a == null)
            // 如果后继为空,则tail指向node的前驱,也就是b
            tail = b;
        else
            // 后继不为空,则node后继的前驱指向node的前驱
            a.before = b;
    }

    由此可见:添加和删除都需要处理两部分逻辑(物理结构和逻辑结构)

    添加:放入HashMap内部数组中存储 & LinkedHashMap处理链表连接关系
    删除:从HashMap内部数组中删除 & LinkedHashMap处理链表连接关系

    优点:按照添加顺序排列;随机查找效率高,注意人家get方法也是计算hash值的,而不是顺序遍历链表结构;

    缺点:插入和删除效率差一些,因为除了要维护HashMap内部存储结构,还要维护LinkedHashMap的链表逻辑结构。

    WeakHashMap

    先来个小测试

    Map<String, String> map = new WeakHashMap<>();
    String s = new String("key");
    map.put(s, "value");
    System.gc();
    System.out.println("有外部引用的key,不会被回收:" + map);
    // 置空外部引用 s = null; System.gc(); System.out.println("外部引用置空,key被回收:" + map);
    map.put(
    new String("key"), "value"); System.gc(); System.out.println("没有外部引用,key被回收:" + map);
    s
    = "key"; map.put(s, "value"); System.gc(); System.out.println("常量池里的无法被回收:" + map);

    输出:

    [Full GC (System.gc())  4096K->1315K(8192K), 0.0065595 secs]
       [Eden: 4096.0K(24.0M)->0.0B(3072.0K) Survivors: 0.0B->0.0B Heap: 4096.0K(128.0M)->1315.8K(8192.0K)], [Metaspace: 3395K->3395K(1056768K)]
     [Times: user=0.00 sys=0.00, real=0.01 secs] 
    有外部引用的key,不会被回收:{key=value}
    [Full GC (System.gc())  1438K->1055K(8192K), 0.0033753 secs]
       [Eden: 1024.0K(3072.0K)->0.0B(3072.0K) Survivors: 0.0B->0.0B Heap: 1438.7K(8192.0K)->1055.8K(8192.0K)], [Metaspace: 3410K->3410K(1056768K)]
     [Times: user=0.08 sys=0.00, real=0.00 secs] 
    外部引用置空,key被回收:{}
    [Full GC (System.gc())  1178K->1051K(8192K), 0.0038189 secs]
       [Eden: 1024.0K(3072.0K)->0.0B(3072.0K) Survivors: 0.0B->0.0B Heap: 1178.8K(8192.0K)->1051.9K(8192.0K)], [Metaspace: 3411K->3411K(1056768K)]
     [Times: user=0.00 sys=0.00, real=0.00 secs] 
    没有外部引用,key被回收:{}
    [Full GC (System.gc())  1174K->1052K(8192K), 0.0029810 secs]
       [Eden: 1024.0K(3072.0K)->0.0B(3072.0K) Survivors: 0.0B->0.0B Heap: 1174.8K(8192.0K)->1052.5K(8192.0K)], [Metaspace: 3448K->3448K(1056768K)]
     [Times: user=0.00 sys=0.00, real=0.00 secs] 
    常量池里的无法被回收:{key=value}

    下面看内部结构

    构造方法

    public WeakHashMap() {
        // 默认容量16,负载因子0.75
        this(DEFAULT_INITIAL_CAPACITY, DEFAULT_LOAD_FACTOR);
    }

    弱引用相关

    // Entry数组
    Entry<K,V>[] table;
    
    // 弱引用队列:检测到可达性更改后,垃圾收集器将注册的引用对象追加到该队列
    private final ReferenceQueue<Object> queue = new ReferenceQueue<>();
    
    // Entry对象继承了WeakReference
    private static class Entry<K,V> extends WeakReference<Object> implements Map.Entry<K,V> {
        V value;
        final int hash;
        Entry<K,V> next;
    
        /**
         * Creates new entry.
         */
        Entry(Object key, V value,
              ReferenceQueue<Object> queue,
              int hash, Entry<K,V> next) {
            // 将key作为referent,GC将对referent进行特殊处理
            super(key, queue);
            this.value = value;
            this.hash  = hash;
            this.next  = next;
        }
    
        ...
    }

    以上就是实现弱引用Map的关键了。

    put方法

    public V put(K key, V value) {
        // 允许key为空
        Object k = maskNull(key);
        // 对key取hash
        int h = hash(k);
        // 获取当前table,其中包含一个处理过期Entry的过程
        Entry<K,V>[] tab = getTable();
        // 计算下标:hash & (len - 1)
        int i = indexFor(h, tab.length);
        // 判断该位置的链表是否已存在key,已存在则覆盖旧值
        for (Entry<K,V> e = tab[i]; e != null; e = e.next) {
            if (h == e.hash && eq(k, e.get())) {
                V oldValue = e.value;
                if (value != oldValue)
                    e.value = value;
                return oldValue;
            }
        }
        // 修改次数+1
        modCount++;
        Entry<K,V> e = tab[i];
        // 最后一个参数e代表next,所以可以看出这里的链表是头插法
        tab[i] = new Entry<>(k, value, queue, h, e);
        // 如果达到扩容阈值,则进行扩容,新容量 = 2 * 旧容量
        if (++size >= threshold)
            resize(tab.length * 2);
        return null;
    }
    
    void resize(int newCapacity) {
        Entry<K,V>[] oldTable = getTable();
        int oldCapacity = oldTable.length;
        if (oldCapacity == MAXIMUM_CAPACITY) {
            threshold = Integer.MAX_VALUE;
            return;
        }
        // 新建一个数组
        Entry<K,V>[] newTable = newTable(newCapacity);
        // 这一步,对旧数组中的元素进行rehash操作,根据重新计算得到的下标放进新数组
        transfer(oldTable, newTable);
        table = newTable;
    
        // 如果元素数量大于等于扩容阈值的一半
        if (size >= threshold / 2) {
            // 扩容阈值更新为新容量的75%
            threshold = (int)(newCapacity * loadFactor);
        } else {
    
            // * 如果忽略空元素并处理ref队列导致大量收缩,则恢复旧表。这种情况应该很少见,但是可以避免无限地扩展充满垃圾的表。
    
            // 从表中删除过期的Entry
            expungeStaleEntries();
            // 删除之后元素变少,把元素rehash进旧表
            transfer(newTable, oldTable);
            // 恢复旧表
            table = oldTable;
        }
    }

    过程:

    1. 对key取hash 并和 数组长度减1与操作得出下标。

    2. 获取当前的数组

    3. 下标位置不为空,判断key是否已存在,已存在则覆盖旧值。

    4. 下标位置为空,则new一个Entry对象,采用头插法插入链表。

    5. 扩容操作

      - 新容量 = 2*旧容量,按照新容量来新建一个Entry数组。

      - 对旧数组中的元素进行rehash操作,根据新计算得到的下标放进新数组

      - 考虑到弱引用回收的情况,回收导致新数组元素急剧减少,则需要恢复旧表

    .

  • 相关阅读:
    CDH简易离线部署文档
    算法图解读书笔记
    html 知识整理
    Django admin 组件 原理分析与扩展使用 之 sites.py (一)
    阿里云 centos7 django + uWSGI+Nginx + python3 部署攻略
    git 命令和使用场景总结
    由select引发的思考
    Python 实现单例模式的一些思考
    pep 8 规范的一些记录
    python 垃圾回收机制的思考
  • 原文地址:https://www.cnblogs.com/LUA123/p/11928971.html
Copyright © 2011-2022 走看看