HashMap源码分析

此文章系作者原创,转载请标明:https://www.cnblogs.com/yanfei1819/p/9989272.html

一、数据模型

​ 在网上看过一些所谓的HashMap源码分析,大部分依旧是比较抽象的。究其原因,主要还是对HashMap的数据结构不理解。以下以图示展示。

HashMap中存在一个内部类:

    static class Node<K,V> implements Map.Entry<K,V> {
        final int hash;
        final K key;
        V value;
        Node<K,V> next;
        // do soemthig
    }

该内部类中,有四个属性,我们存储的是key和value。其中hash通过key计算的hashcode值,next是指向下一个节点。由此可以理解存储原理了。

二、重要属性

    /**
     * The default initial capacity - MUST be a power of two.
     */
	// 思考:为什么必须是2的倍数?
    static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; // aka 16
	// 最大长度
    static final int MAXIMUM_CAPACITY = 1 << 30;
int threshold;

threshold = capacity * loadFactor,当Size>=threshold的时候,那么就要考虑对数组的扩增了,也就是说,这个的意思就是衡量数组是否需要扩增的一个标准。同时需要对应数组上有元素。

static final float DEFAULT_LOAD_FACTOR = 0.75f;

负载因子:该属性是表示在扩容之前容量占有率的一个标尺。它控制数组存放Node是的疏密程度。loadFactor越趋近于1,那么数组中存放的数据(entry)也就越多,也就越密,也就是会让链表的长度增加,loadFactor越小,也就是趋近于0,那么数组中存放的数据也就越稀。默认的0.75f是一个权衡后的值。

    static final int TREEIFY_THRESHOLD = 8;

如果链表超过了这个值,则将单链表转变为红黑树。(1.8版本)

    static final int UNTREEIFY_THRESHOLD = 6;

如果红黑树的节点被删,且小于该阈值,则变为链表。

    transient int size;

记录数组已使用的容量,用来个阈值进行比较。

final float loadFactor;

填充因子

    static final int MIN_TREEIFY_CAPACITY = 64;

桶中结构转化为红黑树对应的table的最小大小

三、构造方法

    // 构造函数一
    public HashMap() {
        this.loadFactor = DEFAULT_LOAD_FACTOR; // all other fields defaulted
    }

	// 构造函数二
    public HashMap(int initialCapacity) {
        this(initialCapacity, DEFAULT_LOAD_FACTOR);
    }

	// 构造函数三
	public HashMap(int initialCapacity, float loadFactor) {
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);
        this.loadFactor = loadFactor;
        this.threshold = tableSizeFor(initialCapacity);
    }

	// 构造函数四
    public HashMap(Map<? extends K, ? extends V> m) {
        this.loadFactor = DEFAULT_LOAD_FACTOR;
        putMapEntries(m, false);
    }

我们用的最多的就是第一个构造方法,负载因子默认是0.75f。构造函数三是手动设置初始容量和负载因子,构造函数二调用的构造函数三,手动设置初始容量大小。构造函数是将别的map映射到自己的map中。

四、普通方法

put()

上面我们了解了HashMap的存储结构。在给HashMap中添加元素的时候,我们应该考虑这样一个问题:如何确定元素的添加的位置?

我们来分析代码:

    public V put(K key, V value) {
        return putVal(hash(key), key, value, false, true);
    }
    final V putVal(int hash, K key, V value, boolean onlyIfAbsent,boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        
        // 如果数组未进行初始化或者为空,则通过resize()初始化,并返回数组的长度
        if ((tab = table) == null || (n = tab.length) == 0) 
            n = (tab = resize()).length;
        
        // (n - 1) & hash 确定节点放在数组的哪个位置(这个表达式中可以看出为什么数组的扩容的长度为什么要是2的n次幂的原因了)
        // 确定后的在数组中的该位置为空,则新的节点放在这个位置
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        
        // 以下的else中的逻辑表示确定的该位置不是空
        else {
            Node<K,V> e; K k;
            
            // 如果与数组中的节点的hash值相等,则直接取代
            if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
            
            // 如果是红黑树节点
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            
            // 如果是链表节点
            else {
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        
                        // 节点到达阈值,转为红黑树
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    if (e.hash == hash && ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        ++modCount;
        
        // 如果数组中的元素个数超过阈值,则进行扩容
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
    }

通过以上的源码,我们可以看出。在添加新节点时,通过hash确定其位置。分以下种情况:

  • 数组的该位置为空,直接添加到该位置
  • 数组的该位置不为空,但是与新节点的hash相同,则直接取代
  • 数组的该位置不为空,且节点下面是单链表
  • 数组的该位置不为空,且元素下面是红黑树

确定位置时,hash值起着重要的作用,我们看看该方法:

    static final int hash(Object key) {
        int h;
        return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
    }

这里通过位运算重新计算了hash值的值。为什么要重新计算?

主要是因为n值比较小,hash只参与了低位运算,高位运算没有用上。这就增大了hash值的碰撞概率。而通过这种位运算的计算方式,使得高位运算参与其中,减小了hash的碰撞概率,使hash值尽可能散开。

注意:我们在分析重要属性DEFAULT_INITIAL_CAPACITY的时候,数组的初始化或者扩容为什么给必须是2的n次幂?

在以上源码的(n - 1) & hash中给出了答案:(n - 1) & hash 等价于对 length 取余。但取余的计算效率没有位运算高,所以(n - 1) & hash也是一个小的优化。例如,假设 hash = 185,n = 16。

resize()

这个方法我们在put()方法中已经调用过,作用是用来进行数组的初始化和扩容。下面看看源码:

final Node<K,V>[] resize() {
    // 当前table保存
    Node<K,V>[] oldTab = table;
    // 保存table大小
    int oldCap = (oldTab == null) ? 0 : oldTab.length;
    // 保存当前阈值 
    int oldThr = threshold;
    int newCap, newThr = 0;
    // 之前table大小大于0
    if (oldCap > 0) {
        // 之前table大于最大容量
        if (oldCap >= MAXIMUM_CAPACITY) {
            // 阈值为最大整形
            threshold = Integer.MAX_VALUE;
            return oldTab;
        }
        // 容量翻倍,使用左移,效率更高
        else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
            oldCap >= DEFAULT_INITIAL_CAPACITY)
            // 阈值翻倍
            newThr = oldThr << 1; // double threshold
    }
    // 之前阈值大于0
    else if (oldThr > 0)
        newCap = oldThr;
    // oldCap = 0并且oldThr = 0,使用缺省值(如使用HashMap()构造函数,之后再插入一个元素会调用resize函数,会进入这一步)
    else {           
        newCap = DEFAULT_INITIAL_CAPACITY;
        newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
    }
    // 新阈值为0
    if (newThr == 0) {
        float ft = (float)newCap * loadFactor;
        newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                  (int)ft : Integer.MAX_VALUE);
    }
    threshold = newThr;
    @SuppressWarnings({"rawtypes","unchecked"})
    // 初始化table
    Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
    table = newTab;
    // 之前的table已经初始化过
    if (oldTab != null) {
        // 复制元素,重新进行hash
        for (int j = 0; j < oldCap; ++j) {
            Node<K,V> e;
            if ((e = oldTab[j]) != null) {
                oldTab[j] = null;
                if (e.next == null)
                    newTab[e.hash & (newCap - 1)] = e;
                else if (e instanceof TreeNode)
                    ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                else { // preserve order
                    Node<K,V> loHead = null, loTail = null;
                    Node<K,V> hiHead = null, hiTail = null;
                    Node<K,V> next;
                    // 将同一桶中的元素根据(e.hash & oldCap)是否为0进行分割,分成两个不同的链表,完成rehash
                    do {
                        next = e.next;
                        if ((e.hash & oldCap) == 0) {
                            if (loTail == null)
                                loHead = e;
                            else
                                loTail.next = e;
                            loTail = e;
                        }
                        else {
                            if (hiTail == null)
                                hiHead = e;
                            else
                                hiTail.next = e;
                            hiTail = e;
                        }
                    } while ((e = next) != null);
                    if (loTail != null) {
                        loTail.next = null;
                        newTab[j] = loHead;
                    }
                    if (hiTail != null) {
                        hiTail.next = null;
                        newTab[j + oldCap] = hiHead;
                    }
                }
            }
        }
    }
    return newTab;
}

其实仔细分析源代码,基本上只要理解了HashMap的结构,其余的逻辑也就和 清楚了。

get()

    public V get(Object key) {
        Node<K,V> e;
        return (e = getNode(hash(key), key)) == null ? null : e.value;
    }
    final Node<K,V> getNode(int hash, Object key) {
        Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
        
        // 桶数组不为空且长度大于0且通过hash定位的位置节点不为空,则走以下流程,不然返回null
        if ((tab = table) != null && (n = tab.length) > 0 && (first = tab[(n - 1) & hash]) != null) {
            // 如果与桶数组该位置的节点hash相同,则返回该节点
            if (first.hash == hash && // always check first node
                ((k = first.key) == key || (key != null && key.equals(k))))
                return first;
            
            // 如果该位置节点还有节点,则继续查找
            if ((e = first.next) != null) {
                // 桶数组该节点下面是红黑树
                if (first instanceof TreeNode)
                    return ((TreeNode<K,V>)first).getTreeNode(hash, key);
                
                // 桶数组该节点下面是链表,遍历
                do {
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        return e;
                } while ((e = e.next) != null);
            }
        }
        return null;
    }

五、总结

​ 一直都觉得HashMap的源码很简单,仔细看看,其实不然。其中涉及了很多很多的知识点,比如数据结构就涉及了数组、链表和红黑树。其余的细节都是数不胜数。细细研读该源码一整天,都没有将其中的细节详尽解析。

不过,在这篇文章结束之时,也有一些思考和想法:

1.数据结构是基础,也是灵魂(通常伴随算法)。只有对数据结构了然于心,才能详细了解底层原理;

2.伴随jdk升级的过程中,我们能很明显感受到一些优化。比如将十进制的值优化为二进制的值;十进制的计算优化为位运算;构造函数中,不给出长度,而是在添加第一个元素的时候给出长度(默认长度或者设置的长度);

3.put()方法是HashMap的核心,弄清楚了这个方法,其余的源代码都不难;

4.读源码一定要静下心来,心不静,就只能浮在表面;

5.个人水平和精力有限,难免有漏洞,希望大家多多指教。

原文地址:https://www.cnblogs.com/yanfei1819/p/9989272.html