Map-HashMap

一、HashMap数据结构

  JDK 1.7 采用数组 + 链表实现。

  JDK 1.8 采用数组 + 链表 + 红黑树实现。链表采用内部类Node节点实现。红黑树采用内部类TreeNode节点实现。

二、重要参数

 // 1. 容量(capacity): 必须是2的幂 & <最大容量(2的30次方),默认是16
  static final int DEFAULT_INITIAL_CAPACITY = 1 << 4; 

 // 最大容量 = 2的30次方(若传入的容量过大,将被最大值替换) static final int MAXIMUM_CAPACITY = 1 << 30;
// 2. 加载因子(Load factor):HashMap在其容量自动增加前可达到多满的一种尺度
// 加载因子过大则容器内可添加更多元素,空间效率高,但是容易导致哈希冲突。反之反之 final float loadFactor; // 实际加载因子 static final float DEFAULT_LOAD_FACTOR = 0.75f; // 默认加载因子 = 0.75 h // 3. 扩容阈值 = 容量 x 加载因子,哈希表的大小 ≥ 扩容阈值时,就会扩容哈希表 int threshold; // 4. 其他 transient Node<K,V>[] table; // 存储数据的Node类型 数组,长度 = 2的幂;数组的每个元素 = 1个单链表 transient int size;// HashMap的大小,即 HashMap中存储的键值对的数量 /** * 与红黑树相关的参数 */ // 1. 桶的树化阈值:即 链表转成红黑树的阈值,在存储数据时,当链表长度 > 该值时,则将链表转换成红黑树 static final int TREEIFY_THRESHOLD = 8; // 2. 桶的链表还原阈值:即 红黑树转为链表的阈值,当在扩容(resize())时(此时HashMap的数据存储位置会重新计算),在重新计算存储位置后,当原有的红黑树内数量 < 6时,则将 红黑树转换成链表 static final int UNTREEIFY_THRESHOLD = 6; // 3. 最小树形化容量阈值:即 当哈希表中的容量 > 该值时,才允许树形化链表 (即 将链表 转换成红黑树) // 否则,若桶内元素太多时,则直接扩容,而不是树形化 // 为了避免进行扩容、树形化选择的冲突,这个值不能小于 4 * TREEIFY_THRESHOLD static final int MIN_TREEIFY_CAPACITY = 64;

 1. hashmap容量为什么要是2的n次方?

  1.1 hashmap的key位置是通过hash对长度取余来计算的,(n - 1) & hash = hash%n,位运算更快。

  1.2 2的n次方减一的二进制所有位全是1,那么(n - 1) & hash更均匀,能够减少哈希碰撞。

hash(n-1)& hash   n=16结果
0 1111 & 0 0
1 1111 & 1 1
2 1111 & 10 2
3 1111 & 11 3
4 1111 & 100 4
5 1111 & 101 5
…… …… ……
16 1111 & 10000 0
17 1111 & 10001 1
18 1111 & 10010 2
 
hash(n-1)& hash   n=15结果
0 1110 & 0 0
1 1110 & 1 0
2 1110 & 10 2
3 1110 & 11 2
4 1110 & 100 4
5 1110 & 101 4
…… …… ……
16 1110 & 10000 0
17 1110 & 10001 0
18 1110 & 10010 2

2. 加载因子为什么0.75?加载因子表示hash表元素的填满程度。

  2.1 提高空间利用率:加载因子过高,例如为1,虽然减少了空间开销,提高了空间利用率,但同时也增加了查询时间成本;

  2.2 减少查询成本的折中:元素越少则冲突越少,查询成本就变小。

  2.3 泊松分布 0.75碰撞最小。

3. 链表为什么要转化为红黑树,转换阈值为什么是8? 

0:    0.60653066
1:    0.30326533
2:    0.07581633
3:    0.01263606
4:    0.00157952
5:    0.00015795
6:    0.00001316
7:    0.00000094
8:    0.00000006

  红黑树插入为O(lgn),查询为O(lgn),链表插入为O(1),查询为O(n)。个数少时,插入删除成本高,用链表;个数多时,查询成本高,用红黑树。此时就需要一个阈值,根据泊松分布,在负载因子为0.75情况下,单个hash槽内元素个数为8的概率小于百万分之一。因此将7作为分水岭,大于7转成红黑树,小于7转链表。

4. 链表和红黑树之间的转化为什么设置两个阈值8和6?

  防止在7边缘疯狂试探,链表-红黑树转换消耗大。

5. 为什么是红黑树而不是AVL树?

  5.1红黑树相对平衡,从而保证了红黑树的查找、插入、删除的时间复杂度最坏为O(log n)。加快检索速率。

  5.2红黑树相比avl树,在检索的时候效率其实差不多,都是通过平衡来二分查找。但对于插入删除等操作效率提高很多。

三、构造函数

  只是用于接受初始容量大小和加载因子,并没有真正初始化哈希表。真正初始化哈希表是在第一次增加键值对时。

/**
     * @param  initialCapacity  指定容量大小
     * @param  loadFactor      指定负载因子
     */
public HashMap(int initialCapacity, float loadFactor) {
        if (initialCapacity < 0)
            throw new IllegalArgumentException("Illegal initial capacity: " +
                                               initialCapacity);
        if (initialCapacity > MAXIMUM_CAPACITY)
            initialCapacity = MAXIMUM_CAPACITY;
        if (loadFactor <= 0 || Float.isNaN(loadFactor))
            throw new IllegalArgumentException("Illegal load factor: " +
                                               loadFactor);
        this.loadFactor = loadFactor;
        //扩容阈值
        this.threshold = tableSizeFor(initialCapacity);
    }
//将传入的容量大小转化为:大于传入容量大小的最小的2的幂
static final int tableSizeFor(int cap) {
        int n = cap - 1;
        n |= n >>> 1;
        n |= n >>> 2;
        n |= n >>> 4;
        n |= n >>> 8;
        n |= n >>> 16;
        return (n < 0) ? 1 : (n >= MAXIMUM_CAPACITY) ? MAXIMUM_CAPACITY : n + 1;
    }

四、 hash()

static final int hash(Object key) {
    int h;
    //扰动处理 将Object中的哈希值高16位和低16位异或处理,这样使得得到的哈希值更加随机,减少哈希冲突
    return (key == null) ? 0 : (h = key.hashCode()) ^ (h >>> 16);
}

五、putVal()

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
                   boolean evict) {
        Node<K,V>[] tab; Node<K,V> p; int n, i;
        //1.如果哈希表的数组为null,那么通过resize创建。所以第一次初始化哈希表的时机就是第一个调用put方法的时刻。
        if ((tab = table) == null || (n = tab.length) == 0)
            n = (tab = resize()).length;
        //2. 整个数组不为空,但是数组hash值处未添加过元素,那么就新建一个节点
        if ((p = tab[i = (n - 1) & hash]) == null)
            tab[i] = newNode(hash, key, value, null);
        //3.发生哈希冲突,数组该位置已经存在节点
        else {
            Node<K,V> e; K k;
            //3.1 如果key相同,则覆盖旧值
            if (p.hash == hash &&
                ((k = p.key) == key || (key != null && key.equals(k))))
                e = p;
            //3.2 如果是红黑树节点,那么直接添加树
            else if (p instanceof TreeNode)
                e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);
            //3.3 链表
            else {
                for (int binCount = 0; ; ++binCount) {
                    if ((e = p.next) == null) {
                        p.next = newNode(hash, key, value, null);
                        // 插入节点后,若链表节点>数阈值,则将链表转换为红黑树
                        if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st
                            treeifyBin(tab, hash);
                        break;
                    }
                    if (e.hash == hash &&
                        ((k = e.key) == key || (key != null && key.equals(k))))
                        break;
                    p = e;
                }
            }
            if (e != null) { // existing mapping for key
                V oldValue = e.value;
                if (!onlyIfAbsent || oldValue == null)
                    e.value = value;
                afterNodeAccess(e);
                return oldValue;
            }
        }
        ++modCount;
        //判断是否需要扩容
        if (++size > threshold)
            resize();
        afterNodeInsertion(evict);
        return null;
    }            

总结:

  1.判断数组table是否初始化过,如果没初始化就要进行初始化,调用resize方法。

  2.根据key的哈希值找到table中的位置:

    2.1 如果table[hash(key)&(n-1)]没有元素,直接插入节点。

    2.2 如果table[hash(key)&(n-1)]有元素,代表发生哈希冲突,此时需要判断该位置节点类型:

      2.2.1 如果当前位置节点是红黑树节点,则调用红黑树增加节点方法。

      2.2.2 如果当前节点是链表节点,在链表中增加或者更新数据。之后判断是否需要执行树化操作或者扩容操作。

  3.结束。

六、 resize()

//该函数在初始化哈希表或者需要扩容时调用
final Node<K,V>[] resize() {
        Node<K,V>[] oldTab = table;//扩容前的数组,即当前数组
        int oldCap = (oldTab == null) ? 0 : oldTab.length;//当前数组长度
        int oldThr = threshold;//扩容前数组扩容阈值
        int newCap, newThr = 0;
        //扩容
        if (oldCap > 0) {
            //要是当前数组长度大于最大值,那么不在扩充  
            if (oldCap >= MAXIMUM_CAPACITY) {
                threshold = Integer.MAX_VALUE;
                return oldTab;
            }
            //否则扩大成原来的两倍
            else if ((newCap = oldCap << 1) < MAXIMUM_CAPACITY &&
                     oldCap >= DEFAULT_INITIAL_CAPACITY)
                newThr = oldThr << 1; // double threshold
        }
        //初始化
        else if (oldThr > 0) // initial capacity was placed in threshold
            newCap = oldThr;
        else {               // zero initial threshold signifies using defaults
            newCap = DEFAULT_INITIAL_CAPACITY;
            newThr = (int)(DEFAULT_LOAD_FACTOR * DEFAULT_INITIAL_CAPACITY);
        }
        //计算新的resize上限,扩容阈值
        if (newThr == 0) {
            float ft = (float)newCap * loadFactor;
            newThr = (newCap < MAXIMUM_CAPACITY && ft < (float)MAXIMUM_CAPACITY ?
                      (int)ft : Integer.MAX_VALUE);
        }
        threshold = newThr;
        @SuppressWarnings({"rawtypes","unchecked"})
            Node<K,V>[] newTab = (Node<K,V>[])new Node[newCap];
        table = newTab;
        if (oldTab != null) {
            for (int j = 0; j < oldCap; ++j) {
                Node<K,V> e;
                if ((e = oldTab[j]) != null) {
                    oldTab[j] = null;
                    if (e.next == null)
                        newTab[e.hash & (newCap - 1)] = e;
                    else if (e instanceof TreeNode)
                        ((TreeNode<K,V>)e).split(this, newTab, j, oldCap);
                    else { // preserve order
                        Node<K,V> loHead = null, loTail = null;
                        Node<K,V> hiHead = null, hiTail = null;
                        Node<K,V> next;
                        do {
                            next = e.next;
//原索引
if ((e.hash & oldCap) == 0) { if (loTail == null) loHead = e; else loTail.next = e; loTail = e; }
//原索引+ oldCap
else { if (hiTail == null) hiHead = e; else hiTail.next = e; hiTail = e; } } while ((e = next) != null);
//原索引处元素放进bucket里
if (loTail != null) { loTail.next = null; newTab[j] = loHead; }
//原索引+ oldCap放进bucket里
if (hiTail != null) { hiTail.next = null; newTab[j + oldCap] = hiHead; } } } } } return newTab; }

1. 判断原数组长度是否大于0,如果大于0则进行扩容,小于等于零则进行初始化。

2.扩容:如果大于最大值则设置为最大值,否则扩大一倍。

3.初始化

4. 移动元素到新数组。新位置=原始位置+旧容量

总结:

  1. 如果需要初始化 或者 当前容量已经大于等于最大值,则不需要扩容。

  反之,扩容。

  2. 容量*2,新建数组,并保存旧的数组。并将旧的数据转移到新的数组上,需要重新计算每个数据的位置。

重点:新位置的计算方式 = 原位置 / 原位置+ 旧容量

 图解:情况一、情况二是在原数组同一位置的两个节点,因为当数组长度为16时,两个情况虽然hash值不同,但是低4位相同,这就导致了哈希冲突,处在相同位置。当长度扩容到32时,两个情况的左数第五位不相同,所以导致新数组的位置不同。

七、与JDK 1.7 区别

 

 

  八、 经典问题

1.如何解决Hash冲突

   1. hash扰动处理,高16位低16位异或处理

  2.  扩容

  3. 数据结构

  4. 链地址法+尾插法

 2. 为何线程不安全

1. 没有同步锁保护

2. 存储位置随时间变化,存在扩容操作

3.jdk1.7 头插法死循环

4. jdk1.8 put判断头节点是否为 null,多线程容易数据覆盖。

HashMap & Hashtable

相同点:都是存储key-value键值对的

不同点:

  • HashMap允许Key-value为null,hashTable不允许;
  • hashMap没有考虑同步,是线程不安全的。hashTable是线程安全的,给api套上了一层synchronized修饰;
  • 迭代器(Iterator)。HashMap的迭代器(Iterator)是fail-fast迭代器,而Hashtable的enumerator迭代器不是fail-fast的。所以当有其它线程改变了HashMap的结构(增加或者移除元素),将会抛出ConcurrentModificationException。
  • 容量的初始值和增加方式都不一样:HashMap默认的容量大小是16;增加容量时,每次将容量变为"原始容量x2"。Hashtable默认的容量大小是11;增加容量时,每次将容量变为"原始容量x2 + 1";
  • 添加key-value时的hash值算法不同:HashMap添加元素时,是使用自定义的哈希算法。Hashtable没有自定义哈希算法,而直接采用的key的hashCode()。
原文地址:https://www.cnblogs.com/qmillet/p/12498827.html