Map双列集合(二)

一.HashMap底层源码剖析
1.介绍HashMap底层用到的数据结构
数组:数组的每一项都是一个链表,其实就是数组和链表的结合体
单向链表:当发生Hash碰撞时,首先会找到数组对应位置,然后1.8采用尾插入法(1.7采用头插入法),形成一个单向链表结构
jdk1.8 后 红黑树:当数组中每项的链表长度大于8时,会转换为红黑树

能够解释一下什么是Hash碰撞?解决办法有哪一些
不同的key可能会产生相同的Hash值
解决Hash碰撞的办法:链表法,再哈希法
HashMap当中采用链表发,在ConcurrentHashMap当中采用再哈希法

当链表数组的容量超过初始容量的0.75时,再散列将链表数组扩大2倍,把原链表数组的搬移到新的数组中

即HashMap的原理图是:


在JAVA jdk8中对HashMap的源码进行了优化,在jdk7中,HashMap处理“碰撞”的时候,都是采用链表来存储,当碰撞的结点很多时,查询时间是O(n)。
在jdk8中,HashMap处理“碰撞”增加了红黑树这种数据结构,当碰撞结点较少时,采用链表存储,当较大时(>8个),采用红黑树(特点是查询时间是O(logn))存储(有一个阀值控制,大于阀值(8个),将链表存储转换成红黑树存储)


2.为什么采用红黑树,比如二叉查找树,并且为什么临界值为8
二叉查找树在特殊情况下也会变为线性结构,和原来链表有共同的问题,节点太深,查找性能慢
使用红黑树主要用于提升查询速度,红黑树是平衡二叉树的一种,插入新的数据都会通过左旋,右旋,变色等操作来保持平衡,解决节点的深度问题

当数据较少时,采用链表要比红黑树效率高,因为平衡二叉树保持平衡需要耗费资源,那么前期数据较少时采用链表,当数据到达一定的界限后,再采用
红黑树,可以加快数据查询速度,官方测试8为性能最优~



3.put和get底层源码的核心流程
put方法核心:

public V put(K key, V value) {
	//计算key的Hash值,然后将Hash值以及key值本身和Value传递到putval方法当中
	return putVal(hash(key), key, value, false, true);
}

final V putVal(int hash, K key, V value, boolean onlyIfAbsent,
         boolean evict) {
		Node<K,V>[] tab; Node<K,V> p; int n, i;
		if ((tab = table) == null || (n = tab.length) == 0)		//判断当前数组是否为空,如果为空要进行第一次扩容
			n = (tab = resize()).length;						//扩容后将扩容大小交给N
		if ((p = tab[i = (n - 1) & hash]) == null)				//判断获取当前数组位置是否存在数据,如果为空则直接插入,否则需要代表当前位置不是空的,不是空的需要判断
			tab[i] = newNode(hash, key, value, null);			//如果为空则创建一个新的节点添加到该位置
		else {
			Node<K,V> e; K k;
			if (p.hash == hash && ((k = p.key) == key || (key != null && key.equals(k))))		//判断Hash值和Key值是否相同,如果相同则需要Value覆盖
				e = p;
			else if (p instanceof TreeNode)					//判断当前数组中存放的节点是否是树节点
				e = ((TreeNode<K,V>)p).putTreeVal(this, tab, hash, key, value);			//则添加树节点即可
			else {
				for (int binCount = 0; ; ++binCount) {		//循环遍历链表
					if ((e = p.next) == null) {		//判断当前数组该位置的值得下一个元素是否为空,如果为空则追加到当前元素后边
						p.next = newNode(hash, key, value, null);
						if (binCount >= TREEIFY_THRESHOLD - 1) // -1 for 1st	//添加完毕后判断当前链表节点有多少个,如果节点大于等于8则转换为红黑树
							treeifyBin(tab, hash);				//treeifyBin判断当前数组是否为空,或者长度是否小于64,如果为空或者小于64则先扩容
						break;
					}
					if (e.hash == hash &&
						((k = e.key) == key || (key != null && key.equals(k))))		//再次进行Key的重复判断
						break;
					p = e;
				}
			}
			if (e != null) { // existing mapping for key
				V oldValue = e.value;
				if (!onlyIfAbsent || oldValue == null)
					e.value = value;
				afterNodeAccess(e);
				return oldValue;
			}
		}
		++modCount;
		if (++size > threshold)			//判断当前数组元素个数和阀值进行比较,如果数量大于阀值则需要扩容
			resize();			//默认情况下,第一次添加数据的时候,先会进行一次扩容后再添加数据
		afterNodeInsertion(evict);		//后续都是先添加数据再扩容
		return null;
	}

扩容: 默认情况下,数组大小为16,当数组元素 超过大小*负载因子(0.75),如果超过12个元素,则调用resize进行扩容,扩容原来大小的2倍
并且重新计算数组中元素的位置,所以比较耗费性能,一般创建集合尽量预知大小,避免多次扩容


get方法核心逻辑:

final Node<K,V> getNode(int hash, Object key) {
	Node<K,V>[] tab; Node<K,V> first, e; int n; K k;
	if ((tab = table) != null && (n = tab.length) > 0 &&
		(first = tab[(n - 1) & hash]) != null) {						//判断数组以及数组对应位置数组元素是否为空
		if (first.hash == hash && // always check first node
			((k = first.key) == key || (key != null && key.equals(k))))			//用get传递过来的Key值和对应位置第一个元素进行比较,如果相等直接返回,如果不等则进行查找
			return first;
		if ((e = first.next) != null) {								//判断第一个元素的下一个元素是否为空,如果不为空
			if (first instanceof TreeNode)							//如果不为空判断当前节点是否为树节点
				return ((TreeNode<K,V>)first).getTreeNode(hash, key);			//如果是树节点,直接通过getTreeNode拿到该节点返回
			do {
				if (e.hash == hash &&
					((k = e.key) == key || (key != null && key.equals(k))))		//循环一一对比
					return e;
			} while ((e = e.next) != null);
		}
	}
	return null;
}


二.ConcurrentHashMap底层实现
1.ConcurrentHashMap和HashTable之间
ConcurrentHashMap性能高于HashTable,都能够完成线程安全操作,
Hashtable中线程安全使用synchronized同步方法进行加锁操作,如果当前一个线程正在访问该集合,其他线程是无法进行访问的,需要进行等待
反之ConcurrentHashMap当中采用分段锁机制



1. JDK1.7和JDK1.8底层实现的区别
JDK1.8版本之前,ConcurrentHashMap使用分段锁技术,将数据分成一段一段的进行村粗,每一个数据段配置一把锁Segment(继承ReentrantLock)
底层采用:Segment+HashEntry
当数据添加时,根据key值找到Segment对应的数据段,然后匹配数据块,采用链表方式进行存储

JDK1.7的实现

在JDK1.7版本中,ConcurrentHashMap的数据结构是由一个Segment数组和多个HashEntry组成,如下图所示:

 



1.8版本之后,ConcurrentHashMap取消了Segment分段所的机制,底层采用Node数组+链表+红黑树,从而实现一段数据进行加锁,减少了并发,CAS(读)+synchronized(写)
当数据添加时,根据key值找到对应数组的Node,中间采用CAS和synchronized进行数据操作

JDK1.8的实现

JDK1.8的实现已经摒弃了Segment的概念,而是直接用Node数组+链表+红黑树的数据结构来实现,并发控制使用Synchronized和CAS来操作,整个看起来就像是优化过且线程安全的HashMap,虽然在JDK1.8中还能看到Segment的数据结构,但是已经简化了属性,只是为了兼容旧版本

 
 



2. ConcurrentHashMap底层put方法实现的核心逻辑

public V put(K key, V value) {
	return putVal(key, value, false);
}
			
			
			
/** Implementation for put and putIfAbsent */
final V putVal(K key, V value, boolean onlyIfAbsent) {
	if (key == null || value == null) throw new NullPointerException();	//判断key和value是否为空,如果为空则报异常
	int hash = spread(key.hashCode());					//重新计算key的hash值,有效减少Hash值冲突
	int binCount = 0;
	for (Node<K,V>[] tab = table;;) {					//遍历当前数组当中所有的数据
		Node<K,V> f; int n, i, fh;
		if (tab == null || (n = tab.length) == 0)			//判断数组是否为空
			tab = initTable();					//如果为空要进行数组的初始化操作
		else if ((f = tabAt(tab, i = (n - 1) & hash)) == null) {	//根据key的Hash值找到位置,如果该位置没有元素
			if (casTabAt(tab, i, null,
				new Node<K,V>(hash, key, value, null)))		//获取到空的元素,然后重新创建一个新的Node放进去
				break;                   // no lock when adding to empty bin
		}
		else if ((fh = f.hash) == MOVED)	//判断当前数组元素状态是否需要扩容
			tab = helpTransfer(tab, f);
		else {
			V oldVal = null;
			synchronized (f) {	//加锁
				if (tabAt(tab, i) == f) {								
					if (fh >= 0) {
						binCount = 1;
						for (Node<K,V> e = f;; ++binCount) {
							K ek;
							if (e.hash == hash &&						//判断添加的key和原有key进行Hash值判断以及key值判断,如果相等则覆盖
								((ek = e.key) == key ||
								 (ek != null && key.equals(ek)))) {
								oldVal = e.val;
								if (!onlyIfAbsent)
									e.val = value;
								break;
							}
							Node<K,V> pred = e;
							if ((e = e.next) == null) {					//判断当前节点的下一个节点是否为空,如果为空则添加到下一个节点当中
								pred.next = new Node<K,V>(hash, key,value, null);
								break;
							}
						}
					}
					else if (f instanceof TreeBin) {						//判断当前节点是否为红黑树
						Node<K,V> p;
						binCount = 2;
						if ((p = ((TreeBin<K,V>)f).putTreeVal(hash, key,value)) != null) {	//如果为红黑树则创建一个树节点
							oldVal = p.val;
							if (!onlyIfAbsent)
								p.val = value;
						}
					}
				}
			}
			if (binCount != 0) {
				if (binCount >= TREEIFY_THRESHOLD)			//根据当前循环次数判断链表中存在多少个数据,如果数据阀值大于等于8则进行红黑树转换
					treeifyBin(tab, i);
				if (oldVal != null)
					return oldVal;
				break;
			}
		}
	}
	addCount(1L, binCount);		//判断是否需要扩容
	return null;
}
		

  


原文地址:https://www.cnblogs.com/F017/p/12512812.html