哈希与位图(Hash and BitMap)

Hash:哈希机制

BitMap:位图机制

目的:都是为了保证检索方便而设置的数据结构

   对于大数据进行排序,由于内存限制,不可能在内存中进行,所以采取BitMap机制

    为了在大数据中快速检索以及操作数据,采取Hash机制,一方面借鉴数组的优势,一方面借鉴链表的优势。

模拟:

  在核心引擎里面,通过这两个数据结构的合理使用,可以对硬件的结构进行模拟,比如Oracle里面的快照,JVM里面的HashMap等。

=====================================================================================================

大家都学过数据结构:

内存里面为了更好的管理对象,通常采用链表或者数据以及Hash表来存储数据。

数据存储

  一下是数据存储到计算机的两种模式

  线性的存储:数组---寻址方便,更新不好(连续的)

  链式的存储: 链表----寻址不方便,更新方便。(不连续的)

  为了提高检索的速度,我们可以采取Hash机制,key采取数据存储,方便寻址,其次我们可以利用链表方便更新数据的具体的值。

  

从上图我们可以发现哈希表是由数组+链表组成的,一个长度为16的数组中,每个元素存储的是一个链表的头结点。那么这些元素是按照什么样的规则存储到数组中呢。一般情况是通过hash(key)%len获得,也就是元素的key的哈希值对数组长度取模得到。比如上述哈希表中,12%16=12,28%16=12,108%16=12,140%16=12。所以12、28、108以及140都存储在数组下标为12的位置。

  HashMap其实也是一个线性的数组实现的,所以可以理解为其存储数据的容器就是一个线性数组。这可能让我们很不解,一个线性的数组怎么实现按键值对来存取数据呢?这里HashMap有做一些处理。

  首先HashMap里面实现一个静态内部类Entry,其重要的属性有 key , value, next,从属性key,value我们就能很明显的看出来Entry就是HashMap键值对实现的一个基础bean,我们上面说到HashMap的基础就是一个线性数组,这个数组就是Entry[],Map里面的内容都保存在Entry[]里面。

  好的Hash可以使数据均匀的分布,也就是说链表的长度为1.

 ====================================================================================================

/ 存储时:
int hash = key.hashCode(); // 这个hashCode方法这里不详述,只要理解每个key的hash是一个固定的int值
int index = hash % Entry[].length;
Entry[index] = value;

// 取值时:
int hash = key.hashCode();
int index = hash % Entry[].length;
return Entry[index];

=====================================================================================================

当哈希表的容量超过默认容量时,必须调整table的大小。当容量已经达到最大可能值时,那么该方法就将容量调整到Integer.MAX_VALUE返回,这时,需要创建一张新表,将原表的映射到新表中。

当HashMap中的元素越来越多的时候,hash冲突的几率也就越来越高,因为数组的长度是固定的。所以为了提高查询的效率,就要对HashMap的数组进行扩容,数组扩容这个操作也会出现在ArrayList中,这是一个常用的操作,而在HashMap数组扩容之后,最消耗性能的点就出现了:原数组中的数据必须重新计算其在新数组中的位置,并放进去,这就是resize。

   那么HashMap什么时候进行扩容呢?当HashMap中的元素个数超过数组大小*loadFactor时,就会进行数组扩容,loadFactor的默认值为0.75,这是一个折中的取值。也就是说,默认情况下,数组大小为16,那么当HashMap中元素个数超过16*0.75=12的时候,就把数组的大小扩展为 2*16=32,即扩大一倍,然后重新计算每个元素在数组中的位置,而这是一个非常消耗性能的操作,所以如果我们已经预知HashMap中元素的个数,那么预设元素的个数能够有效的提高HashMap的性能。

=====================================================================================================

loadFactor:负载因子loadFactor定义为:散列表的实际元素数目(n)/ 散列表的容量(m)。

ashMap(int initialCapacity, float loadFactor):以指定初始容量、指定的负载因子创建一个 HashMap。默认0.75 大小16  否则进行扩容为原来的2倍。

创建 HashMap 时指定的 initialCapacity 并不等于 HashMap 的实际容量,通常来说,HashMap 的实际容量总比 initialCapacity 大一些,除非我们指定的 initialCapacity 参数值恰好是 2 的 n 次方。当然,掌握了 HashMap 容量分配的知识之后,应该在创建 HashMap 时将 initialCapacity 参数值指定为 2 的 n 次方,这样可以减少系统的计算开销。

ArrayList扩容的size*1.5+1,之后将全部的数据拷贝到新构建的数组里面。

=====================================================================================================

原文地址:https://www.cnblogs.com/gstsyyb/p/3891218.html