folly::AtomicHashmap源码分析(二)

本文为原创,转载请注明:http://www.cnblogs.com/gistao/ 

背景

上一篇只是细致的把源码分析了一遍,而源码背后的设计思想并没有写,设计思想往往是最重要的,没有它,基本无法做整体性的优化或正确的使用,

但是根据结果反推原因是困难的,也极容易不到位,这里‘磕磕绊绊’写下自己的理解,另外对源码里的‘问题’也写出来。

简单

调试一个多线程程序是比较头疼的,而使用atomic来编写一个正确的多线程数据结构更是困难的,出了问题一般都是随机问题,且等着复现看log吧,

所以简单这个特性在设计里应是第一位的。

AtomicHashmap的key只支持int,为什么不像tbb的concurrent_hash_map一样也支持自定义类型的key呢?它完全可以通过把现有的key定位为

纯的状态机,再设置一个字段来保存自定义的key,我想就是为了简单,因为使用者可以自行通过hash算法将自定义的key转换为int来解决。这样还

节省了一个指针空间占用,够用够简单。

28原则

这里说的28原则是指80%的cpu在执行20%的代码。rehash是hashmap必不可失的功能,但它明显不在20%代码之内的范畴。

所以,AtomicHashmap可以不支持传统的rehash,一方面是atomic的能力限制,另一方面是rehash够复杂效率够低,但Facebook的工程师选择了

让80%的cpu执行要够快,而剩余的20%cpu稍低点也可以接受的思路。

AtomicHashmap的rehash类似于dequue的扩充策略,这会有两个结论

  • 当容量未满时,这属于80%的概率事件,依然可以O(1)
  • 当容量满时,这属于20%的概率事件,依然可以O(2),O(3),O(4...)

简单+28原则

AtomicHashmap的冲突解决策略是线性探测,线性探测会因为本次冲突而影响其他key的插入,而拉链法没有这个问题。为什么Facebook的工程师

选择这个呢,我想首先冲突也是属于20%概率事件,那么代码效率稍差也是可以接受的,其次这个拉链其实就是个多生产者多消费者模式下的队列,

参见boost的一个无锁实现,比线性探测复杂多了,而线性探测也有个优点就是局部性好。

O(1)变成O(N)

看个场景

step1:100个并发,每个并发做100次的随机插入,AtomicHashmap的size设置为10w,总共插入14w数据。

step2:2个并发查询,查询的key不存在

step3:cpu idle降为0

如何解决

通过上一篇的源码分析,得出有三个怀疑点

  • 要查的key发生过冲突,那么查找最好的情况是往后遍历一个或者几个(取决于hash算法和容量大小)找到元素,
    或者发现空元素,然后结束查找;而最坏的情况(map里空间全部被占用)是遍历查找一遍
    当然这种可能性很小,取决于填充因子和插入的并发度
  • 要查的key没有插入过,那么最好的情况是遇到第一个空元素结束查找,最坏的情况是遍历查找一遍
  • 要查的key已经被删除了,这种情况同上

总结就是空间上空元素的分布很重要,而分布情况有三种

  • 所有元素都被使用,没有空元素
  • 被使用元素集中分布,相应的空元素也集中分布
  • 被使用元素和空元素相隔/均匀分布

后两种分布主要取决于hash算法,好的hash算法能尽量保证每一bit变化的输入反映在输出上。

测试场景使用的hash算法是通用的Murmurhash,此算法效果是比较好的,在实际使用中并不会发生这两种情况,

那么问题就只有第一种分布:没有空元素

insertInternal(KeyT key_in, T&& value) {
  ......
  if (isFull_.load(std::memory_order_acquire))
    return false; //满了,不让再插入这个map了
 
  ++numEntries_; //已插入的数量
  if (numEntries_.readFast() >= maxEntries_) {
    isFull_.store(true, std::memory_order_relaxed); //isfull设置为true
  ......
}

这是AtomicHashmap的插入逻辑:当插满时,不允许插入。那应该不会出现没有空元素的情况吧?no

maxEntries_为10w,填充因子为0.8,那么元素的容量=12.5w(10/0.8),那么空元素的容量为2.5w(12.5w-10w)。

可是为什么空元素的容量为0呢?

 

numEntries_为thread_cache_int类型,这个类的大致思想是可以配置一个cache_size,那么访问这个numEntries_对象

的所有线程的局部变量++到cache_size后才会同步给其他线程(即readFast可以获取到)。

比如cache_size配置为1000,线程数为100,那么理论上readFast的最大延迟同步为100*1000=10w。

10w远大于空元素的容量2.5w,即有可能发生实际插入元素已经满了(空元素容量为0),而isFull_依然为false

遇到这种问题,解决思路是把容量调大。

原文地址:https://www.cnblogs.com/gistao/p/4625212.html