并发容器

同步容器与并发容器

​ 对于同步容器,有线程安全跟线程不安全的分别,例如,同属于list的Vector跟ArrayList,其中Vector就是线程安全的,ArrayList是线程不安全的,但是实现了线程安全的列表效率又会很慢,原因是线程安全的列表之所以安全是因为在add等方法上添加了synchronized关键字将方法锁住了,同一时间只能一个线程访问,导致效率很低。同样对于map也有线程安全的Hashtable跟线程不安全的HashMap,实现原理同List一致。

​ 因此为了提高效率,出现了并发容器,例如对于List,出现了CopyOnWriteArrayList,它的实现方式是写时复制出一个新的数组,完成插入、修改或者移除操作后将新数组赋值给array。对于Map,则出现了ConcurrentHashMap,它是采用分段锁操作提高性能的。

CopyOnWriteArrayList

在使用上,CopyOnWriteArrayList跟传统的List基本上没有什么不同,主要还是在添加数据上做了改变,那么主要研究下添加数据,添加数据的源码如下:

public boolean add(E e) {
    final ReentrantLock lock = this.lock;
    lock.lock();   // 首先锁住代码
    try {
        Object[] elements = getArray();  // 获取数组
        int len = elements.length;   // 获取数组的长度
        // 新建一个数组,并且将长度加一,因为要添加新的数据
        Object[] newElements = Arrays.copyOf(elements, len + 1);   
        newElements[len] = e;  // 添加数据
        setArray(newElements);   // 将新数组的赋值给原数组的引用
        return true;
    } finally {
        lock.unlock();   // 解锁
    }
}

CopyOnWriteArrayList之所以高效是因为实现了读写分离,因此不需要再读的时候加锁,因此它适用于读远远大于写的时候。

ConcurrentLinkedQueue

非阻塞队列ConcurrentLinkedQueue:一个基于链接节点的无界线程安全队列。此队列按照 FIFO(先进先出)原则对元素进行排序,新的元素插入到队列的尾部,队列获取操作从队列头部获得元素。

它的主要api是offer和poll, offer将指定元素插入此队列的尾部 ;poll 获取并移除此队列的头,如果此队列为空,则返回 null

阻塞队列BlockingQueue

实现类

ArrayBlockingQueue

​ 基于数组的阻塞队列实现,在ArrayBlockingQueue内部,维护了一个定长数组,以便缓存队列中的数据对象,这是一个常用的阻塞队列,除了一个定长数组外,ArrayBlockingQueue内部还保存着两个整形变量,分别标识着队列的头部和尾部在数组中的位置。
 ArrayBlockingQueue在生产者放入数据和消费者获取数据,都是共用同一个锁对象,由此也意味着两者无法真正并行运行,这点尤其不同于LinkedBlockingQueue;按照实现原理来分析,ArrayBlockingQueue完全可以采用分离锁,从而实现生产者和消费者操作的完全并行运行。Doug Lea之所以没这样去做,也许是因为ArrayBlockingQueue的数据写入和获取操作已经足够轻巧,以至于引入独立的锁机制,除了给代码带来额外的复杂性外,其在性能上完全占不到任何便宜。 ArrayBlockingQueue和LinkedBlockingQueue间还有一个明显的不同之处在于,前者在插入或删除元素时不会产生或销毁任何额外的对象实例,而后者则会生成一个额外的Node对象。这在长时间内需要高效并发地处理大批量数据的系统中,其对于GC的影响还是存在一定的区别。而在创建ArrayBlockingQueue时,我们还可以控制对象的内部锁是否采用公平锁,默认采用非公平锁。

LinkedBlockingQueue

​ 基于链表的阻塞队列,同ArrayListBlockingQueue类似,其内部也维持着一个数据缓冲队列(该队列由一个链表构成),当生产者往队列中放入一个数据时,队列会从生产者手中获取数据,并缓存在队列内部,而生产者立即返回;只有当队列缓冲区达到最大值缓存容量时(LinkedBlockingQueue可以通过构造函数指定该值),才会阻塞生产者队列,直到消费者从队列中消费掉一份数据,生产者线程会被唤醒,反之对于消费者这端的处理也基于同样的原理。而LinkedBlockingQueue之所以能够高效的处理并发数据,还因为其对于生产者端和消费者端分别采用了独立的锁来控制数据同步,这也意味着在高并发的情况下生产者和消费者可以并行地操作队列中的数据,以此来提高整个队列的并发性能。
作为开发者,我们需要注意的是,如果构造一个LinkedBlockingQueue对象,而没有指定其容量大小,LinkedBlockingQueue会默认一个类似无限大小的容量(Integer.MAX_VALUE),这样的话,如果生产者的速度一旦大于消费者的速度,也许还没有等到队列满阻塞产生,系统内存就有可能已被消耗殆尽了。

DelayQueue

​ DelayQueue中的元素只有当其指定的延迟时间到了,才能够从队列中获取到该元素。DelayQueue是一个没有大小限制的队列,因此往队列中插入数据的操作(生产者)永远不会被阻塞,而只有获取数据的操作(消费者)才会被阻塞。
使用场景:
​ DelayQueue使用场景较少,但都相当巧妙,常见的例子比如使用一个DelayQueue来管理一个超时未响应的连接队列。

PriorityBlockingQueue

​ 基于优先级的阻塞队列(优先级的判断通过构造函数传入的Compator对象来决定),但需要注意的是PriorityBlockingQueue并不会阻塞数据生产者,而只会在没有可消费的数据时,阻塞数据的消费者。因此使用的时候要特别注意,生产者生产数据的速度绝对不能快于消费者消费数据的速度,否则时间一长,会最终耗尽所有的可用堆内存空间。在实现PriorityBlockingQueue时,内部控制线程同步的锁采用的是公平锁。

SynchronousQueue

​ 一种无缓冲的等待队列,类似于无中介的直接交易,有点像原始社会中的生产者和消费者,生产者拿着产品去集市销售给产品的最终消费者,而消费者必须亲自去集市找到所要商品的直接生产者,如果一方没有找到合适的目标,那么对不起,大家都在集市等待。相对于有缓冲的BlockingQueue来说,少了一个中间经销商的环节(缓冲区),如果有经销商,生产者直接把产品批发给经销商,而无需在意经销商最终会将这些产品卖给那些消费者,由于经销商可以库存一部分商品,因此相对于直接交易模式,总体来说采用中间经销商的模式会吞吐量高一些(可以批量买卖);但另一方面,又因为经销商的引入,使得产品从生产者到消费者中间增加了额外的交易环节,单个产品的及时响应性能可能会降低。
 声明一个SynchronousQueue有两种不同的方式,它们之间有着不太一样的行为。公平模式和非公平模式的区别:
 如果采用公平模式:SynchronousQueue会采用公平锁,并配合一个FIFO队列来阻塞多余的生产者和消费者,从而体系整体的公平策略;
 但如果是非公平模式(SynchronousQueue默认):SynchronousQueue采用非公平锁,同时配合一个LIFO队列来管理多余的生产者和消费者,而后一种模式,如果生产者和消费者的处理速度有差距,则很容易出现饥渴的情况,即可能有某些生产者或者是消费者的数据永远都得不到处理。

源码解析

阻塞队列有三组添加删除的api

能够阻塞的:

  • put
  • take

抛出异常的:

  • add
  • remove

有返回值的:

  • offer
  • poll

那么现在你对put()以及take()源码进行分析:

public void put(E e) throws InterruptedException {
    checkNotNull(e);    // 插入元素不能为空
    final ReentrantLock lock = this.lock;   // 获取到锁
    lock.lockInterruptibly();   // 对代码上锁
    try {
        while (count == items.length)   
            notFull.await();   // 如果满了,就等待
        enqueue(e);  // 没有满 就在这个方法里面添加代码
    } finally {
        lock.unlock();  // 释放锁
    }
}



public E take() throws InterruptedException {
    final ReentrantLock lock = this.lock;
    lock.lockInterruptibly();  // 加锁
    try {
        while (count == 0)
            notEmpty.await();   // 如果还没有数据,就等待
        return dequeue();   // 如果有数据就出队列
    } finally {
        lock.unlock();  // 释放锁
    }
}

ConcurrentHashMap

原文地址:https://www.cnblogs.com/Myarticles/p/12046094.html