并发编程@线程基础

* 解决脏读
* 造成脏读的原因是在写入数据(set)的时候,调用了读取数据(get)的方法,造成读到修改的数据的现象。
* 解决的办法是:使用synchronize同时对get方法和set方法加锁,这样set的时候就无法get

* 锁重入
* 概念:对于拿到某个锁的线程,它由可能再拿到其他的锁。对于它刚执行完并释放的锁,也有可能再次立即获得

* 对于同步块中抛异常的情况
* 如果同步块执行过程中捕获到了异常,如果由对其进行处理,则同步不会被打断,程序继续执行。如果抛出了异常,则同步块会被打断,线程拥有的该对象锁也会被释放

* 对于同步对象的要求
* 同步对象的引用只要没有变化,那么线程就视同步对象始终没变,它始终持有同一个对象锁,如果同步的对象引用发生改变,那么线程就认为它前后所持有的对象锁是不一样的

* 尽量不要对String常量加锁
* 原因:可能会出现死循环,字符串常量在常量池中只有一份对象,所以一把锁永远都会被同一个线程拿着不放

* vo la tile关键字
* 作用:让某个变量在多个线程间可见
* 原理:
1. 对于线程,线程共享同一个堆空间(主内存),这个堆空间保存着实际的对象。
2. 当某个线程启动并访问共享的堆空间变量的时候,它会开辟一块属于自己的空间,然后把堆空间中的变量复制一份放置到自己的空间中,然后读和取都对自己空间中的变量进行访问。至于线程何时把写如自己空间中的变量写到堆空间中,我们是无法控制的。
3. 当两个线程同时读取共享堆空间中的变量,它们会将变量复制一份,放到各自空间中。如果此时的变量被volatile修饰,那么:[划重点]
若变量被volatile修饰,当该变量的值改变时,会强制所有线程执行引擎去主内存,也就是堆空间重新读取一份
* 注意:volatile虽然具备可见性,但是不具备原子性,即当一个方法中由多个操作,多线程并发访问的时候可能会被打断
* 实例:volatiletest.RunThread

* atomicInteger
* 具备原子性的integer,保证在操作的时候,类型一直保持原子性

* 静态内部类实现单例模式
* 代码:
public class InnerSingleton {
// 声明一个静态的内部类,该内部类使用饿汉式方式来获取实例对象
private static class SingleTon {
private static SingleTon singleTon = new SingleTon();
}
// 声明一个静态方法来返回这个实例对象
public static SingleTon getSingleTon() {
return SingleTon.singleTon;
}
}
* 为什么要使用静态内部类来实现单例?
答:使用这种方法可以解决普通的饿汉式和懒汉式的弊端,对多线程并发访问的支持非常友好。
为什么不使用饿汉式?因为饿汉式类一加载就创建对象,这样影响性能,我们更希望在使用对象的时候才去加载它
* 用一句话描述一下静态内部类实现单例模式的做法
答:在类的内部
1. 声明一个静态的内部类,该内部类使用饿汉式方式来获取实例对象。
2. 声明一个静态方法来返回这个实例对象

* 并发类容器
* Hashtable Vector --> Collections.synchronizedMap() --> concurrentedHashMap
* 并发类容器
HashMap --> ConcurrentHashMap
TreeMap --> ConcurrentSkipListMap
Vector --> CopyOnWriteArrayList
--> CopyOnWriteArraySet
* ConcurrentHashMap内部实现
* 原理:
使用锁分段机制(16段segment),每个段其实就是一个小的HashTable,各自都由自己的锁,只要多个修改操作发生在不同的段上,它们就可以并发进行。把一个整体分成16个段(segment),也就是最高支持16个线程的并发修改操作。并且代码中大多共享变量,使用volatile关键字声明,目的是第一时间获取修改的内容,性能非常好
* 设计思想:
减小锁的粒度
* CopyOnWrite(COW)
* 概念:
是一种程序设计中的优化策略
CopyOnWrite即写时复制的容器。通俗的理解是当我们向一个容器添加元素的时候,不直接往当前容器添加,而是先将当前容器进行Copy,复制出一个新的容器,然后往新的容器里添加元素,添加元素后,再将原容器的引用指向新的容器。
这样做的好处是我们可以对CopyOnWrite容器进行并发的读,而不需要加锁,因为当前容器不会添加任何元素。
所以CopyOnWrite体现了一种读写分离的思想。
* 设计思想:
读写分离,读和写在不同的容器
* 适合应用:
由设计概念可知,它适合读多写少的情况下比较适合

* 并发Queue
* ConcurrentLinkedQueue -- 高性能无界无阻塞队列 -- 无锁
* 适合在高并发场景下的队列,通过无锁的方式,实现了高并发状态下的高性能。
* 通常ConcurrentLinkedQueue性能好于BlockingQueue
* 它是一个基于链接节点的无界线程安全队列。该队列的元素遵循先进先出的原则。头是最先加入的,尾是最近加入的,该队列不允许null元素
* 重要方法:
add()和offer(): 都是添加元素,在本容器中,两个方法无差别
poll()和peek(): 都是取头节点元素,区别:poll会删除元素,peek不会
* ArrayBlockingQueue -- 没有用到锁
* 基于数组的阻塞队列实现
* 在ArrayBlockingQueue内部维护了一个定长的数组,以便缓存队列的数据对象,其内部没实现读写分离,也就意味着生产和消费不能完全并行,长度是需要定义的,可以指定先进先出还是先进后出,也叫有界队列
* LinkedBlockingQueue -- 读写分离锁
* 基于链表的阻塞队列
* 同ArrayBlockingQueue类似,其内部也维持着一个数据缓冲队列(该队列由一个链表构成),LinkBlockingQueue之所以能高效地处理并发数据,是因为其内部实现采用了分离锁(读与写分离两个锁),从而实现生产者消费者的操作完全并行,它是一个无界队列
* 备注:如果初始化的时候指定了长度,它也会变成有界队列
* PriorityBlockingQueue -- 公平锁
* 基于优先级的阻塞队列(优先级的判断通过构造函数传入的Compator对象指定,也就是传入队列的对象必须实现Comparable接口)
* PriorityBlockingQueue内部控制线程同步的锁是公平锁,它是一个无界队列
* DelayQueue
* 带有延迟时间的Queue,其中的元素只有当其指定的延迟时间到了,才能够从队列中获取到该元素。
* DelayQuue元素必须实现Delayed接口,DelayQueue是一个无界队列
* 应用场景:
缓存超过时间对数据进行移除、任务超时处理、空闲链接的关闭
* SynchronousQueue
* 一种没有缓冲的队列,生产者产生的数据直接会被消费者获取并消费

* future设计模式
* 原理
* 当程序请求某个数据资源的时候,服务器返回该数据资源对象的一个类似代理的Furture对象作为请求结果,程序就无需等待获取数据,可以继续运行。
* 服务器返回FurtureData后,自己偷偷去请求获得真实数据,并将真实的数据设置进FutrueData中,这时候程序如果要请求结果,就可以通过FurtureData获得真实数据
* 实例:查看练习
* 实现:

* Master-Worker设计模式
* 核心思想:
* 系统由两类进程协作工作,Master进程和Worker进程。
* Master负责接收和分配任务,Worker负责处理子任务
* 当各个Worker子进程处理完成后,会将结果返回给Master,由Master归纳和总结
* 其好处是能将大任务分解成若干个小任务,并行执行,从而提高系统的吞吐量

线程池:

减少来回切换线程池
复用
减少创建线程时的消耗

原文地址:https://www.cnblogs.com/qq438649499/p/12111776.html