volatile 关键字

一、cpu cache 模型

cpu 与 主存的速度差异因此产生了缓存。现在缓存的数量增加到3 级,最靠近cpu 的 称为 L1,然后依次是 L2 ,L3

由于程序指令与数据的行为和热点分布差异, L1 Cache 分为 L1i 和 L1d 。 缓存提高了吞吐力,单引入了缓存不一致问题。

比如:

i++
  1. 读取主内存的 i 到 cache
  2. 对 i 进行 +1
  3. 将结果写回到 cpu cache 
  4. 将数据写回到主存

在单线程是没有问题的,但是在多线程就会出现问题。如何解决缓存不一致问题?

01.通过总线加锁
02.通过缓存一致性协议

  

 二、理解 Volatile 关键字

并发三个特性

  1. 原子性
  2. 有序性
  3. 可见性

原子性:操作是不可再分割的一个整体,原子操作+原子操作 == 非原子操作

可见性:当一个线程对共享变量修改,别的线程立马可以看到修改后的新值

有序性: 指代码执行过程的先后顺序,在多线程的情况下,如果不能有序,则会产生很大问题

Java 如何保障可见性?

  1. volatile 修饰,对于资源的操作会直接在主内存中进行
  2. synchronized 保证可见性,同一时刻只能用一个线程可见
  3. juc 中的 Lock ,与 synchronized 相同

Java 中如何保证有序性?

  1. volatile 
  2. synchronzied
  3. Lock

使用 Volatile 的意义:

  • 线程之间变量的可见性
  • 禁止指令重排序
  • 不能保证原子性

volatile 如何保证禁止指令重排序?

被 volatile 修饰的变量会存储 Lock; 的前缀,Lock; 相当于 内存屏障。为了实现volatile的内存语义,编译器在生成字节码时,会在指令序列中插入内存屏障来禁止特定类型的处理器重排序

JMM基于保守策略的JMM内存屏障插入策略:

1.在每个volatile写操作的前面插入一个StoreStore屏障

2.在每个volatile写操作的后面插入一个SotreLoad屏障

3.在每个volatile读操作的后面插入一个LoadLoad屏障

4.在每个volatile读操作的后面插入一个LoadStore屏障

上图的StoreStore屏障可以保证在volatile写之前,其前面的所有普通写操作已经对任意处理器可见了

因为StoreStore屏障将保障上面所有的普通写在volatile写之前刷新到主内存

 

86处理器仅仅会对写-读操作做重排序

因此会省略掉读-读、读-写和写-写操作做重排序的内存屏障

在x86中,JMM仅需在volatile后面插入一个StoreLoad屏障即可正确实现volatile写-读的内存语义

这意味着在x86处理器中,volatile写的开销比volatile读的大,因为StoreLoad屏障开销比较大

原文地址:https://www.cnblogs.com/bytecodebuffer/p/11962822.html