Java原理领悟-JMM(java内存模型认知)

总线锁、缓存锁、MESI缓存一致性协议、CPU 层面的内存屏障

1.JMM定义:

       Java Memory Model(java内存模型)是一系列的Java虚拟机平台对开发者提供的多线程环境下的内存可见性、是否可以重排序等问题的无关具体平台的统一的保证。(可能在术语上与Java运行时内存分布有歧义,后者指堆、方法区、线程栈等内存区域)。

1.1、多线程开发需要注意的问题:

  • 原子性

    即一个操作或者多个操作要么全部执行并且执行的过程不会被任何因素打断,要么就都不执。

  • 可见性

    可见性是指当多个线程访问同一个变量时,一个线程修改了这个变量的值,其他线程能够立即看得到修改的值。
  •  

    有序性(重排序)
    即程序执行的顺序按照代码的先后顺序执行。

2、硬件层面剖析可见性的本质

       计算机核心组件:CPU、内存、I/O设备,三者在处理速度上存在巨大差异,CPU速度最快>内存>I/O设备(磁盘)。
       为了提升计算性能,CPU从单核提升到了多核,甚至用到了超线程技术最大化提高CPU处理性能,如果后两者处理性能没有跟上,意味着整体的计算效率取决于最慢的设备。为了平衡三者之间的速度差异,最大化的利用CPU提升性能,从硬件、操作系统、编译器等方面,做出了很多优化:

  • CPU增加高速缓存【硬件层面优化】
  • 操作系统增加了进程和线程:通过CPU的时间片切换最大化的提升CPU的使用率。【操作系统层面优化】
  • 编译器指令优化:更合理的去利用好CPU的高速缓存。【编译器层面优化】

2.1、CPU高速缓存

        线程是 CPU 调度的最小单元,线程设计的目是更充分的利用计算机处理的效能,但是大部分运算任务不能只依靠CPU“计算”就能完成,CPU还需要与Memory交互,比如读取运算数据、存储运算结果,这个 I/O 操 作是很难消除的。而由于计算机的存储设备与处理器的运算速度差距非常大,所以现代计算机系统都会增加一层读写速度尽可能接近处理器运算速度的高速缓存来作为内存 和处理器之间的缓冲:将运算需要使用的数据复制到缓存中,让运算能快速进行,当运算结束后再从CPU缓存同步到内存之中。

CPU高速缓存图

高速缓存很好的解决了处理器与内存的速度矛盾,但是也为计算机系统带来了更高的复杂度,因为
它引入了一个新的缓存一致性问题

2.2、什么是缓存一致性问题?

       每个 CPU 的处理过程是, 先将计算需要用到的数据缓存在 CPU 高速缓存中,在 CPU 进行计算时,直接从高速缓存中读取数据并且在计算完成之后写入到缓存中。在整个运算过程完成后,再把缓存中 的数据同步到主内存。 由于在多 CPU 种,每个线程可能会运行在不同的 CPU 内, 并且每个线程拥有自己的高速缓存。同一份数据可能会被缓存到多个 CPU 中,如果在不同 CPU 中运行的不同线程看到同一份内存的缓存值不一样就会存在缓存不一致的问题。 为了解决缓存不一致的问题,在 CPU 层面做了很多事情, 主要提供了两种解决办法:

2.2.1. 总线锁

       在多 cpu 下,当其中一个处理器要对共享内存进行操作的时候,在总线上发出一个 LOCK# 信号,这个信号使得其他处理器无法通过总线来访问到共享内存中的数据,总线锁定把 CPU 和内存之间的通信锁住了,这使得锁定期间,其他处理器不能操作其他内存地址的数据总线锁定的开销比较大,这种机制显然是不合适的。

  总线锁的力度太大了,最好的方法就是控制锁的保护粒度,只需要保证对于被多个 CPU 缓存的同一份数据是一致的就可以了。所以引入了缓存锁。

2.2.2. 缓存锁

  相比总线锁,缓存锁即降低了锁的力度。核心机制是基于缓存一致性协议来实现的。

2.2.2.1、缓存一致性协议

为了达到数据访问的一致,需要各个处理器在访问缓存时遵循一些协议,在读写时根据协议来操作,常见的协议有 MSI、MESI、MOSI 等。最常见的就是 MESI 协议:MESI 表示缓存行的四种状态,分别是:

      • M(Modify) 表示共享数据只缓存在当前 CPU 缓存中, 并且是被修改状态,也就是缓存的数据和主内存中的数据不一致。
      • E(Exclusive) 表示缓存的独占状态,数据只缓存在当前 CPU 缓存中,并且没有被修改。
      • S(Shared) 表示数据可能被多个 CPU 缓存,并且各个缓存中的数据和主内存数据一致。
      • I(Invalid) 表示缓存已经失效

       在MESI协议中,每个缓存的缓存控制器不仅知道自己的 读写操作,而且也监听(snoop)其它 Cache 的读写操作。
对于MESI协议,从 CPU 读写角度来说会遵循以下原则:

  • CPU 读请求:缓存处于 M、E、S 状态都可以被读取,I 状 态 CPU 只能从主存中读取数据。
  • CPU 写请求:缓存处于 M、E 状态才可以被写。对于S状态的写,需要将其他 CPU 中缓存行置为无效才可写使用总线锁和缓存锁机制之后,CPU对于内存的操作大概 可以抽象成下面这样的结构。从而达到缓存一致性效果。
        CPU 缓存行的状态是通过消息传递来进行的,如果 CPU0 要对一个在缓存中共享的变量进行写入,首先发送一个失效的消息给到其他缓存了该数据的 CPU。并且要等到他们的确认回执。CPU0 在这段时间内都会处于阻塞状态
 

2.3、MESI 优化带来的可见性问题:

 
 

 

 

MESI带来的问题


为了避免阻塞带来的资源浪费。在 cpu 中引入 了 Store Bufferes(存储缓存) 和 Invalidate Queue(无效队列)
CPU0 写入共享数据时,直接把数据写入到 store bufferes 中,同时发送 invalidate 消息,然后继续去处理其他指令。
当收到其他所有 CPU 发送了 invalidate ACK消息时,再将 store bufferes 中的数据数据存储至 cache 中。最后再从本地Cache同步到主内存。

 


 
 
 
 
 
 
 
 
 
 
 
 
 
 
缓存锁解决总线锁的逻辑

                但是 cpu 中引入 Store Bufferes 优化存在两个问题:

    1. 第⑥、⑦步骤中,由于Invalidate消息进入队列后就给CPU-0返回了响应,不能保证第⑦步骤一定完成。
    1. 引入了 Store Bufferes 后,处理器会先尝试从 Store Bufferes 中读取值,如果 Store Bufferes 中有数据,则直接从Store Bufferes 中读取,否则就再从本地Cache中读取,从Store Bufferes读取数据存在脏读。

2.4、CPU 层面的内存屏障

  • 定义:内存屏障就是将 Store Bufferes 中的指令写入到内存,从而使得其他访问同一共享内存的线程的可见性。

    • Store Memory Barrier(a.k.a. ST, SMB, smp_wmb)是一条告诉处理器在执行这之后的指令之前,应用已经在存储缓存(store buffer)中的保存的指令。
    • Load Memory Barrier (a.k.a. LD, RMB, smp_rmb)是一条告诉处理器在执行任何的加载前,先应用所有已经在失效队列中的失效操作的指令。

   eg:StoreBufferesQuestion运行结果可能是 0 or 8 。

public class StoreBufferesQuestion {

    private int  numone = 0;
    private Boolean  flag = false;

    public void update() {
        numone = 8;
        flag = true;        
    }

    public void test() {
        while (flag) {
            // numone 是多少?
            System.out.println(numone);
        }
    }
}

    通过内存屏障后StoreBufferesQuestion改成如下:

public class StoreBufferesQuestion {

    private int  numone = 0;
    private Boolean  flag = false;

    public void update() {
        numone = 8;
        Store Memory Barrier指令;刷新Store Bufferes
        flag = true;        
    }

    public void test() {
        while (flag) {
            // numone 是多少?
            Load Memory Barrier指令;执行失效消息
            System.out.println(numone);
        }
    }
}

3、JMM

3.1、什么是JMM(Java Memory Model)

并发编程导致可见性问题的根本原因是缓存重排序。 而JMM 实际上就是提供了合理的禁用缓存以及禁止重排序的方法。所以它最核心的价值在于解决可见性和有序性

 
JMM模型图

JMM 抽象模型分为主内存、工作内存(本地内存);
  • 主内存:是所有线程 共享的,一般是实例对象、静态字段、数组对象等存储在 堆内存中的变量。
  • 工作内存(本地内存):是每个线程独占的,线程对变量的所有操作都必须在工作内存中进行,不能直接读写主内存中的变量,线程之间的共享变量值的传递都是基于主内存来完成。

3.2、JMM 是如何解决可见性有序性问题的?

JMM 提供了一些禁用缓存以及进制重排序的方法,来解决可见性和有序性问题。这些方法大家都很熟悉: volatile、synchronized、final;

3.3、JMM 如何解决顺序一致性问题?

  • 3.3.1、重排序问题
    从源代码到最终执行的指令,可能会经过三种重排序:
 
三种重排序

编译器重排序,JMM 提供了禁止特定类型的编译器重排序。
处理器重排序,JMM 会要求编译器生成指令时,会插入内存屏障来禁止处理器重排序。

  • 3.3.2、JMM 层面的内存屏障
1、为什么会有内存屏障?
  • CPU的高速缓存会缓存主存中的数据,缓存的目的就是为了提高性能,避免每次都要向内存取。但是这样的弊端也很明显:不能实时的和内存发生信息交换,分在不同CPU执行的不同线程对同一个变量的缓存值不同。
  • 用volatile关键字修饰变量可以解决上述问题,那么volatile是如何做到这一点的呢?那就是内存屏障。
2、内存屏障是什么?
  • 硬件层的内存屏障分为两种:Load Barrier (读屏障)Store Barrier(写屏障)及 Full Barrier(全屏障) 是读屏障和写屏障的合集。

  • 内存屏障有两个作用:

    • 阻止屏障两侧的指令重排序;
    • 写屏障:强制把写缓冲区/高速缓存中的脏数据等写回主内存,读屏障:将缓冲区/高速缓存中相应的数据失效。
3、java内存屏障?
  • java的内存屏障通常所谓的四种即LoadLoad(LL),StoreStore(SS),LoadStore(LS),StoreLoad(SL)实际上也是上述两种的组合,完成一系列的屏障和数据同步功能。
    • LoadLoad(LL)屏障:对于这样的语句Load1; LoadLoad; Load2,在Load2及后续读取操作要读取的数据被访问前,保证Load1要读取的数据被读取完毕。
    • StoreStore(SS)屏障:对于这样的语句Store1; StoreStore; Store2,在Store2及后续写入操作执行前,保证Store1的写入操作对其它处理器可见。
    • LoadStore(LS)屏障:对于这样的语句Load1; LoadStore; Store2,在Store2及后续写入操作被刷出前,保证Load1要读取的数据被读取完毕。
    • StoreLoad(SL)屏障:对于这样的语句Store1; StoreLoad; Load2,在Load2及后续所有读取操作执行前,保证Store1的写入对所有处理器可见。它的开销是四种屏障中最大的。在大多数处理器的实现中,这个屏障是个万能屏障,兼具其它三种内存屏障的功能。
4、volatile语义中的内存屏障?
  • volatile的内存屏障策略非常严格保守,非常悲观毫无安全感的心态:
    • 在每个volatile写操作前插入StoreStore(SS)屏障,在写操作后插入StoreLoad屏障;
    • 在每个volatile读操作前插入LoadLoad(LL)屏障,在读操作后插入LoadStore屏障;

由于内存屏障的作用,避免了volatile变量和其它指令重排序、线程之间实现了通信,使得volatile表现出了轻量锁的特性。

5、final语义中的内存屏障?

对于final域,编译器和CPU会遵循两个排序规则:

  • 1、新建对象过程中,构造体中对final域的初始化写入和这个对象赋值给其他引用变量,这两个操作不能重排序;
  • 2、初次读包含final域的对象引用和读取这个final域,这两个操作不能重排序;(意思就是先赋值引用,再调用final值)
    总之上面规则的意思可以这样理解:必需保证一个对象的所有final域被写入完毕后才能引用和读取。这也是内存屏障的起的作用:
            1、写final域:在编译器写final域完毕,构造体结束之前,会插入一个StoreStore屏障,保证前面的对final写入对其他线程/CPU可见,并阻止重排序。
            2、读final域:在上述规则2中,两步操作不能重排序的机理就是在读final域前插入了LoadLoad屏障。
            3、X86处理器中,由于CPU不会对写-写操作进行重排序,所以StoreStore屏障会被省略;而X86也不会对逻辑上有先后依赖关系的操作进行重排序,所以LoadLoad也会变省略。

3.4、HappenBefore原则

      HappenBefore解决的是可见性问题
      定义:前一个操作的结果对于后续操作是可见的。在 JMM 中,如果一个操作执行的结果需要对另一个操作课件,那么这两个操作必须要存在 happens-before 关系。这两个操作可以是同一个线程,也可以是不同的线程。

          JMM 中有哪些方法建立 happen-before 规则:
  • 1、as-if-serial 规则(程序顺序执行):单个线程中的代码顺序不管怎么重排序,对于结果来说是不变的。
  • 2、volatile 变量规则,对于 volatile 修饰的变量的写的操作, 一定 happen-before 后续对于 volatile 变量的读操作;
  • 3、监视器锁规则(monitor lock rule):对一个监视器的解锁,happens-before于随后对这个监视器的加锁。
  • 4、传递性规则:如果A happens-before B,且B happens-before C,那么A happens-before C
  • 5、start 规则:如果线程 A 执行操作 ThreadB.start(),那么线程 A 的 ThreadB.start()操作 happens-before 线程 B 中的任意操作。
  • 6、join 规则:如果线程 A 执行操作 ThreadB.join()并成功返回,那么线程 B 中的任意操作 happens-before 于线程 A 从 ThreadB.join()操作成功返回。

这几条规则单独看上去没有什么厉害的地方,这些规则从来都不是单独出现的。。。综合运用效果?

class VolatileExample {
    int a = 0;
    volatile boolean flag = false;

    public void writer() {
        a = 1;           //1
        flag = true;     //2
    }

    public void reader() {
        if (flag) {       //3
            int i = a;    //4
            ...
        }
    }
}

       假设线程A执行writer()方法之,线程B执行reader()方法,那么线程B执行4的时候一定能看到线程A写入的值吗?注意,a不是volatile变量。
      答案是肯定的。因为根据happens-before规则,我们可以得到如下关系:
      根据程序顺序规则,1 happens-before 2;3 happens-before 4。
      根据volatile规则,2 happens-before 3。
      根据传递性规则,1 happens-before 4。
      因此,综合运用程序顺序规则、volatile规则及传递性规则,我们可以得到1 happens-before 4,即线程B在执行4的时候一定能看到A写入的值。

 

 

1、JMM定义:

全称Java Memory Model(java内存模型)是一系列的Java虚拟机平台对开发者提供的多线程环境下的内存可见性、是否可以重排序等问题的无关具体平台的统一的保证。(可能在术语上与Java运行时内存分布有歧义,后者指堆、方法区、线程栈等内存区域)。

1.1、多线程开发需要注意的问题:
  • 原子性
    即一个操作或者多个操作 要么全部执行并且执行的过程不会被任何因素打断,要么就都不执。
  • 可见性
    可见性是指当多个线程访问同一个变量时,一个线程修改了这个变量的值,其他线程能够立即看得到修改的值。
  • 有序性(重排序)
    即程序执行的顺序按照代码的先后顺序执行。

2、硬件层面剖析可见性的本质

       计算机核心组件:CPU、内存、I/O设备,三者在处理速度上存在巨大差异,CPU速度最快>内存>I/O设备(磁盘)。
为了提升计算性能,CPU从单核提升到了多核,甚至用到了超线程技术最大化提高CPU处理性能,如果后两者处理性能没有跟上,意味着整体的计算效率取决于最慢的设备。为了平衡三者之间的速度差异,最大化的利用CPU提升性能,从硬件、操作系统、编译器等方面,做出了很多优化:

  • CPU增加高速缓存【硬件层面优化】
  • 操作系统增加了进程和线程:通过CPU的时间片切换最大化的提升CPU的使用率。【操作系统层面优化】
  • 编译器指令优化:更合理的去利用好CPU的高速缓存。【编译器层面优化】
2.1、CPU高速缓存

线程是 CPU 调度的最小单元,线程设计的目是更充分的利用计算机处理的效能,但是大部分运算任务不能只依靠CPU“计算”就能完成,CPU还需要与Memory交互,比如读取运算数据、存储运算结果,这个 I/O 操 作是很难消除的。而由于计算机的存储设备与处理器的运算速度差距非常大,所以现代计算机系统都会增加一层读写速度尽可能接近处理器运算速度的高速缓存来作为内存 和处理器之间的缓冲:将运算需要使用的数据复制到缓存中,让运算能快速进行,当运算结束后再从CPU缓存同步到内存之中。

 
CPU高速缓存图

高速缓存很好的解决了处理器与内存的速度矛盾,但是也为计算机系统带来了更高的复杂度,因为
它引入了一个新的缓存一致性问题

2.2、什么是缓存一致性问题?

每个 CPU 的处理过程是, 先将计算需要用到的数据缓存在 CPU 高速缓存中,在 CPU 进行计算时,直接从高速缓存中读取数据并且在计算完成之后写入到缓存中。在整个运算过程完成后,再把缓存中 的数据同步到主内存。
由于在多 CPU 种,每个线程可能会运行在不同的 CPU 内, 并且每个线程拥有自己的高速缓存。同一份数据可能会被缓存到多个 CPU 中,如果在不同 CPU 中运行的不同线程看到同一份内存的缓存值不一样就会存在缓存不一致的问题。
为了解决缓存不一致的问题,在 CPU 层面做了很多事情, 主要提供了两种解决办法:

  • 2.2.1. 总线锁
           在多 cpu 下,当其中一个处理器要对共享内存进行操作的时候,在总线上发出一个 LOCK# 信号,这个信号使得其他处理器无法通过总线来访问到共享内存中的数据,总线锁定把 CPU 和内存之间的通信锁住了,这使得锁定期间,其他处理器不能操作其他内存地址的数据总线锁定的开销比较大,这种机制显然是不合适的。

总线锁的力度太大了,最好的方法就是控制锁的保护粒度,只需要保证对于被多个 CPU 缓存的同一份数据是一致的就可以了。所以引入了缓存锁。

  • 2.2.2. 缓存锁
            相比总线锁,缓存锁即降低了锁的力度。核心机制是基于缓存一致性协议来实现的。

    • 2.2.2.1、缓存一致性协议
      为了达到数据访问的一致,需要各个处理器在访问缓存时遵循一些协议,在读写时根据协议来操作,常见的协议有 MSI、MESI、MOSI 等。最常见的就是 MESI 协议
      MESI 表示缓存行的四种状态,分别是:
        1. M(Modify) 表示共享数据只缓存在当前 CPU 缓存中, 并且是被修改状态,也就是缓存的数据和主内存中的数据不一致。
        1. E(Exclusive) 表示缓存的独占状态,数据只缓存在当前 CPU 缓存中,并且没有被修改。
        1. S(Shared) 表示数据可能被多个 CPU 缓存,并且各个缓存中的数据和主内存数据一致。
        1. I(Invalid) 表示缓存已经失效。

在 MESI 协议中,每个缓存的缓存控制器不仅知道自己的 读写操作,而且也监听(snoop)其它 Cache 的读写操作。
对于 MESI 协议,从 CPU 读写角度来说会遵循以下原则:

  • CPU 读请求:缓存处于 M、E、S 状态都可以被读取,I 状 态 CPU 只能从主存中读取数据。
  • CPU 写请求:缓存处于 M、E 状态才可以被写。对于 S 状 态的写,需要将其他 CPU 中缓存行置为无效才可写 使用总线锁和缓存锁机制之后,CPU 对于内存的操作大概 可以抽象成下面这样的结构。从而达到缓存一致性效果。
 
缓存一致性抽象图
2.3、MESI 优化带来的可见性问题:

CPU 缓存行的状态是通过消息传递来进行的,如果 CPU0 要对一个在缓存中共享的变量进行写入,首先发送一个失效的消息给到其他缓存了该数据的 CPU。并且要等到他们的确认回执。CPU0 在这段时间内都会处于阻塞状态

 
MESI带来的问题

为了避免阻塞带来的资源浪费。在 cpu 中引入 了 Store Bufferes(存储缓存)Invalidate Queue(无效队列)
CPU0 写入共享数据时,直接把数据写入到 store bufferes 中,同时发送 invalidate 消息,然后继续去处理其他指令。
当收到其他所有 CPU 发送了 invalidate ACK消息时,再将 store bufferes 中的数据数据存储至 cache 中。最后再从本地Cache同步到主内存。
 
缓存锁解决总线锁的逻辑

但是 cpu 中引入 Store Bufferes 优化存在两个问题:

    1. 第⑥、⑦步骤中,由于Invalidate消息进入队列后就给CPU-0返回了响应,不能保证第⑦步骤一定完成。
    1. 引入了 Store Bufferes 后,处理器会先尝试从 Store Bufferes 中读取值,如果 Store Bufferes 中有数据,则直接从Store Bufferes 中读取,否则就再从本地Cache中读取,从Store Bufferes读取数据存在脏读。
2.4、CPU 层面的内存屏障
  • 定义:内存屏障就是将 Store Bufferes 中的指令写入到内存,从而使得其他访问同一共享内存的线程的可见性。

    • Store Memory Barrier(a.k.a. ST, SMB, smp_wmb)是一条告诉处理器在执行这之后的指令之前,应用所有已经在存储缓存(store buffer)中的保存的指令。
    • Load Memory Barrier (a.k.a. LD, RMB, smp_rmb)是一条告诉处理器在执行任何的加载前,先应用所有已经在失效队列中的失效操作的指令。

eg:StoreBufferesQuestion运行结果可能是 0 or 8 。

public class StoreBufferesQuestion {

    private int  numone = 0;
    private Boolean  flag = false;

    public void update() {
        numone = 8;
        flag = true;        
    }

    public void test() {
        while (flag) {
            // numone 是多少?
            System.out.println(numone);
        }
    }
}

通过内存屏障后StoreBufferesQuestion改成如下:

public class StoreBufferesQuestion {

    private int  numone = 0;
    private Boolean  flag = false;

    public void update() {
        numone = 8;
        Store Memory Barrier指令;刷新Store Bufferes
        flag = true;        
    }

    public void test() {
        while (flag) {
            // numone 是多少?
            Load Memory Barrier指令;执行失效消息
            System.out.println(numone);
        }
    }
}

3、JMM

3.1、什么是JMM(Java Memory Model)

并发编程导致可见性问题的根本原因是缓存重排序。 而JMM 实际上就是提供了合理的禁用缓存以及禁止重排序的方法。所以它最核心的价值在于解决可见性和有序性

 
JMM模型图

JMM 抽象模型分为主内存、工作内存(本地内存);
  • 主内存:是所有线程 共享的,一般是实例对象、静态字段、数组对象等存储在 堆内存中的变量。
  • 工作内存(本地内存):是每个线程独占的,线程对变量的所有操作都必须在工作内存中进行,不能直接读写主内存中的变量,线程之间的共享变量值的传递都是基于主内存来完成。

3.2、JMM 是如何解决可见性有序性问题的?

JMM 提供了一些禁用缓存以及进制重排序的方法,来解决可见性和有序性问题。这些方法大家都很熟悉: volatile、synchronized、final;

3.3、JMM 如何解决顺序一致性问题?

  • 3.3.1、重排序问题
    从源代码到最终执行的指令,可能会经过三种重排序:
 
三种重排序

编译器重排序,JMM 提供了禁止特定类型的编译器重排序。
处理器重排序,JMM 会要求编译器生成指令时,会插入内存屏障来禁止处理器重排序。

  • 3.3.2、JMM 层面的内存屏障
1、为什么会有内存屏障?
  • CPU的高速缓存会缓存主存中的数据,缓存的目的就是为了提高性能,避免每次都要向内存取。但是这样的弊端也很明显:不能实时的和内存发生信息交换,分在不同CPU执行的不同线程对同一个变量的缓存值不同。
  • 用volatile关键字修饰变量可以解决上述问题,那么volatile是如何做到这一点的呢?那就是内存屏障。
2、内存屏障是什么?
  • 硬件层的内存屏障分为两种:Load Barrier (读屏障)Store Barrier(写屏障)及 Full Barrier(全屏障) 是读屏障和写屏障的合集。

  • 内存屏障有两个作用:

    • 阻止屏障两侧的指令重排序;
    • 写屏障:强制把写缓冲区/高速缓存中的脏数据等写回主内存,读屏障:将缓冲区/高速缓存中相应的数据失效。
3、java内存屏障?
  • java的内存屏障通常所谓的四种即LoadLoad(LL),StoreStore(SS),LoadStore(LS),StoreLoad(SL)实际上也是上述两种的组合,完成一系列的屏障和数据同步功能。
    • LoadLoad(LL)屏障:对于这样的语句Load1; LoadLoad; Load2,在Load2及后续读取操作要读取的数据被访问前,保证Load1要读取的数据被读取完毕。
    • StoreStore(SS)屏障:对于这样的语句Store1; StoreStore; Store2,在Store2及后续写入操作执行前,保证Store1的写入操作对其它处理器可见。
    • LoadStore(LS)屏障:对于这样的语句Load1; LoadStore; Store2,在Store2及后续写入操作被刷出前,保证Load1要读取的数据被读取完毕。
    • StoreLoad(SL)屏障:对于这样的语句Store1; StoreLoad; Load2,在Load2及后续所有读取操作执行前,保证Store1的写入对所有处理器可见。它的开销是四种屏障中最大的。在大多数处理器的实现中,这个屏障是个万能屏障,兼具其它三种内存屏障的功能。
4、volatile语义中的内存屏障?
  • volatile的内存屏障策略非常严格保守,非常悲观毫无安全感的心态:
    • 在每个volatile写操作前插入StoreStore(SS)屏障,在写操作后插入StoreLoad屏障;
    • 在每个volatile读操作前插入LoadLoad(LL)屏障,在读操作后插入LoadStore屏障;

由于内存屏障的作用,避免了volatile变量和其它指令重排序、线程之间实现了通信,使得volatile表现出了轻量锁的特性。

5、final语义中的内存屏障?

对于final域,编译器和CPU会遵循两个排序规则:

  • 1、新建对象过程中,构造体中对final域的初始化写入和这个对象赋值给其他引用变量,这两个操作不能重排序;
  • 2、初次读包含final域的对象引用和读取这个final域,这两个操作不能重排序;(意思就是先赋值引用,再调用final值)
    总之上面规则的意思可以这样理解:必需保证一个对象的所有final域被写入完毕后才能引用和读取。这也是内存屏障的起的作用:
            1、写final域:在编译器写final域完毕,构造体结束之前,会插入一个StoreStore屏障,保证前面的对final写入对其他线程/CPU可见,并阻止重排序。
            2、读final域:在上述规则2中,两步操作不能重排序的机理就是在读final域前插入了LoadLoad屏障。
            3、X86处理器中,由于CPU不会对写-写操作进行重排序,所以StoreStore屏障会被省略;而X86也不会对逻辑上有先后依赖关系的操作进行重排序,所以LoadLoad也会变省略。

3.4、HappenBefore原则

      HappenBefore解决的是可见性问题
      定义:前一个操作的结果对于后续操作是可见的。在 JMM 中,如果一个操作执行的结果需要对另一个操作课件,那么这两个操作必须要存在 happens-before 关系。这两个操作可以是同一个线程,也可以是不同的线程。

JMM 中有哪些方法建立 happen-before 规则:
  • 1、as-if-serial 规则(程序顺序执行):单个线程中的代码顺序不管怎么重排序,对于结果来说是不变的。
  • 2、volatile 变量规则,对于 volatile 修饰的变量的写的操作, 一定 happen-before 后续对于 volatile 变量的读操作;
  • 3、监视器锁规则(monitor lock rule):对一个监视器的解锁,happens-before于随后对这个监视器的加锁。
  • 4、传递性规则:如果A happens-before B,且B happens-before C,那么A happens-before C。

  • 5、start 规则:如果线程 A 执行操作 ThreadB.start(),那么线程 A 的 ThreadB.start()操作 happens-before 线程 B 中的任意操作。
  • 6、join 规则:如果线程 A 执行操作 ThreadB.join()并成功返回,那么线程 B 中的任意操作 happens-before 于线程 A 从 ThreadB.join()操作成功返回。

这几条规则单独看上去没有什么厉害的地方,这些规则从来都不是单独出现的。。。综合运用效果?

class VolatileExample {
    int a = 0;
    volatile boolean flag = false;

    public void writer() {
        a = 1;           //1
        flag = true;     //2
    }

    public void reader() {
        if (flag) {       //3
            int i = a;    //4
            ...
        }
    }
}

       假设线程A执行writer()方法之,线程B执行reader()方法,那么线程B执行4的时候一定能看到线程A写入的值吗?注意,a不是volatile变量。
      答案是肯定的。因为根据happens-before规则,我们可以得到如下关系:
      根据程序顺序规则,1 happens-before 2;3 happens-before 4。
      根据volatile规则,2 happens-before 3。
      根据传递性规则,1 happens-before 4。
      因此,综合运用程序顺序规则、volatile规则及传递性规则,我们可以得到1 happens-before 4,即线程B在执行4的时候一定能看到A写入的值。


参考资料:

《深入理解Java虚拟机-2nd》
《Java 并发编程实战》
《Java 并发编程的艺术》



作者:biudefu
链接:https://www.jianshu.com/p/06717ac8312c
来源:简书
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
极限就是为了超越而存在的
原文地址:https://www.cnblogs.com/liboware/p/11908015.html