极客时间《Java并发编程实战》---并发编程BUG的源头与Java如何解决可见性和有序性问题笔记

文章目录

可见性:一个线程对共享变量的修改,另外一个线程能够立刻看到
原子性:把一个或者多个操作在 CPU 执行的过程中不被中断的特性
有序性:指的是程序按照代码的先后顺序执行

并发编程bug的源头之一:缓存导致的可见性问题

单核时代,可见性问题是不用操心的,因为他就是同一块地方,同一块缓存。线程A对它进行修改,线程B立马就能够读取到。
多核时代下,缓存的模型就变成了这样,每颗CPU都有了自己的缓存。
极客时间《Java并发编程实战》---并发编程BUG的源头与Java如何解决可见性和有序性问题笔记
极客时间《Java并发编程实战》---并发编程BUG的源头与Java如何解决可见性和有序性问题笔记
这样子的话,线程A对于变量V的修改,线程B就看不到了。这就会导致一些诡异的问题,比如:

public class Test {
    private static long count = 0;

    private void add10K() {
        int idx = 0;
        while (idx++ < 10000) {
            count += 1;
        }
    }
    public static long calc() throws InterruptedException {
        final Test test = new Test();
        // 创建两个线程,执行add()操作
        Thread th1 = new Thread(() -> {
            test.add10K();
        });
        Thread th2 = new Thread(() -> {
            test.add10K();
        });
        // 启动两个线程
        th1.start();
        th2.start();
        // 等待两个线程执行结束
        th1.join();
        th2.join();
        return count;
    }
    public static void clean() {
        count = 0;
    }
    public static void main(String[] args) throws InterruptedException {
        System.out.println(calc());
        clean();
        System.out.println(calc());
        clean();
        System.out.println(calc());
        clean();
        System.out.println(calc());
        clean();
        System.out.println(calc());
        clean();
    }
}

极客时间《Java并发编程实战》---并发编程BUG的源头与Java如何解决可见性和有序性问题笔记
按照人为思想来看,结果应该是20 000。但实际上却不是,这就是因为他们第一次执行时,都会将 count=0 读到各自的 CPU 缓存里,执行完 count+=1 之后,各自 CPU 缓存里的值都是 1,同时写入内存后,我们会发现内存中是 1,而不是我们期望的 2。之后由于各自的 CPU 缓存里都有了 count 的值,两个线程都是基于 CPU 缓存里的 count 值来计算,所以导致最终 count 的值都是小于 20000 的。这就是缓存的可见性问题。

关于更详细的缓存知识可见:聊聊计算机缓存

并发编程bug的源头之二:线程切换带来的原子性问题

举例:count+=1,大致需要三条指令完成。CPU发生切换是在不确定的任何时候。

  1. 指令 1:首先,需要把变量 count 从内存加载到 CPU 的寄存器;
  2. 指令 2:之后,在寄存器中执行 +1 操作;
  3. 指令 3:最后,将结果写入内存(缓存机制导致可能写入的是 CPU 缓存而不是内存)。

如图中切换的话,自然不符合预期。
极客时间《Java并发编程实战》---并发编程BUG的源头与Java如何解决可见性和有序性问题笔记

并发编程bug的源头之三:编译优化带来的有序性问题

顾名思义,就是编译器的优化可能会改变代码的执行顺序。
比如:利用双重检查创建单例对象,例如下面的代码:在获取实例 getInstance() 的方法中,我们首先判断 instance 是否为空,如果为空,则锁定 Singleton.class 并再次检查 instance 是否为空,如果还为空则创建 Singleton 的一个实例。

public class Singleton {
  static Singleton instance;
  static Singleton getInstance(){
    if (instance == null) {
      synchronized(Singleton.class) {
        if (instance == null)
          instance = new Singleton();
        }
    }
    return instance;
  }
}

那么为什么需要双重检查呐?过程如下,假设有两个线程 A、B 同时调用 getInstance() 方法,他们会同时发现 instance == null ,于是同时对 Singleton.class 加锁,此时 JVM 保证只有一个线程能够加锁成功(假设是线程 A),另外一个线程则会处于等待状态(假设是线程 B);线程 A 会创建一个 Singleton 实例,之后释放锁,锁释放后,线程 B 被唤醒,线程 B 再次尝试加锁,此时是可以加锁成功的,加锁成功后,线程 B 检查 instance == null 时会发现,已经创建过 Singleton 实例了,所以线程 B 不会再创建一个 Singleton 实例。(如果这里不是双重检查,那就会再次创建 Singleton 实例呀)

这看上去一切都很完美,无懈可击,但实际上这个 getInstance() 方法并不完美。问题出在哪里呢?出在 new 操作上,我们以为的 new 操作应该是:

  1. 分配一块内存 M;
  2. 在内存 M 上初始化 Singleton 对象;
  3. 然后 M 的地址赋值给 instance 变量。

但是实际上优化后的执行路径却是这样的:

  1. 分配一块内存 M;
  2. 将 M 的地址赋值给 instance 变量;
  3. 最后在内存 M 上初始化 Singleton 对象。(这其实和写时复制同理)

这样优化后导致的其中一种情况就是:
极客时间《Java并发编程实战》---并发编程BUG的源头与Java如何解决可见性和有序性问题笔记

Java内存模型-----解决可见性和有序性问题

导致可见性的原因是缓存,导致有序性的原因是编译优化,那解决可见性、有序性最直接的办法就是禁用缓存和编译优化,但是这样问题虽然解决了,我们程序的性能可就堪忧了。那么其实最可取的方式就是让程序员按需禁用缓存和编译优化。所以Java提供了volatile、synchronized 和 final 三个关键字,以及六项 Happens-Before 规则来让程序员自己决定何时使用/禁用缓存。

volatile 关键字

其实就是禁用CPU缓存,例如,我们声明一个 volatile 变量 volatile int x = 0,它表达的是:告诉编译器,对这个变量的读写,不能使用 CPU 缓存,必须从内存中读取或者写入

六项 Happens-Before 规则—前面一个操作的结果对后续操作可见

比较正式的说法是:Happens-Before 约束了编译器的优化行为,虽允许编译器优化,但是要求编译器优化后一定遵守 Happens-Before 规则。需要注意的是,这六项规则都是关于可见性的。

1. 程序的顺序性规则
class VolatileExample {
  int x = 0;
  volatile boolean v = false;
  public void writer() {
    x = 42;
    v = true;
  }
  public void reader() {
    if (v == true) {
      // 这里x会是多少呢?
    }
  }
}

比如这段代码,按照程序的顺序,第 6 行代码 “x = 42;” Happens-Before 于第 7 行代码 “v = true;”,这就是规则 1 的内容,也比较符合单线程里面的思维:程序前面对某个变量的修改一定是对后续操作可见的。(这里的限制并没有意味着在reader()中v==true时,x 会是42)

2. volatile 变量规则

对一个 volatile 变量的写操作, Happens-Before 于后续对这个 volatile 变量的读操作。其实就是对这个变量写入后,后续线程等都能够读取到最新的值。

2. 传递性----如果 A Happens-Before B,且 B Happens-Before C,那么 A Happens-Before C。

极客时间《Java并发编程实战》---并发编程BUG的源头与Java如何解决可见性和有序性问题笔记
从图中,我们可以看到:

  • “x=42” Happens-Before 写变量 “v=true” ,这是规则 1 的内容;
  • 写变量“v=true” Happens-Before 读变量 “v=true”,这是规则 2 的内容 。

再根据这个传递性规则,我们得到结果:“x=42” Happens-Before 读变量“v=true”。这意味着什么呢?

如果线程 B 读到了“v=true”,那么线程 A 设置的“x=42”对线程 B 是可见的。也就是说,线程 B 能看到 “x == 42” (注意这里如果v不是volatile的话,就无法传递了),有没有一种恍然大悟的感觉?这就是 1.5 版本对 volatile 语义的增强,这个增强意义重大,1.5 版本的并发工具包(java.util.concurrent)就是靠 volatile 语义来搞定可见性的。

4. 管程中锁的规则-----对一个锁的解锁 Happens-Before 于后续对这个锁的加锁
synchronized (this) { //此处自动加锁
  // x是共享变量,初始值=10
  if (this.x < 12) {
    this.x = 12; 
  }  
} //此处自动解锁

假设 x 的初始值是 10,线程 A 执行完代码块后 x 的值会变成 12(执行完自动释放锁),线程 B 进入代码块时,能够看到线程 A 对 x 的写操作,也就是线程 B 能够看到 x==12。(感觉其实就是处理了缓存与内存之间的同步关系,释放锁时强制刷到内存,然后在下一次加锁时强制要求其他线程从内存中读入缓存后再使用)

5. 线程 start() 规则

指主线程 A 启动子线程 B 后,子线程 B 能够看到主线程在启动子线程 B 前的操作。如以下代码所示:

Thread B = new Thread(()->{
  // 主线程调用B.start()之前
  // 所有对共享变量的修改,此处皆可见
  // 此例中,var==77
});
// 此处对共享变量var修改
var = 77;
// 主线程启动子线程
B.start();
6. 线程 join() 规则

指主线程 A 等待子线程 B 完成(主线程 A 通过调用子线程 B 的 join() 方法实现),当子线程 B 完成后(主线程 A 中 join() 方法返回),主线程能够看到子线程的操作。当然所谓的“看到”,指的是对共享变量的操作。

Thread B = new Thread(()->{
  // 此处对共享变量var修改
  var = 66;
});
// 例如此处对共享变量修改,
// 则这个修改结果对线程B可见
// 主线程启动子线程
B.start();
B.join()
// 子线程所有对共享变量的修改
// 在主线程调用B.join()之后皆可见
// 此例中,var==66

final 关键字

final 修饰变量时,初衷是告诉编译器:这个变量生而不变,可以可劲儿优化。

当然了,在 1.5 以后 Java 内存模型对 final 类型变量的重排进行了约束。现在只要我们提供正确构造函数没有“逸出”,就不会出问题了。

那么什么是“逸出”呐?举个例子来讲,在构造函数里面将 this 赋值给了全局变量 global.obj,这就是“逸出”,线程通过 global.obj 读取 x 是有可能读到 0 的。因此我们一定要避免“逸出”。

final int x;
// 错误的构造函数
public FinalFieldExample() { 
  x = 3;
  y = 4;
  // 此处就是讲this逸出,
  global.obj = this;
}

逸出 指的是对封装性的破坏。比如对一个对象的操作,通过将这个对象的this赋值给一个外部全局变量,使得这个全局变量可以绕过对象的封装接口直接访问对象中的成员,这就是逸出。

上一篇:JMM java内存模型 1.并发的关键,2.jmm内存模型,3.指令重排 4、happens-before


下一篇:google搜索的使用小窍门