天天看点

C++ 从双重检查锁定问题 到 内存屏障的一些思考

文章目录

  • ​​1. 问题描述​​
  • ​​2. DCLP 的问题 和 指令执行顺序​​
  • ​​2.1 Volatile 关键字​​
  • ​​2.2 C++11 的内存模型​​
  • ​​3. C++11内存模型 解决DCLP问题​​
  • ​​3.1 内存屏障和获得、释放语义​​
  • ​​3.2 atomic 的完整介绍​​
  • ​​3.2.1 原子操作的三种类型​​
  • ​​3.2.2 atomic 内存序​​
  • ​​3.2.3 atomic 成员函数​​
  • ​​4. 总结​​

1. 问题描述

单例模式 是我们日常编码过程中比较常用的一种设计模式,用来对一个抽象进行限定,表示该类在当前程序生命周期内仅能创建一次,被整个进程空间共享。

比如 FPGA处理单元在我们实际的处理过程中仅能拥有一个实例来完成Compaction操作,那么便可以将FPGA的处理过程抽象为一个单例模式,在整个进程启动之后有且仅有一个FPGA实例完成整个rocksdb的compaction 过程。

查看如下单例代码

#include <iostream>
// header file
class Singleton{
private:
    static Singleton *instance;
    Singleton(){}
public:
    static Singleton *get_instance();
};

// implemetation file
Singleton *Singleton::instance = NULL;

Singleton *Singleton::get_instance() {
    if(Singleton::instance == NULL) {
        Singleton::instance = new Singleton(); 
    }

    return instance;
}

int main() {
    Singleton *test  = Singleton::get_instance();
    ..... // do something
    return 0;
}      

以上代码是经典懒汉模式(延迟加载)下实现的单例模式,主要通过​

​get_instance​

​​函数创建单例;

这种实现在单线程下是完全满足要求的,对于还未创建的单例,通过判断静态数据成员的单例实例​​

​Singleton::instance​

​是否为空来确定之前是否创建过单例实例,如果没有,则创建。后续的单例创建 则会直接返回之前创建的单例实例地址,并不会创建新的单例实例。

但是在多线程模式下这样的实现并不可靠,每个线程拥有各自的函数栈空间,虽然指令层级是串型执行,但在进/线程层级看起来是并行执行的。

比如线程A进入了​

​get_instance​

​​函数,判断​

​Singleton::intance​

​实例为空,并准备创建新的单例实例 但还味创建。此时线程B 也进入到了​

​get_instance​

​​函数,因为A还没有创建​

​Singleton::intance​

​实例,则线程B也判断其为空,此时就会出现两个线程各自创建了自己的单例实例。这样的结果显然违背了单例模式实现的初衷。

那么对于以上多线程下单例的实现问题, 很容易便可以通过加锁来解决,如下代码:

std::mutex g_lock;
class Singleton{
private:
    static Singleton *instance;
    Singleton(){}
public:
    static Singleton *get_instance();
};

Singleton *Singleton::instance = NULL;

Singleton *Singleton::get_instance() {
    std::lock_guard<std::mutex>  lock(g_lock); // 一进入函数即加锁,来独占接下来的逻辑操作
    if(instance == NULL) {
        instance = new Singleton(); 
    }

    return instance;
}      

这样确实能够保证多线程下的单例创建的可靠性,一进入​

​get_instance​

​​函数通过锁来独占后续的CPU。

显然这样的实现在多线程模型下非常昂贵,对于每一个执行​​

​get_instance​

​​函数的线程都需要独占整个CPU ,而我们实际仅仅需要在该函数内部执行真正创建​

​instance​

​实例的时候才需要加锁,所以直接粗暴的加锁方法并不是最好的实现。

这个时候DCLP(Double-Check Locking Pattern) 双重检查锁定 通过观察​

​instance​

​​实例是否为空来判断是否需要进行加锁,这样便能够避免每一个进入​

​get_instance​

​​函数的线程独占CPU的情况。

如下代码:

std::mutex g_lock;
class Singleton{
private:
    static Singleton *instance;
    Singleton(){}
public:
    static Singleton *get_instance();
};

Singleton *Singleton::instance = NULL;

// DCLP implementation
Singleton *Singleton::get_instance() {
    if(instance == NULL) { // 第一重检查
        std::lock_guard<std::mutex>  lock(g_lock);
        if(instance == NULL) { // 第二重检查
            instance = new Singleton(); 
        }
    }

    return instance;
}      

现在来看这样的实现既能够保证多线程下的可靠性 又能满足我们想要的性能。

那么文章到此就结束了吗? 这样的思考并不够深入,以上的实现能够安全的在单处理器的设备上稳定运行,但是在我们如今以多处理器为主的设备上还是不够安全,接下来就需要讨论一下多处理器下的指令顺序问题。

2. DCLP 的问题 和 指令执行顺序

继续看我们节中实现的**双重检查锁定(DCLP)**的代码,其中在加锁的逻辑中通过检查​

​instance​

​​成员是否为空来决定是否实例话还成员。

具体实例化的代码如下:

instance = new Singleton();      

这一行代码在C++的语义中又可以被进一步拆分为如下几步:

  • 为先为​

    ​Singleton​

    ​ 对象分配内存
  • 初始化​

    ​Singleton​

    ​ 类,将该类的数据成员填充到分配好的内存之中
  • 创建一个​

    ​instance​

    ​ 指针,指向已经分配好的内存

这里有非常关键的一点是 编译器并不会严格按照上述的三个步骤执行实例化​

​instance​

​成员的逻辑。在某一些场景下,编译器能够支持第二步和第三步交换执行。关于编译器为什么会这样做,接下来会详细提到。先将讨论重心放在第二步和第三步如果发生了交换之后所产生的后果之上。

如下代码展示了实例化过程中 第二步(初始化 Singleton)和 第三步(赋值Singleton地址) 交换的逻辑(实际代码我们并不会这样写,这里仅仅为了展示):

Singleton *Singleton::get_instance() {
    if(instance == NULL) {
        std::lock_guard<std::mutex>  lock(g_lock);
        if(instance == NULL) {
            instance =                           // 第三步
                operator new(sizeof(Singleton)); // 第一步
            new (instance)Singleton;             // 第二步
        }
    }

    return instance;
}      

通常情况下,以上代码并不是对于DCLP实现的完整解释,单例模式的构造器在 调用到第二步的时候会抛异常;且大部分的场景编译器并不会将 第三步 的执行顺序放在第二步之前,但是以上的情况是存在的,最简单的一种情况是编译器可以保证Singleton构造函数不会抛出异常(例如通过内联化后的流分析(post-inlining flow analysis),当然这不是唯一情况。

针对以上拆分实例化过程 可能出现的问题 举例如下:

  • 线程A进入到​

    ​get_instance​

    ​​函数,进行第一次​

    ​instance​

    ​​判空的检查通过。获取到全局锁,进入到第二次判空逻辑。并执行由第三步和第一步组成的语句。接下来简单暂停一下,执行到这里instance 成员因为已经分配了内存地址,并不为空。但此时instance指向的内存中并未填充​

    ​Singleton​

    ​类中的成员数据。
  • 此时线程B进入到​

    ​get_instance​

    ​​函数中,进行第一次的​

    ​instance​

    ​成员判空的检查,发现并不为空,则直接返回instance成员的地址,认为instance成员已经实例化完成,并且释放该函数内 instance 指针指向的地址,然而这样的返回值并没有完成真正意义的单例对象创建。

所以双重检查锁定(DCLP) 当且仅当 第一步和第二步 在第三步之前执行时才能够保证多线程,多处理器下的可靠性。但是这在C/C++语言中 并不能真正意义上保证这种逻辑下的执行执行顺序,也就是说多线程这样的概念在C/C++语言中并不存在。

看看如下非常简单的代码:

void foo() {
    int x = 0, y = 0; // 语句1
    x = 5;            // 语句2
    y = 10;           // 语句3

    printf("x=%d, y=%d\n", x, y); // 语句4
}      

通过设置编译器的优化选项 能够看到具体语句1-4并不一定按照函数设置的语句逻辑来执行。

如下,从上到下依次是为开启编译器的优化选项,开启​

​-O1​

​​优化选项,开启​

​-O2​

​优化选项的结果

C++ 从双重检查锁定问题 到 内存屏障的一些思考

那么C/C++程序员如何 写出正常工作的多线程程序呢?也就是我们经常使用的线程库(Posix的pthreads线程库)。多线程程序的编译和链接需要依赖这一些线程库,这一些线程库的实现也已经经过严格的规范来约束关键指令的执行顺序(核心实现通过汇编语言来完成),保证不会受到编译器的优化干扰产生指令的重新排序。

然而针对DLCP这样的代码我们想要跳出编译器对执行指令的约束,使用一种语言(C++实现)是无法达到跳出约束的目的,那么作为程序员,我们想要摆脱编译器对我们的代码的优化,针对DLCP 这样的代,尝试这样的逻辑。

在​​

​instance​

​未完成初始化之前,不对instance做出任何修改:

Singleton *Singleton::get_instance() {
    if(instance == NULL) {
        std::lock_guard<std::mutex>  lock(g_lock);
        if(instance == NULL) {
            Singleton *tmp = new Singleton();
            instance = tmp;
        }
    }

    return instance;
}      

这样的代码 在那一些老奸巨猾的编译器优化程序员的眼中可是无用代码的,使用了优化选项之后 tmp的初始化显然并不会被真正执行到,正如foo代码之中的O1以上的优化选项,对于代码开头​

​x=0,y=0​

​这样的代码是直接跳过的。

如果我们想用一种语言和那一些专注于编译器优化几十年的老程序员比拼实力,显然没有人家在行,分分钟钟将你不想被编译器优化的代码给优化掉。。。。

同时 ,在多处理器环境下,每个处理器都有各自的高速缓存,但所有处理器共享内存空间。这种架构需要设计者精确定义一个处理器该如何向共享内存执行写操作,又何时执行读操作,并使这个过程对其他处理器可见。我们很容易想象这样的场景:当某一个处理器在自己的高速缓存中更新的某个共享变量的值,但它并没有将该值更新至共享主存中,更不用说将该值更新到其他处理器的缓存中了。这种缓存间共享变量值不一致的情况被称为缓存一致性问题(cache coherency problem)。

假设处理器A改变了共享变量x的值,之后又改变了共享变量y的值,那么这些新值必须更新至内存中,这样其他处理器才能看到这些改变。然而,由于按地址顺序递增刷新缓存更高效,所以如果y的地址小于x的地址,那么y很有可能先于x更新至主存中。这样就导致其他处理器认为y值的改变是先于x值的。

对DCLP而言,这种可能性将是一个严重的问题。正确的Singleton初始化要求先初始化Singleton对象,再初始化 Instance。如果在处理器A上运行的线程是按正确顺序执行,但处理器B上的线程却将两个步骤调换顺序,那么处理器B上的线程又会导致pInstance被赋值为未完成初始化的Singleton对象。

C++ 从双重检查锁定问题 到 内存屏障的一些思考

那么问题来了,怎么能够让我们的C++代码指令顺序 在多处理器上 按照我们自己的想法来执行呢?

2.1 Volatile 关键字

在某一些编译器中使用volatile 关键字可以达到内存同步的效果。但是我们必须记住,这不是volatitle的设计意图,也不能通用地达到内存同步的效果。volatitle的语义只是防止编译器“优化”掉对内存的读写而已。它的合适用法,目前主要是用来读写映射到内存地址上的IO操作。

由于volatile 不能在多处理器的环境下确保多个线程看到同样顺序的数据变化,在今天的通用程序中,不应该再看到volatitle的出现。

2.2 C++11 的内存模型

为了从根本上解决上述问题,C++11 引入了更适合多线程的内存模型。

跟我们实际开发过程密切相关的是:原子对象(atomic),使用原子对象的获得(acquire)、释放(release)语义,可以真正精确地控制内存访问的顺序性,保证我们需要的内存序。

3. C++11内存模型 解决DCLP问题

3.1 内存屏障和获得、释放语义

现在有两个全局变量:

int x = 0;
int y = 0;      

在一个线程内执行:

x = 1;
y = 2;      

在另一个线程执行:

if (y ==2) {
  x = 3;
  y = 4;
}      

这样的代码按我们正常立即的程序逻辑来看,x和y的结果有两种可能:1,2 和 3,4

但是之前已经对编译器的优化选项导致的指令序列不同 以及 多处理器场景下内存访问问题 可能还会出现x和y的结果是1,4的情景(编译器优化后的执行序 y先于x赋值 或者 多处理器场景下y在内存中的地址低于x 也可能出现y先于x赋值)。

我们想要满足程序员心中的完全存储序,就需要在x=1和y=2两个语句之间加入内存屏障,从而禁止这两个语句交换顺序。这种情况下最常用的两个概念是“获得”和 “释放”:

  • 获得 是对一个内存的 读 操作,当前线程后续的任何读写操作都不允许重排到这个操作之前
  • 释放 是对一个内存的 写 操作,当前线程的任何前面读写操作都不允许重排到这个操作之后

比如上面的代码段,我们需要将​

​y​

​​ 声明成 ​

​atomic<int>​

​。然后在线程1中需要使用释放语义:

x = 1;
y.store(2, memory_order_release);      

在线程2 我们需要对​

​y​

​ 的读取使用获得语义,但存储只需要松散的内存序即可:

if (y.load(memory_order_acquire) == 2) {
  x = 3;
  y.store(4, memory_order_relaxed);
}      

如下图,两边的代码重排之后不允许越过虚线,如果y上的释放早于y上的获取,释放前 对内存的修改都在另一个线程的获取操作后可见。

C++ 从双重检查锁定问题 到 内存屏障的一些思考

实际编码过程中,我们把y直接改成​

​atomic<int>​

​之后,两个线程的代码不做任何的变更执行结果都会是符合我们预期的,因为atomic 变量的写操作默认是释放语义,读操作默认是获得语义。

  • ​y = 2​

    ​​ 相当于 ​

    ​y.store(2, memory_order_release)​

  • ​y==2​

    ​​ 相当于​

    ​y.load(memory_order_acquire) == 2​

那为什么要说显式得使用内存屏障的获得释放语义呢,因为缺省行为对性能不利:我们不需要在任何情况下都要保证操作的顺序性。

另外,我们应当注意 ​

​acquire​

​​和​

​release​

​​ 通常都是配对出现的,目的是保证如果对同一个原子对象的​

​release​

​​ 发生在​

​acquire​

​​ 之前,​

​release​

​​之前发生的内存修改都能够被​

​acquire​

​​之后的内存读取全部看到。

比如 第一个线程​​

​y=2​

​​是在第二个线程​

​y==2​

​​之前完成的,那么y=2之前针对x代表的内存的修改 是能够被​

​y==2​

​之后的语句看到。

3.2 atomic 的完整介绍

C++11 在<atomic> 头文件中引入了 atomic 模版,对原子对象进行封装,让我们能够应用到任何类型之上。当然这个过程对于不同类型的效果是不同的,对于整型量和指针等简单类型,通常结果是无锁的原子对象;而对于另外一些类型,比如64位机器上 大小不是1,2,4,8 的类型,编译器会自动为这一些原子对象的操作加上锁。同时,编译器也提供了原子对象的成员函数​

​is_lock_free​

​ 能够检查这个原子对象上的操作是否是无锁操作。

3.2.1 原子操作的三种类型

  • 读 : 读取的过程中,读取位置的内容不会发生任何变动
  • 写 : 在写入的过程中,其他执行线程不会看到部分写入的结果(比如多处理器场景:写入先写到CPU cache,再写入到内存中,这两个操作都完成才算当前写入完成)
  • 读-修改-写: 读取内存,修改数值,写回内存。整个操作的过程中间不会有其他写入操作插入,同时其他线程也不会看到中间结果。

3.2.2 atomic 内存序

  • ​memory_order_relaxed​

    ​ 松散内存序,只用来保证对原子对象的操作是原子的
  • ​memory_order_consume​

    ​​ 消费语义,和​

    ​acquire​

    ​类似,只是在部分平台的效果更好。更加详细的介绍可以参考​​memory_order_consume​​
  • ​memory_order_acquire​

    ​ 获得操作,在读取某原子对象时,当前线程的任何后面的读写操作都不允许重排到这个操作的前面,并且其他线程在对同一个原子对象释放之前的所有内存写入操作在当前线程都是可见的。
  • ​memory_order_release​

    ​ 释放操作,在写入某原子对象时,当前线程的任何前面的读写操作都不允许重排到这个操作的后面,并且当前线程的所有内存写入都在对同一个原子对象进行获取的其他线程可见。
  • ​memory_order_acq_rel​

    ​ 获得释放操作,一个读-修改-写操作 同时具有获得语义和释放语义,即它前后的任何读写操作都不允许重排,并且其他线程在对同一个原子对象释放之前的所有内存写入都在当前线程可见,当前线程的所有内存写入都在对同一个原子对象进行获取的其他线程可见。
  • ​memory_order_seq_cst​

    ​ 顺序一致性语义,对于读操作相当于获取,对于写操作相当于释放,对于读-修改-写 操作相当于获得释放,是所有原子操作的默认内存序。

3.2.3 atomic 成员函数

  • 默认构造函数(只支持初始化零)
  • 拷贝构造函数被删除
  • 使用内置对象类型的构造函数(不是原子操作)
  • 可以从内置对象类型赋值到原子对象(相当于store)
  • 可以从原子对象隐式转换成内置对象(相当于load)
  • store, 写入数据到原子对象,第二个可选参数是内存序类型
  • load,从原子对象读取内置对象,有一个可选参数是内存序类型
  • is_lock_free, 判断原子对象的操作是否无锁(是否可以用处理器指令直接完成原子操作)
  • exchange , 交换操作,第二个可选参数是内存序类型(读-修改-写 操作)
  • compare_exchange_weak 和 compare_exchange_strong,两个比较加交换(CAS)版本,可以分别制定成功和失败时的内存序,也可以只制定一个,或者使用默认的最安全的内存序-- ​

    ​memory_order_seq_cst​

    ​ 顺序一致性语义。 (同样是 读-修改-写 操作)
  • fetch_add 和 fetch_sub ,仅对整数和指针 内置对象生效。对目标原子对象执行加 或 减操作,返回其原始数值,第二个可选参数是内存序类型。(同样是 读-修改-写 操作)
  • ++ 和 – (前置和后置) ,仅对整数和指针 内置对象生效。对目标原子对象执行加一 或 减一操作,使用顺序一致性语义,返回的并不是原子对象的引用。(读–修改–写 操作)
  • += 和 -= ,仅对整数和指针内置对象有效,对目标原子对象执行 加 或减操作, 返回操作后的数值。操作使用顺序一致性语义,且返回的并不少原子对象的引用(读-修改-写 操作)

有了对atomic 内存模型的理解之后 我们在一些全局共享变量的原子性维护上 就可以使用​

​std::atomic_int count_;​

​​这样的形式了。

这样的声明 在后续的 原子对象的自增自减 过程中 使用的是默认内存序类型(顺序一致性),其实整体的代价还是有有点大,因为顺序一致性是需要完整执行 获取加释放语义。

那么自增的实现可以通过如下定义完成:

void add_count() noexcept
{
  count_.fetch_add(
    1,std::memory_order_relaxed); 
}      

仅需增加内存的松散内存序,保证自增操作的原子性即可。

4. 总结

继续阅读