Java并发问题--乐观锁与悲观锁以及乐观锁的一种实现方式-CAS

Java并发问题--乐观锁与悲观锁以及乐观锁的一种实现方式-CAS

首先介绍一些乐观锁与悲观锁:html

  悲观锁:老是假设最坏的状况,每次去拿数据的时候都认为别人会修改,因此每次在拿数据的时候都会上锁,这样别人想拿这个数据就会阻塞直到它拿到锁。传统的关系型数据库里边就用到了不少这种锁机制,好比行锁,表锁等,读锁,写锁等,都是在作操做以前先上锁。再好比Java里面的同步原语synchronized关键字的实现也是悲观锁。java

  乐观锁:顾名思义,就是很乐观,每次去拿数据的时候都认为别人不会修改,因此不会上锁,可是在更新的时候会判断一下在此期间别人有没有去更新这个数据,可使用版本号等机制。乐观锁适用于多读的应用类型,这样能够提升吞吐量,像数据库提供的相似于write_condition机制,其实都是提供的乐观锁。在Java中java.util.concurrent.atomic包下面的原子变量类就是使用了乐观锁的一种实现方式CAS实现的。算法

 

乐观锁的一种实现方式-CAS(Compare and Swap 比较并交换):数据库

  锁存在的问题:安全

    Java在JDK1.5以前都是靠 synchronized关键字保证同步的,这种经过使用一致的锁定协议来协调对共享状态的访问,能够确保不管哪一个线程持有共享变量的锁,都采用独占的方式来访问这些变量。这就是一种独占锁,独占锁其实就是一种悲观锁,因此能够说 synchronized 是悲观锁。数据结构

    悲观锁机制存在如下问题:  多线程

      1. 在多线程竞争下,加锁、释放锁会致使比较多的上下文切换和调度延时,引发性能问题。并发

      2. 一个线程持有锁会致使其它全部须要此锁的线程挂起。异步

      3. 若是一个优先级高的线程等待一个优先级低的线程释放锁会致使优先级倒置,引发性能风险。性能

    对比于悲观锁的这些问题,另外一个更加有效的锁就是乐观锁。其实乐观锁就是:每次不加锁而是假设没有并发冲突而去完成某项操做,若是由于并发冲突失败就重试,直到成功为止。

  乐观锁:

    乐观锁( Optimistic Locking )在上文已经说过了,其实就是一种思想。相对悲观锁而言,乐观锁假设认为数据通常状况下不会产生并发冲突,因此在数据进行提交更新的时候,才会正式对数据是否产生并发冲突进行检测,若是发现并发冲突了,则让返回用户错误的信息,让用户决定如何去作。

    上面提到的乐观锁的概念中其实已经阐述了它的具体实现细节:主要就是两个步骤:冲突检测和数据更新。其实现方式有一种比较典型的就是 Compare and Swap ( CAS )。

  CAS:

    CAS是乐观锁技术,当多个线程尝试使用CAS同时更新同一个变量时,只有其中一个线程能更新变量的值,而其它线程都失败,失败的线程并不会被挂起,而是被告知此次竞争中失败,并能够再次尝试。   

    CAS 操做中包含三个操做数 —— 须要读写的内存位置(V)、进行比较的预期原值(A)和拟写入的新值(B)。若是内存位置V的值与预期原值A相匹配,那么处理器会自动将该位置值更新为新值B。不然处理器不作任何操做。不管哪一种状况,它都会在 CAS 指令以前返回该位置的值。(在 CAS 的一些特殊状况下将仅返回 CAS 是否成功,而不提取当前值。)CAS 有效地说明了“ 我认为位置 V 应该包含值 A;若是包含该值,则将 B 放到这个位置;不然,不要更改该位置,只告诉我这个位置如今的值便可。 ”这其实和乐观锁的冲突检查+数据更新的原理是同样的。

    这里再强调一下,乐观锁是一种思想。CAS是这种思想的一种实现方式。

  JAVA对CAS的支持:

    在JDK1.5 中新增 java.util.concurrent (J.U.C)就是创建在CAS之上的。相对于对于 synchronized 这种阻塞算法,CAS是非阻塞算法的一种常见实现。因此J.U.C在性能上有了很大的提高。

    以 java.util.concurrent 中的 AtomicInteger 为例,看一下在不使用锁的状况下是如何保证线程安全的。主要理解 getAndIncrement 方法,该方法的做用至关于 ++i 操做。

public class AtomicInteger extends Number implements java.io.Serializable {  
    private volatile int value; 

    public final int get() {  
        return value;  
    }  

    public final int getAndIncrement() {  
        for (;;) {  
            int current = get();  
            int next = current + 1;  
            if (compareAndSet(current, next))  
                return current;  
        }  
    }  

    public final boolean compareAndSet(int expect, int update) {  
        return unsafe.compareAndSwapInt(this, valueOffset, expect, update);  
    }  
}

 

    在没有锁的机制下,字段value要借助volatile原语,保证线程间的数据是可见性。这样在获取变量的值的时候才能直接读取。而后来看看 ++i 是怎么作到的。

     getAndIncrement 采用了CAS操做,每次从内存中读取数据而后将此数据和 +1 后的结果进行CAS操做,若是成功就返回结果,不然重试直到成功为止。

     而 compareAndSet 利用JNI(Java Native Interface)来完成CPU指令的操做:

public final boolean compareAndSet(int expect, int update) {   
    return unsafe.compareAndSwapInt(this, valueOffset, expect, update);
}  

 

    其中unsafe.compareAndSwapInt(this, valueOffset, expect, update);相似以下逻辑:

if (this == expect) {
    this = update
    return true;
} else {
    return false;
}

    那么比较this == expect,替换this = update,compareAndSwapInt实现这两个步骤的原子性呢? 参考CAS的原理

  CAS原理:

    CAS经过调用JNI的代码实现的。而compareAndSwapInt就是借助C来调用CPU底层指令实现的。

      下面从分析比较经常使用的CPU(intel x86)来解释CAS的实现原理。

      下面是sun.misc.Unsafe类的compareAndSwapInt()方法的源代码:

public final native boolean compareAndSwapInt(Object o, long offset,int expected,int x);

     能够看到这是个本地方法调用。这个本地方法在JDK中依次调用的C++代码为:

#define LOCK_IF_MP(mp) __asm cmp mp, 0  \
                       __asm je L0      \
                       __asm _emit 0xF0 \
                       __asm L0:

inline jint     Atomic::cmpxchg    (jint     exchange_value, volatile jint*     dest, jint     compare_value) {
  // alternative for InterlockedCompareExchange
  int mp = os::is_MP();
  __asm {
    mov edx, dest
    mov ecx, exchange_value
    mov eax, compare_value
    LOCK_IF_MP(mp)
    cmpxchg dword ptr [edx], ecx
  }
}

    如上面源代码所示,程序会根据当前处理器的类型来决定是否为cmpxchg指令添加lock前缀。若是程序是在多处理器上运行,就为cmpxchg指令加上lock前缀(lock cmpxchg)。反之,若是程序是在单处理器上运行,就省略lock前缀(单处理器自身会维护单处理器内的顺序一致性,不须要lock前缀提供的内存屏障效果)。

 

  CAS缺点:

     1. ABA问题:

       好比说一个线程one从内存位置V中取出A,这时候另外一个线程two也从内存中取出A,而且two进行了一些操做变成了B,而后two又将V位置的数据变成A,这时候线程one进行CAS操做发现内存中仍然是A,而后one操做成功。尽管线程one的CAS操做成功,但可能存在潜藏的问题。以下所示:

       

       现有一个用单向链表实现的堆栈,栈顶为A,这时线程T1已经知道A.next为B,而后但愿用CAS将栈顶替换为B:

          head.compareAndSet(A,B);

        在T1执行上面这条指令以前,线程T2介入,将A、B出栈,再pushD、C、A,此时堆栈结构以下图,而对象B此时处于游离状态:

       

       此时轮到线程T1执行CAS操做,检测发现栈顶仍为A,因此CAS成功,栈顶变为B,但实际上B.next为null,因此此时的状况变为:

       

       其中堆栈中只有B一个元素,C和D组成的链表再也不存在于堆栈中,无缘无故就把C、D丢掉了。

       从Java1.5开始JDK的atomic包里提供了一个类AtomicStampedReference来解决ABA问题。这个类的compareAndSet方法做用是首先检查当前引用是否等于预期引用,而且当前标志是否等于预期标志,若是所有相等,则以原子方式将该引用和该标志的值设置为给定的更新值。

public boolean compareAndSet(
     V   expectedReference,//预期引用

     V      newReference,//更新后的引用

     int    expectedStamp, //预期标志

     int    newStamp //更新后的标志
)

        实际应用代码:

private static AtomicStampedReference<Integer> atomicStampedRef = new AtomicStampedReference<Integer>(100, 0);
........
atomicStampedRef.compareAndSet(100, 101, stamp, stamp + 1);

 

     2. 循环时间长开销大:

      自旋CAS(不成功,就一直循环执行,直到成功)若是长时间不成功,会给CPU带来很是大的执行开销。若是JVM能支持处理器提供的pause指令那么效率会有必定的提高,pause指令有两个做用,第一它能够延迟流水线执行指令(de-pipeline),使CPU不会消耗过多的执行资源,延迟的时间取决于具体实现的版本,在一些处理器上延迟时间是零。第二它能够避免在退出循环的时候因内存顺序冲突(memory order violation)而引发CPU流水线被清空(CPU pipeline flush),从而提升CPU的执行效率。

    

    3. 只能保证一个共享变量的原子操做

      当对一个共享变量执行操做时,咱们可使用循环CAS的方式来保证原子操做,可是对多个共享变量操做时,循环CAS就没法保证操做的原子性,这个时候就能够用锁,或者有一个取巧的办法,就是把多个共享变量合并成一个共享变量来操做。好比有两个共享变量i=2,j=a,合并一下ij=2a,而后用CAS来操做ij。从Java1.5开始JDK提供了AtomicReference类来保证引用对象之间的原子性,你能够把多个变量放在一个对象里来进行CAS操做。

 

  CAS与Synchronized的使用情景:   

    一、对于资源竞争较少(线程冲突较轻)的状况,使用synchronized同步锁进行线程阻塞和唤醒切换以及用户态内核态间的切换操做额外浪费消耗cpu资源;而CAS基于硬件实现,不须要进入内核,不须要切换线程,操做自旋概率较少,所以能够得到更高的性能。

    二、对于资源竞争严重(线程冲突严重)的状况,CAS自旋的几率会比较大,从而浪费更多的CPU资源,效率低于synchronized。

   补充: synchronized在jdk1.6以后,已经改进优化。synchronized的底层实现主要依靠Lock-Free的队列,基本思路是自旋后阻塞,竞争切换后继续竞争锁,稍微牺牲了公平性,但得到了高吞吐量。在线程冲突较少的状况下,能够得到和CAS相似的性能;而线程冲突严重的状况下,性能远高于CAS。

 

  concurrent包的实现:

    因为java的CAS同时具备 volatile 读和volatile写的内存语义,所以Java线程之间的通讯如今有了下面四种方式:

      1. A线程写volatile变量,随后B线程读这个volatile变量。

      2. A线程写volatile变量,随后B线程用CAS更新这个volatile变量。

      3. A线程用CAS更新一个volatile变量,随后B线程用CAS更新这个volatile变量。

      4. A线程用CAS更新一个volatile变量,随后B线程读这个volatile变量。

    Java的CAS会使用现代处理器上提供的高效机器级别原子指令,这些原子指令以原子方式对内存执行读-改-写操做,这是在多处理器中实现同步的关键(从本质上来讲,可以支持原子性读-改-写指令的计算机器,是顺序计算图灵机的异步等价机器,所以任何现代的多处理器都会去支持某种能对内存执行原子性读-改-写操做的原子指令)。同时,volatile变量的读/写和CAS能够实现线程之间的通讯。把这些特性整合在一块儿,就造成了整个concurrent包得以实现的基石。若是咱们仔细分析concurrent包的源代码实现,会发现一个通用化的实现模式:

      1. 首先,声明共享变量为volatile;  

      2. 而后,使用CAS的原子条件更新来实现线程之间的同步;

      3. 同时,配合以volatile的读/写和CAS所具备的volatile读和写的内存语义来实现线程之间的通讯。

    AQS,非阻塞数据结构和原子变量类(java.util.concurrent.atomic包中的类),这些concurrent包中的基础类都是使用这种模式来实现的,而concurrent包中的高层类又是依赖于这些基础类来实现的。从总体来看,concurrent包的实现示意图以下:

      

 

  JVM中的CAS(堆中对象的分配): 

    Java调用new object()会建立一个对象,这个对象会被分配到JVM的堆中。那么这个对象究竟是怎么在堆中保存的呢?

    首先,new object()执行的时候,这个对象须要多大的空间,实际上是已经肯定的,由于java中的各类数据类型,占用多大的空间都是固定的(对其原理不清楚的请自行Google)。那么接下来的工做就是在堆中找出那么一块空间用于存放这个对象。 
    在单线程的状况下,通常有两种分配策略:

      1. 指针碰撞:这种通常适用于内存是绝对规整的(内存是否规整取决于内存回收策略),分配空间的工做只是将指针像空闲内存一侧移动对象大小的距离便可。

      2. 空闲列表:这种适用于内存非规整的状况,这种状况下JVM会维护一个内存列表,记录哪些内存区域是空闲的,大小是多少。给对象分配空间的时候去空闲列表里查询到合适的区域而后进行分配便可。

    可是JVM不可能一直在单线程状态下运行,那样效率太差了。因为再给一个对象分配内存的时候不是原子性的操做,至少须要如下几步:查找空闲列表、分配内存、修改空闲列表等等,这是不安全的。解决并发时的安全问题也有两种策略:

      1. CAS:实际上虚拟机采用CAS配合上失败重试的方式保证更新操做的原子性,原理和上面讲的同样。

      2. TLAB:若是使用CAS其实对性能仍是会有影响的,因此JVM又提出了一种更高级的优化策略:每一个线程在Java堆中预先分配一小块内存,称为本地线程分配缓冲区(TLAB),线程内部须要分配内存时直接在TLAB上分配就行,避免了线程冲突。只有当缓冲区的内存用光须要从新分配内存的时候才会进行CAS操做分配更大的内存空间。 
      虚拟机是否使用TLAB,能够经过-XX:+/-UseTLAB参数来进行配置(jdk5及之后的版本默认是启用TLAB的)。

相关文章
相关标签/搜索