在软件业发展的初期,程序编写都是以算法为核心的,程序员会把数据和过程分别做为独立的部分来考虑,数据表明问题空间中的客体,程序代码则用于处理这些数据,这种思惟方式直接站在计算机的角度去抽象问题和解决问题,称为面向过程的编程思想。与此相对的是,面向对象的编程思想是站在现实世界的角度去抽象和解决问题,它把数据和行为都看作是对象的一部分,这样可让程序员能以符合现实世界的思惟方式来编写和组织程序。java
面向过程的编程思想极大地提高了现代软件开发的生产效率和软件能够达到的规模,可是现实世界与计算机世界之间不可避免地存在一些差别。例如,人们很难想象现实中的对象在一项工做进行期间,会被不停地中断和切换,对象的属性(数据)可能会在中断期间被修改和变“脏”,而这些事件在计算机世界中则是很正常的事情。有时候,良好的设计原则不得不向现实作出一些让步,咱们必须让程序在计算机中正确无误地运行,而后再考虑如何将代码组织得更好,让程序运行得更快。对于这部分的主题“高效并发”来说,首先须要保证并发的正确性,而后在此基础上实现高效。本章先从如何保证并发的正确性和如何实现线程安全讲起。程序员
“线程安全”这个名称,相信稍有经验的程序员都会据说过,甚至在代码编写和走查的时候可能还会常常挂在嘴边,可是如何找到一个不太拗口的概念来定义线程安全却不是一件容易的事情,在Google中搜索它的概念,找到的是相似于“若是一个对象能够安全地被多个线程同时使用,那它就是线程安全的”这样的定义——并不能说它不正确,可是人们没法从中获取到任何有用的信息。算法
《Java Concurrency In Practice》的做者Brian Goetz对“线程安全”有一个比较恰当的定义:“当多个线程访问一个对象时,若是不用考虑这些线程在运行时环境下的调度和交替执行,也不须要进行额外的同步,或者在调用方进行任何其余的协调操做,调用这个对象的行为均可以得到正确的结果,那这个对象是线程安全的”。编程
这个定义比较严谨,它要求线程安全的代码都必须具有一个特征:代码自己封装了全部必要的正确性保障手段(如互斥同步等),令调用者无须关心多线程的问题,更无须本身采起任何措施来保证多线程的正确调用。这点听起来简单,但其实并不容易作到,在大多数场景中,咱们都会将这个定义弱化一些,若是把“调用这个对象的行为”限定为“单次调用”,这个定义的其余描述也可以成立的话,咱们就能够称它是线程安全了,为何要弱化这个定义,如今暂且放下,稍后再详细探讨。数组
咱们已经有了线程安全的一个抽象定义,那接下来就讨论一下在Java语言中,线程安全具体是如何体现的?有哪些操做是线程安全的?咱们这里讨论的线程安全,就限定于多个线程之间存在共享数据访问这个前提,由于若是一段代码根本不会与其余线程共享数据,那么从线程安全的角度来看,程序是串行执行仍是多线程执行对它来讲是彻底没有区别的。安全
为了更加深刻地理解线程安全,在这里咱们能够不把线程安全当作一个非真即假的二元排他选项来看待,按照线程安全的“安全程度”由强至弱来排序,咱们能够将Java语言中各类操做共享的数据分为如下5类:不可变、绝对线程安全、相对线程安全、线程兼容和线程对立。服务器
在Java语言中(特指JDK 1.5之后,即Java内存模型被修正以后的Java语言),不可变(Immutable)的对象必定是线程安全的,不管是对象的方法实现仍是方法的调用者,都不须要再采起任何的线程安全保障措施,只要一个不可变的对象被正确地构建出来(没有发生this引用逃逸的状况),那其外部的可见状态永远也不会改变,永远也不会看到它在多个线程之中处于不一致的状态。“不可变”带来的安全性是最简单和最纯粹的。数据结构
Java语言中,若是共享数据是一个基本数据类型,那么只要在定义时使用final关键字修饰它就能够保证它是不可变的。若是共享数据是一个对象,那就须要保证对象的行为不会对其状态产生任何影响才行,不妨想想java.lang.String类的对象,它是一个典型的不可变对象,咱们调用它的substring()、replace()和concat()这些方法都不会影响它原来的值,只会返回一个新构造的字符串对象。多线程
保证对象行为不影响本身状态的途径有不少种,其中最简单的就是把对象中带有状态的变量都声明为final,这样在构造函数结束以后,它就是不可变的,例如代码清单13-1中java.lang.Integer构造函数所示的,它经过将内部状态变量value定义为final来保障状态不变。架构
代码清单13-1 JDK中Integer类的构造函数
/** *The value of the<code>Integer</code>. *@serial */ private final int value; /** *Constructs a newly allocated<code>Integer</code>object that *represents the specified<code>int</code>value. * *@param value the value to be represented by the *<code>Integer</code>object. */ public Integer(int value){ this.value=value; }
在Java API中符合不可变要求的类型,除了上面提到的String以外,经常使用的还有枚举类型,以及java.lang.Number的部分子类,如Long和Double等数值包装类型,BigInteger和BigDecimal等大数据类型;但同为Number的子类型的原子类AtomicInteger和AtomicLong则并不是不可变的,读者不妨看看这两个原子类的源码,想想为何。
绝对的线程安全彻底知足Brian Goetz给出的线程安全的定义,这个定义实际上是很严格的,一个类要达到“无论运行时环境如何,调用者都不须要任何额外的同步措施”一般须要付出很大的,甚至有时候是不切实际的代价。在Java API中标注本身是线程安全的类,大多数都不是绝对的线程安全。咱们能够经过Java API中一个不是“绝对线程安全”的线程安全类来看看这里的“绝对”是什么意思。
若是说java.util.Vector是一个线程安全的容器,相信全部的Java程序员对此都不会有异议,由于它的add()、get()和size()这类方法都是被synchronized修饰的,尽管这样效率很低,但确实是安全的。可是,即便它全部的方法都被修饰成同步,也不意味着调用它的时候永远都再也不须要同步手段了,请看一下代码清单13-2中的测试代码。
代码清单13-2 对Vector线程安全的测试
private static Vector<Integer> vector = new Vector<Integer>(); public static void main(String[] args) { while (true) { for (int i = 0; i < 10; i++) { vector.add(i); } Thread removeThread = new Thread(new Runnable() { @Override public void run() { for (int i = 0; i < vector.size(); i++) { vector.remove(i); } } }); Thread printThread = new Thread(new Runnable() { @Override public void run() { for (int i = 0; i < vector.size(); i++) { System.out.println((vector.get(i))); } } }); removeThread.start(); printThread.start(); //不要同时产生过多的线程,不然会致使操做系统假死 while (Thread.activeCount() > 20); } }
运行结果以下:
Exception in thread"Thread-132"java.lang.ArrayIndexOutOfBoundsException: Array index out of range:17 at java.util.Vector.remove(Vector.java:777) at org.fenixsoft.mulithread.VectorTest$1.run(VectorTest.java:21) at java.lang.Thread.run(Thread.java:662)
很明显,尽管这里使用到的Vector的get()、remove()和size()方法都是同步的,可是在多线程的环境中,若是不在方法调用端作额外的同步措施的话,使用这段代码仍然是不安全的,由于若是另外一个线程刚好在错误的时间里删除了一个元素,致使序号i已经再也不可用的话,再用i访问数组就会抛出一个ArrayIndexOutOfBoundsException。若是要保证这段代码能正确执行下去,咱们不得不把removeThread和printThread的定义改为如代码清单13-3所示的样子。
代码清单13-3 必须加入同步以保证Vector访问的线程安全性
Thread removeThread = new Thread(new Runnable() { @Override public void run() { synchronized (vector) { for (int i = 0; i < vector.size(); i++) { vector.remove(i); } } } }); Thread printThread = new Thread(new Runnable() { @Override public void run() { synchronized (vector) { for (int i = 0; i < vector.size(); i++) { System.out.println((vector.get(i))); } } } });
相对的线程安全就是咱们一般意义上所讲的线程安全,它须要保证对这个对象单独的操做是线程安全的,咱们在调用的时候不须要作额外的保障措施,可是对于一些特定顺序的连续调用,就可能须要在调用端使用额外的同步手段来保证调用的正确性。上面代码清单13-2和代码清单13-3就是相对线程安全的明显的案例。
在Java语言中,大部分的线程安全类都属于这种类型,例如Vector、HashTable、Collections的synchronizedCollection()方法包装的集合等。
线程兼容是指对象自己并非线程安全的,可是能够经过在调用端正确地使用同步手段来保证对象在并发环境中能够安全地使用,咱们日常说一个类不是线程安全的,绝大多数时候指的是这一种状况。Java API中大部分的类都是属于线程兼容的,如与前面的Vector和HashTable相对应的集合类ArrayList和HashMap等。
线程对立是指不管调用端是否采起了同步措施,都没法在多线程环境中并发使用的代码。因为Java语言天生就具有多线程特性,线程对立这种排斥多线程的代码是不多出现的,并且一般都是有害的,应当尽可能避免。
一个线程对立的例子是Thread类的suspend()和resume()方法,若是有两个线程同时持有一个线程对象,一个尝试去中断线程,另外一个尝试去恢复线程,若是并发进行的话,不管调用时是否进行了同步,目标线程都是存在死锁风险的,若是suspend()中断的线程就是即将要执行resume()的那个线程,那就确定要产生死锁了。也正是因为这个缘由,suspend()和resume()方法已经被JDK声明废弃(@Deprecated)了。常见的线程对立的操做还有System.setIn()、Sytem.setOut()和System.runFinalizersOnExit()等。
了解了什么是线程安全以后,紧接着的一个问题就是咱们应该如何实现线程安全,这听起来彷佛是一件由代码如何编写来决定的事情,确实,如何实现线程安全与代码编写有很大的关系,但虚拟机提供的同步和锁机制也起到了很是重要的做用。本节中,代码编写如何实现线程安全和虚拟机如何实现同步与锁这二者都会有所涉及,相对而言更偏重后者一些,只要读者了解了虚拟机线程安全手段的运做过程,本身去思考代码如何编写并非一件困难的事情。
互斥同步(Mutual Exclusion&Synchronization)是常见的一种并发正确性保障手段。同步是指在多个线程并发访问共享数据时,保证共享数据在同一个时刻只被一个(或者是一些,使用信号量的时候)线程使用。而互斥是实现同步的一种手段,临界区(Critical Section)、互斥量(Mutex)和信号量(Semaphore)都是主要的互斥实现方式。所以,在这4个字里面,互斥是因,同步是果;互斥是方法,同步是目的。
在Java中,最基本的互斥同步手段就是synchronized关键字,synchronized关键字通过编译以后,会在同步块的先后分别造成monitorenter和monitorexit这两个字节码指令,这两个字节码都须要一个reference类型的参数来指明要锁定和解锁的对象。若是Java程序中的synchronized明确指定了对象参数,那就是这个对象的reference;若是没有明确指定,那就根据synchronized修饰的是实例方法仍是类方法,去取对应的对象实例或Class对象来做为锁对象。
根据虚拟机规范的要求,在执行monitorenter指令时,首先要尝试获取对象的锁。若是这个对象没被锁定,或者当前线程已经拥有了那个对象的锁,把锁的计数器加1,相应的,在执行monitorexit指令时会将锁计数器减1,当计数器为0时,锁就被释放。若是获取对象锁失败,那当前线程就要阻塞等待,直到对象锁被另一个线程释放为止。
在虚拟机规范对monitorenter和monitorexit的行为描述中,有两点是须要特别注意的。首先,synchronized同步块对同一条线程来讲是可重入的,不会出现本身把本身锁死的问题。其次,同步块在已进入的线程执行完以前,会阻塞后面其余线程的进入。Java的线程是映射到操做系统的原生线程之上的,若是要阻塞或唤醒一个线程,都须要操做系统来帮忙完成,这就须要从用户态转换到核心态中,所以状态转换须要耗费不少的处理器时间。对于代码简单的同步块(如被synchronized修饰的getter()或setter()方法),状态转换消耗的时间有可能比用户代码执行的时间还要长。因此synchronized是Java语言中一个重量级(Heavyweight)的操做,有经验的程序员都会在确实必要的状况下才使用这种操做。而虚拟机自己也会进行一些优化,譬如在通知操做系统阻塞线程以前加入一段自旋等待过程,避免频繁地切入到核心态之中。
除了synchronized以外,咱们还可使用java.util.concurrent(下文称J.U.C)包中的重入锁(ReentrantLock)来实现同步,在基本用法上,ReentrantLock与synchronized很类似,他们都具有同样的线程重入特性,只是代码写法上有点区别,一个表现为API层面的互斥锁(lock()和unlock()方法配合try/finally语句块来完成),另外一个表现为原生语法层面的互斥锁。不过,相比synchronized,ReentrantLock增长了一些高级功能,主要有如下3项:等待可中断、可实现公平锁,以及锁能够绑定多个条件。
等待可中断是指当持有锁的线程长期不释放锁的时候,正在等待的线程能够选择放弃等待,改成处理其余事情,可中断特性对处理执行时间很是长的同步块颇有帮助。
公平锁是指多个线程在等待同一个锁时,必须按照申请锁的时间顺序来依次得到锁;而非公平锁则不保证这一点,在锁被释放时,任何一个等待锁的线程都有机会得到锁。synchronized中的锁是非公平的,ReentrantLock默认状况下也是非公平的,但能够经过带布尔值的构造函数要求使用公平锁。
锁绑定多个条件是指一个ReentrantLock对象能够同时绑定多个Condition对象,而在synchronized中,锁对象的wait()和notify()或notifyAll()方法能够实现一个隐含的条件,若是要和多于一个的条件关联的时候,就不得不额外地添加一个锁,而ReentrantLock则无须这样作,只须要屡次调用newCondition()方法便可。
若是须要使用上述功能,选用ReentrantLock是一个很好的选择,那若是是基于性能考虑呢?关于synchronized和ReentrantLock的性能问题,Brian Goetz对这两种锁在JDK 1.5与单核处理器,以及JDK 1.5与双Xeon处理器环境下作了一组吞吐量对比的实验,实验结果如图13-1和图13-2所示。
图 13-1 JDK 1.五、单核处理器下两种锁的吞吐量对比
图 13-2 JDK 1.五、双Xeon处理器下两种锁的吞吐量对比
从图13-1和图13-2能够看出,多线程环境下synchronized的吞吐量降低得很是严重,而ReentrantLock则能基本保持在同一个比较稳定的水平上。与其说ReentrantLock性能好,还不如说synchronized还有很是大的优化余地。后续的技术发展也证实了这一点,JDK 1.6中加入了不少针对锁的优化措施(13.3节咱们就会讲解这些优化措施),JDK 1.6发布以后,人们就发现synchronized与ReentrantLock的性能基本上是彻底持平了。所以,若是读者的程序是使用JDK 1.6或以上部署的话,性能因素就再也不是选择ReentrantLock的理由了,虚拟机在将来的性能改进中确定也会更加偏向于原生的synchronized,因此仍是提倡在synchronized能实现需求的状况下,优先考虑使用synchronized来进行同步。
互斥同步最主要的问题就是进行线程阻塞和唤醒所带来的性能问题,所以这种同步也称为阻塞同步(Blocking Synchronization)。从处理问题的方式上说,互斥同步属于一种悲观的并发策略,老是认为只要不去作正确的同步措施(例如加锁),那就确定会出现问题,不管共享数据是否真的会出现竞争,它都要进行加锁(这里讨论的是概念模型,实际上虚拟机会优化掉很大一部分没必要要的加锁)、用户态核心态转换、维护锁计数器和检查是否有被阻塞的线程须要唤醒等操做。随着硬件指令集的发展,咱们有了另一个选择:基于冲突检测的乐观并发策略,通俗地说,就是先进行操做,若是没有其余线程争用共享数据,那操做就成功了;若是共享数据有争用,产生了冲突,那就再采起其余的补偿措施(最多见的补偿措施就是不断地重试,直到成功为止),这种乐观的并发策略的许多实现都不须要把线程挂起,所以这种同步操做称为非阻塞同步(Non-Blocking Synchronization)。
为何笔者说使用乐观并发策略须要“硬件指令集的发展”才能进行呢?由于咱们须要操做和冲突检测这两个步骤具有原子性,靠什么来保证呢?若是这里再使用互斥同步来保证就失去意义了,因此咱们只能靠硬件来完成这件事情,硬件保证一个从语义上看起来须要屡次操做的行为只经过一条处理器指令就能完成,这类指令经常使用的有:
其中,前面的3条是20世纪就已经存在于大多数指令集之中的处理器指令,后面的两条是现代处理器新增的,并且这两条指令的目的和功能是相似的。在IA6四、x86指令集中有cmpxchg指令完成CAS功能,在sparc-TSO也有casa指令实现,而在ARM和PowerPC架构下,则须要使用一对ldrex/strex指令来完成LL/SC的功能。
CAS指令须要有3个操做数,分别是内存位置(在Java中能够简单理解为变量的内存地址,用V表示)、旧的预期值(用A表示)和新值(用B表示)。CAS指令执行时,当且仅当V符合旧预期值A时,处理器用新值B更新V的值,不然它就不执行更新,可是不管是否更新了V的值,都会返回V的旧值,上述的处理过程是一个原子操做。
在JDK 1.5以后,Java程序中才可使用CAS操做,该操做由sun.misc.Unsafe类里面的compareAndSwapInt()和compareAndSwapLong()等几个方法包装提供,虚拟机在内部对这些方法作了特殊处理,即时编译出来的结果就是一条平台相关的处理器CAS指令,没有方法调用的过程,或者能够认为是无条件内联进去了。
因为Unsafe类不是提供给用户程序调用的类(Unsafe.getUnsafe()的代码中限制了只有启动类加载器(Bootstrap ClassLoader)加载的Class才能访问它),所以,若是不采用反射手段,咱们只能经过其余的Java API来间接使用它,如J.U.C包里面的整数原子类,其中的compareAndSet()和getAndIncrement()等方法都使用了Unsafe类的CAS操做。
咱们不妨拿一段在第12章中没有解决的问题代码来看看如何使用CAS操做来避免阻塞同步,代码如代码清单12-1所示。咱们曾经经过这段20个线程自增10000次的代码来证实volatile变量不具有原子性,那么如何才能让它具有原子性呢?把“race++”操做或increase()方法用同步块包裹起来固然是一个办法,可是若是改为如代码清单13-4所示的代码,那效率将会提升许多。
代码清单13-4 Atomic的原子自增运算
/** * Atomic变量自增运算测试 * * @author zzm */ public class AtomicTest { public static AtomicInteger race = new AtomicInteger(0); public static void increase() { race.incrementAndGet(); } private static final int THREADS_COUNT = 20; public static void main(String[] args) throws Exception { Thread[] threads = new Thread[THREADS_COUNT]; for (int i = 0; i < THREADS_COUNT; i++) { threads[i] = new Thread(new Runnable() { @Override public void run() { for (int i = 0; i < 10000; i++) { increase(); } } }); threads[i].start(); } while (Thread.activeCount() > 1) Thread.yield(); System.out.println(race); } }
运行结果以下:
200000
使用AtomicInteger代替int后,程序输出了正确的结果,一切都要归功于incrementAndGet()方法的原子性。它的实现其实很是简单,如代码清单13-5所示。
代码清单13-5 incrementAndGet()方法的JDK源码
/** * Atomically increment by one the current value. * @return the updated value */ public final int incrementAndGet() { for (;;) { int current = get(); int next = current + 1; if (compareAndSet(current, next)) return next; } }
incrementAndGet()方法在一个无限循环中,不断尝试将一个比当前值大1的新值赋给本身。若是失败了,那说明在执行“获取-设置”操做的时候值已经有了修改,因而再次循环进行下一次操做,直到设置成功为止。
尽管CAS看起来很美,但显然这种操做没法涵盖互斥同步的全部使用场景,而且CAS从语义上来讲并非完美的,存在这样的一个逻辑漏洞:若是一个变量V初次读取的时候是A值,而且在准备赋值的时候检查到它仍然为A值,那咱们就能说它的值没有被其余线程改变过了吗?若是在这段期间它的值曾经被改为了B,后来又被改回为A,那CAS操做就会误认为它历来没有被改变过。这个漏洞称为CAS操做的“ABA”问题。J.U.C包为了解决这个问题,提供了一个带有标记的原子引用类“AtomicStampedReference”,它能够经过控制变量值的版原本保证CAS的正确性。不过目前来讲这个类比较“鸡肋”,大部分状况下ABA问题不会影响程序并发的正确性,若是须要解决ABA问题,改用传统的互斥同步可能会比原子类更高效。
要保证线程安全,并非必定就要进行同步,二者没有因果关系。同步只是保证共享数据争用时的正确性的手段,若是一个方法原本就不涉及共享数据,那它天然就无须任何同步措施去保证正确性,所以会有一些代码天生就是线程安全的,笔者简单地介绍其中的两类。
可重入代码(Reentrant Code):这种代码也叫作纯代码(Pure Code),能够在代码执行的任什么时候刻中断它,转而去执行另一段代码(包括递归调用它自己),而在控制权返回后,原来的程序不会出现任何错误。相对线程安全来讲,可重入性是更基本的特性,它能够保证线程安全,即全部的可重入的代码都是线程安全的,可是并不是全部的线程安全的代码都是可重入的。
可重入代码有一些共同的特征,例如不依赖存储在堆上的数据和公用的系统资源、用到的状态量都由参数中传入、不调用非可重入的方法等。咱们能够经过一个简单的原则来判断代码是否具有可重入性:若是一个方法,它的返回结果是能够预测的,只要输入了相同的数据,就都能返回相同的结果,那它就知足可重入性的要求,固然也就是线程安全的。
线程本地存储(Thread Local Storage):若是一段代码中所须要的数据必须与其余代码共享,那就看看这些共享数据的代码是否能保证在同一个线程中执行?若是能保证,咱们就能够把共享数据的可见范围限制在同一个线程以内,这样,无须同步也能保证线程之间不出现数据争用的问题。
符合这种特色的应用并很多见,大部分使用消费队列的架构模式(如“生产者-消费者”模式)都会将产品的消费过程尽可能在一个线程中消费完,其中最重要的一个应用实例就是经典Web交互模型中的“一个请求对应一个服务器线程”(Thread-per-Request)的处理方式,这种处理方式的普遍应用使得不少Web服务端应用均可以使用线程本地存储来解决线程安全问题。
Java语言中,若是一个变量要被多线程访问,可使用volatile关键字声明它为“易变的”;若是一个变量要被某个线程独享,Java中就没有相似C++中__declspec(thread)这样的关键字,不过仍是能够经过java.lang.ThreadLocal类来实现线程本地存储的功能。每个线程的Thread对象中都有一个ThreadLocalMap对象,这个对象存储了一组以ThreadLocal.threadLocalHashCode为键,以本地线程变量为值的K-V值对,ThreadLocal对象就是当前线程的ThreadLocalMap的访问入口,每个ThreadLocal对象都包含了一个独一无二的threadLocalHashCode值,使用这个值就能够在线程K-V值对中找回对应的本地线程变量。
高效并发是从JDK 1.5到JDK 1.6的一个重要改进,HotSpot虚拟机开发团队在这个版本上花费了大量的精力去实现各类锁优化技术,如适应性自旋(Adaptive Spinning)、锁消除(Lock Elimination)、锁粗化(Lock Coarsening)、轻量级锁(Lightweight Locking)和偏向锁(Biased Locking)等,这些技术都是为了在线程之间更高效地共享数据,以及解决竞争问题,从而提升程序的执行效率。
前面咱们讨论互斥同步的时候,提到了互斥同步对性能最大的影响是阻塞的实现,挂起线程和恢复线程的操做都须要转入内核态中完成,这些操做给系统的并发性能带来了很大的压力。同时,虚拟机的开发团队也注意到在许多应用上,共享数据的锁定状态只会持续很短的一段时间,为了这段时间去挂起和恢复线程并不值得。若是物理机器有一个以上的处理器,能让两个或以上的线程同时并行执行,咱们就可让后面请求锁的那个线程“稍等一下”,但不放弃处理器的执行时间,看看持有锁的线程是否很快就会释放锁。为了让线程等待,咱们只需让线程执行一个忙循环(自旋),这项技术就是所谓的自旋锁。
自旋锁在JDK 1.4.2中就已经引入,只不过默认是关闭的,可使用-XX:+UseSpinning参数来开启,在JDK 1.6中就已经改成默认开启了。自旋等待不能代替阻塞,且先不说对处理器数量的要求,自旋等待自己虽然避免了线程切换的开销,但它是要占用处理器时间的,所以,若是锁被占用的时间很短,自旋等待的效果就会很是好,反之,若是锁被占用的时间很长,那么自旋的线程只会白白消耗处理器资源,而不会作任何有用的工做,反而会带来性能上的浪费。所以,自旋等待的时间必需要有必定的限度,若是自旋超过了限定的次数仍然没有成功得到锁,就应当使用传统的方式去挂起线程了。自旋次数的默认值是10次,用户可使用参数-XX:PreBlockSpin来更改。
在JDK 1.6中引入了自适应的自旋锁。自适应意味着自旋的时间再也不固定了,而是由前一次在同一个锁上的自旋时间及锁的拥有者的状态来决定。若是在同一个锁对象上,自旋等待刚刚成功得到过锁,而且持有锁的线程正在运行中,那么虚拟机就会认为此次自旋也颇有可能再次成功,进而它将容许自旋等待持续相对更长的时间,好比100个循环。另外,若是对于某个锁,自旋不多成功得到过,那在之后要获取这个锁时将可能省略掉自旋过程,以免浪费处理器资源。有了自适应自旋,随着程序运行和性能监控信息的不断完善,虚拟机对程序锁的情况预测就会愈来愈准确,虚拟机就会变得愈来愈“聪明”了。
锁消除是指虚拟机即时编译器在运行时,对一些代码上要求同步,可是被检测到不可能存在共享数据竞争的锁进行消除。锁消除的主要断定依据来源于逃逸分析的数据支持,若是判断在一段代码中,堆上的全部数据都不会逃逸出去从而被其余线程访问到,那就能够把它们当作栈上数据对待,认为它们是线程私有的,同步加锁天然就无须进行。
变量是否逃逸,对于虚拟机来讲须要使用数据流分析来肯定,可是程序员本身应该是很清楚的,怎么会在明知道不存在数据争用的状况下要求同步呢?答案是有许多同步措施并非程序员本身加入的,同步的代码在Java程序中的广泛程度也许超过了大部分读者的想象。咱们来看看代码清单13-6中的例子,这段很是简单的代码仅仅是输出3个字符串相加的结果,不管是源码字面上仍是程序语义上都没有同步。
代码清单13-6 一段看起来没有同步的代码
public String concatString(String s1,String s2,String s3){ return s1+s2+s3; }
咱们也知道,因为String是一个不可变的类,对字符串的链接操做老是经过生成新的String对象来进行的,所以Javac编译器会对String链接作自动优化。在JDK 1.5以前,会转化为StringBuffer对象的连续append()操做,在JDK 1.5及之后的版本中,会转化为StringBuilder对象的连续append()操做,即代码清单13-6中的代码可能会变成代码清单13-7的样子。
代码清单13-7 Javac转化后的字符串链接操做
public String concatString(String s1,String s2,String s3){
StringBuffer sb=new StringBuffer();
sb.append(s1);
sb.append(s2);
sb.append(s3);
return sb.toString();
}
如今你们还认为这段代码没有涉及同步吗?每一个StringBuffer.append()方法中都有一个同步块,锁就是sb对象。虚拟机观察变量sb,很快就会发现它的动态做用域被限制在concatString()方法内部。也就是说,sb的全部引用永远不会“逃逸”到concatString()方法以外,其余线程没法访问到它,所以,虽然这里有锁,可是能够被安全地消除掉,在即时编译以后,这段代码就会忽略掉全部的同步而直接执行了。
客观地说,既然谈到锁消除与逃逸分析,那虚拟机就不多是JDK 1.5以前的版本,实际上会转化为非线程安全的StringBuilder来完成字符串拼接,并不会加锁,但这也不影响笔者用这个例子证实Java对象中同步的广泛性。
原则上,咱们在编写代码的时候,老是推荐将同步块的做用范围限制得尽可能小——只在共享数据的实际做用域中才进行同步,这样是为了使得须要同步的操做数量尽量变小,若是存在锁竞争,那等待锁的线程也能尽快拿到锁。
大部分状况下,上面的原则都是正确的,可是若是一系列的连续操做都对同一个对象反复加锁和解锁,甚至加锁操做是出如今循环体中的,那即便没有线程竞争,频繁地进行互斥同步操做也会致使没必要要的性能损耗。
代码清单13-7中连续的append()方法就属于这类状况。若是虚拟机探测到有这样一串零碎的操做都对同一个对象加锁,将会把加锁同步的范围扩展(粗化)到整个操做序列的外部,以代码清单13-7为例,就是扩展到第一个append()操做以前直至最后一个append()操做以后,这样只须要加锁一次就能够了。
轻量级锁是JDK 1.6之中加入的新型锁机制,它名字中的“轻量级”是相对于使用操做系统互斥量来实现的传统锁而言的,所以传统的锁机制就称为“重量级”锁。首先须要强调一点的是,轻量级锁并非用来代替重量级锁的,它的本意是在没有多线程竞争的前提下,减小传统的重量级锁使用操做系统互斥量产生的性能消耗。
要理解轻量级锁,以及后面会讲到的偏向锁的原理和运做过程,必须从HotSpot虚拟机的对象(对象头部分)的内存布局开始介绍。HotSpot虚拟机的对象头(Object Header)分为两部分信息,第一部分用于存储对象自身的运行时数据,如哈希码(HashCode)、GC分代年龄(Generational GC Age)等,这部分数据的长度在32位和64位的虚拟机中分别为32bit和64bit,官方称它为“Mark Word”,它是实现轻量级锁和偏向锁的关键。另一部分用于存储指向方法区对象类型数据的指针,若是是数组对象的话,还会有一个额外的部分用于存储数组长度。
对象头信息是与对象自身定义的数据无关的额外存储成本,考虑到虚拟机的空间效率,Mark Word被设计成一个非固定的数据结构以便在极小的空间内存储尽可能多的信息,它会根据对象的状态复用本身的存储空间。例如,在32位的HotSpot虚拟机中对象未被锁定的状态下,Mark Word的32bit空间中的25bit用于存储对象哈希码(HashCode),4bit用于存储对象分代年龄,2bit用于存储锁标志位,1bit固定为0,在其余状态(轻量级锁定、重量级锁定、GC标记、可偏向)下对象的存储内容见表13-1。
简单地介绍了对象的内存布局后,咱们把话题返回到轻量级锁的执行过程上。在代码进入同步块的时候,若是此同步对象没有被锁定(锁标志位为“01”状态),虚拟机首先将在当前线程的栈帧中创建一个名为锁记录(Lock Record)的空间,用于存储锁对象目前的Mark Word的拷贝(官方把这份拷贝加了一个Displaced前缀,即Displaced Mark Word),这时候线程堆栈与对象头的状态如图13-3所示。
图 13-3 轻量级锁CAS操做以前堆栈与对象的状态
而后,虚拟机将使用CAS操做尝试将对象的Mark Word更新为指向Lock Record的指针。若是这个更新动做成功了,那么这个线程就拥有了该对象的锁,而且对象Mark Word的锁标志位(Mark Word的最后2bit)将转变为“00”,即表示此对象处于轻量级锁定状态,这时候线程堆栈与对象头的状态如图13-4所示。
图 13-4 轻量级锁CAS操做以后堆栈与对象的状态
若是这个更新操做失败了,虚拟机首先会检查对象的Mark Word是否指向当前线程的栈帧,若是只说明当前线程已经拥有了这个对象的锁,那就能够直接进入同步块继续执行,不然说明这个锁对象已经被其余线程抢占了。若是有两条以上的线程争用同一个锁,那轻量级锁就再也不有效,要膨胀为重量级锁,锁标志的状态值变为“10”,Mark Word中存储的就是指向重量级锁(互斥量)的指针,后面等待锁的线程也要进入阻塞状态。
上面描述的是轻量级锁的加锁过程,它的解锁过程也是经过CAS操做来进行的,若是对象的Mark Word仍然指向着线程的锁记录,那就用CAS操做把对象当前的Mark Word和线程中复制的Displaced Mark Word替换回来,若是替换成功,整个同步过程就完成了。若是替换失败,说明有其余线程尝试过获取该锁,那就要在释放锁的同时,唤醒被挂起的线程。
轻量级锁能提高程序同步性能的依据是“对于绝大部分的锁,在整个同步周期内都是不存在竞争的”,这是一个经验数据。若是没有竞争,轻量级锁使用CAS操做避免了使用互斥量的开销,但若是存在锁竞争,除了互斥量的开销外,还额外发生了CAS操做,所以在有竞争的状况下,轻量级锁会比传统的重量级锁更慢。
偏向锁也是JDK 1.6中引入的一项锁优化,它的目的是消除数据在无竞争状况下的同步原语,进一步提升程序的运行性能。若是说轻量级锁是在无竞争的状况下使用CAS操做去消除同步使用的互斥量,那偏向锁就是在无竞争的状况下把整个同步都消除掉,连CAS操做都不作了。
偏向锁的“偏”,就是偏爱的“偏”、偏袒的“偏”,它的意思是这个锁会偏向于第一个得到它的线程,若是在接下来的执行过程当中,该锁没有被其余的线程获取,则持有偏向锁的线程将永远不须要再进行同步。
若是读懂了前面轻量级锁中关于对象头Mark Word与线程之间的操做过程,那偏向锁的原理理解起来就会很简单。假设当前虚拟机启用了偏向锁(启用参数-XX:+UseBiasedLocking,这是JDK 1.6的默认值),那么,当锁对象第一次被线程获取的时候,虚拟机将会把对象头中的标志位设为“01”,即偏向模式。同时使用CAS操做把获取到这个锁的线程的ID记录在对象的Mark Word之中,若是CAS操做成功,持有偏向锁的线程之后每次进入这个锁相关的同步块时,虚拟机均可以再也不进行任何同步操做(例如Locking、Unlocking及对Mark Word的Update等)。
当有另一个线程去尝试获取这个锁时,偏向模式就宣告结束。根据锁对象目前是否处于被锁定的状态,撤销偏向(Revoke Bias)后恢复到未锁定(标志位为“01”)或轻量级锁定(标志位为“00”)的状态,后续的同步操做就如上面介绍的轻量级锁那样执行。偏向锁、轻量级锁的状态转化及对象Mark Word的关系如图13-5所示。
图 13-5 偏向锁、轻量级锁的状态转化及对象Mark Word的关系
偏向锁能够提升带有同步但无竞争的程序性能。它一样是一个带有效益权衡(Trade Off)性质的优化,也就是说,它并不必定老是对程序运行有利,若是程序中大多数的锁老是被多个不一样的线程访问,那偏向模式就是多余的。在具体问题具体分析的前提下,有时候使用参数-XX:-UseBiasedLocking来禁止偏向锁优化反而能够提高性能。