Java 中的锁有不少,能够按照不一样的功能、种类进行分类,下面是我对 Java 中一些经常使用锁的分类,包括一些基本的概述java
悲观锁
和 乐观锁
自旋锁
无锁
、偏向锁
、 轻量级锁
和 重量级锁
公平锁
和 非公平锁
可重入锁
和 不可重入锁
共享锁
和 排他锁
下面咱们依次对各个锁的分类进行详细阐述。node
Java 按照是否对资源加锁分为乐观锁
和悲观锁
,乐观锁和悲观锁并非一种真实存在的锁,而是一种设计思想,乐观锁和悲观锁对于理解 Java 多线程和数据库来讲相当重要,下面就来探讨一下这两种实现方式的区别和优缺点mysql
悲观锁
是一种悲观思想,它总认为最坏的状况可能会出现,它认为数据极可能会被其余人所修改,因此悲观锁在持有数据的时候总会把资源
或者 数据
锁住,这样其余线程想要请求这个资源的时候就会阻塞,直到等到悲观锁把资源释放为止。传统的关系型数据库里边就用到了不少这种锁机制,好比行锁,表锁等,读锁,写锁等,都是在作操做以前先上锁。悲观锁的实现每每依靠数据库自己的锁功能实现。git
Java 中的 Synchronized
和 ReentrantLock
等独占锁(排他锁)也是一种悲观锁思想的实现,由于 Synchronzied 和 ReetrantLock 无论是否持有资源,它都会尝试去加锁,生怕本身心爱的宝贝被别人拿走。github
乐观锁的思想与悲观锁的思想相反,它总认为资源和数据不会被别人所修改,因此读取不会上锁,可是乐观锁在进行写入操做的时候会判断当前数据是否被修改过(具体如何判断咱们下面再说)。乐观锁的实现方案通常来讲有两种: 版本号机制
和 CAS实现
。乐观锁多适用于多度的应用类型,这样能够提升吞吐量。算法
在Java中java.util.concurrent.atomic
包下面的原子变量类就是使用了乐观锁的一种实现方式 CAS 实现的。sql
上面介绍了两种锁的基本概念,并提到了两种锁的适用场景,通常来讲,悲观锁不只会对写操做加锁还会对读操做加锁,一个典型的悲观锁调用:数据库
select * from student where name="cxuan" for update
这条 sql 语句从 Student 表中选取 name = "cxuan" 的记录并对其加锁,那么其余写操做再这个事务提交以前都不会对这条数据进行操做,起到了独占和排他的做用。编程
悲观锁由于对读写都加锁,因此它的性能比较低,对于如今互联网提倡的三高
(高性能、高可用、高并发)来讲,悲观锁的实现用的愈来愈少了,可是通常多读的状况下仍是须要使用悲观锁的,由于虽然加锁的性能比较低,可是也阻止了像乐观锁同样,遇到写不一致的状况下一直重试的时间。缓存
相对而言,乐观锁用于读多写少的状况,即不多发生冲突的场景,这样能够省去锁的开销,增长系统的吞吐量。
乐观锁的适用场景有不少,典型的好比说成本系统,柜员要对一笔金额作修改,为了保证数据的准确性和实效性,使用悲观锁锁住某个数据后,再遇到其余须要修改数据的操做,那么此操做就没法完成金额的修改,对产品来讲是灾难性的一刻,使用乐观锁的版本号机制可以解决这个问题,咱们下面说。
乐观锁通常有两种实现方式:采用版本号机制
和 CAS(Compare-and-Swap,即比较并替换)
算法实现。
版本号机制是在数据表中加上一个 version
字段来实现的,表示数据被修改的次数,当执行写操做而且写入成功后,version = version + 1,当线程A要更新数据时,在读取数据的同时也会读取 version 值,在提交更新时,若刚才读取到的 version 值为当前数据库中的version值相等时才更新,不然重试更新操做,直到更新成功。
咱们以上面的金融系统为例,来简述一下这个过程。
金额
和 version
,金额的属性是可以实时变化,而 version 表示的是金额每次发生变化的版本,通常的策略是,当金额发生改变时,version 采用递增的策略每次都在上一个版本号的基础上 + 1。在了解了基本状况和基本信息以后,咱们来看一下这个过程:公司收到回款后,须要把这笔钱放在金库中,假如金库中存有100 元钱
上面两种状况是最乐观的状况,上面的两个事务都是顺序执行的,也就是事务一和事务二互不干扰,那么事务要并行执行会如何呢?
事务一开启,男柜员先执行读操做,取出金额和版本号,执行写操做
begin update 表 set 金额 = 120,version = version + 1 where 金额 = 100 and version = 0
此时金额改成 120,版本号为1,事务尚未提交
事务二开启,女柜员先执行读操做,取出金额和版本号,执行写操做
begin update 表 set 金额 = 50,version = version + 1 where 金额 = 100 and version = 0
此时金额改成 50,版本号变为 1,事务未提交
如今提交事务一,金额改成 120,版本变为1,提交事务。理想状况下应该变为 金额 = 50,版本号 = 2,可是实际上事务二 的更新是创建在金额为 100 和 版本号为 0 的基础上的,因此事务二不会提交成功,应该从新读取金额和版本号,再次进行写操做。
这样,就避免了女柜员 用基于 version = 0 的旧数据修改的结果覆盖男操做员操做结果的可能。
省略代码,完整代码请参照 看完你就应该能明白的悲观锁和乐观锁
CAS 即 compare and swap(比较与交换)
,是一种有名的无锁算法。即不使用锁的状况下实现多线程之间的变量同步,也就是在没有线程被阻塞的状况下实现变量的同步,因此也叫非阻塞同步(Non-blocking Synchronization
Java 从 JDK1.5 开始支持,java.util.concurrent
包里提供了不少面向并发编程的类,也提供了 CAS 算法的支持,一些以 Atomic
为开头的一些原子类都使用 CAS 做为其实现方式。使用这些类在多核 CPU 的机器上会有比较好的性能。
若是要把证它们的原子性,必须进行加锁,使用 Synchronzied
或者 ReentrantLock
,咱们前面介绍它们是悲观锁的实现,咱们如今讨论的是乐观锁,那么用哪一种方式保证它们的原子性呢?请继续往下看
CAS 中涉及三个要素:
当且仅当预期值A和内存值V相同时,将内存值V修改成B,不然什么都不作。
咱们以 java.util.concurrent 中的 AtomicInteger
为例,看一下在不用锁的状况下是如何保证线程安全的
public class AtomicCounter { private AtomicInteger integer = new AtomicInteger(); public AtomicInteger getInteger() { return integer; } public void setInteger(AtomicInteger integer) { this.integer = integer; } public void increment(){ integer.incrementAndGet(); } public void decrement(){ integer.decrementAndGet(); } } public class AtomicProducer extends Thread{ private AtomicCounter atomicCounter; public AtomicProducer(AtomicCounter atomicCounter){ this.atomicCounter = atomicCounter; } @Override public void run() { for(int j = 0; j < AtomicTest.LOOP; j++) { System.out.println("producer : " + atomicCounter.getInteger()); atomicCounter.increment(); } } } public class AtomicConsumer extends Thread{ private AtomicCounter atomicCounter; public AtomicConsumer(AtomicCounter atomicCounter){ this.atomicCounter = atomicCounter; } @Override public void run() { for(int j = 0; j < AtomicTest.LOOP; j++) { System.out.println("consumer : " + atomicCounter.getInteger()); atomicCounter.decrement(); } } } public class AtomicTest { final static int LOOP = 10000; public static void main(String[] args) throws InterruptedException { AtomicCounter counter = new AtomicCounter(); AtomicProducer producer = new AtomicProducer(counter); AtomicConsumer consumer = new AtomicConsumer(counter); producer.start(); consumer.start(); producer.join(); consumer.join(); System.out.println(counter.getInteger()); } }
经测试可得,无论循环多少次最后的结果都是0,也就是多线程并行的状况下,使用 AtomicInteger 能够保证线程安全性。 incrementAndGet 和 decrementAndGet 都是原子性操做。
任何事情都是有利也有弊,软件行业没有完美的解决方案只有最优的解决方案,因此乐观锁也有它的弱点和缺陷:
ABA 问题说的是,若是一个变量第一次读取的值是 A,准备好须要对 A 进行写操做的时候,发现值仍是 A,那么这种状况下,能认为 A 的值没有被改变过吗?能够是由 A -> B -> A 的这种状况,可是 AtomicInteger 却不会这么认为,它只相信它看到的,它看到的是什么就是什么。
JDK 1.5 之后的 AtomicStampedReference
类就提供了此种能力,其中的 compareAndSet 方法
就是首先检查当前引用是否等于预期引用,而且当前标志是否等于预期标志,若是所有相等,则以原子方式将该引用和该标志的值设置为给定的更新值。
也能够采用CAS的一个变种DCAS来解决这个问题。
DCAS,是对于每个V增长一个引用的表示修改次数的标记符。对于每一个V,若是引用修改了一次,这个计数器就加1。而后再这个变量须要update的时候,就同时检查变量的值和计数器的值。
咱们知道乐观锁在进行写操做的时候会判断是否可以写入成功,若是写入不成功将触发等待 -> 重试机制,这种状况是一个自旋锁,简单来讲就是适用于短时间内获取不到,进行等待重试的锁,它不适用于长期获取不到锁的状况,另外,自旋循环对于性能开销比较大。
简单的来讲 CAS 适用于写比较少的状况下(多读场景,冲突通常较少),synchronized 适用于写比较多的状况下(多写场景,冲突通常较多)
因为在多处理器环境中某些资源的有限性,有时须要互斥访问(mutual exclusion)
,这时候就须要引入锁的概念,只有获取了锁的线程才可以对资源进行访问,因为多线程的核心是CPU的时间分片,因此同一时刻只能有一个线程获取到锁。那么就面临一个问题,那么没有获取到锁的线程应该怎么办?
一般有两种处理方式:一种是没有获取到锁的线程就一直循环等待判断该资源是否已经释放锁,这种锁叫作自旋锁,它不用将线程阻塞起来(NON-BLOCKING)
;还有一种处理方式就是把本身阻塞起来,等待从新调度请求,这种叫作互斥锁
。
自旋锁的定义:当一个线程尝试去获取某一把锁的时候,若是这个锁此时已经被别人获取(占用),那么此线程就没法获取到这把锁,该线程将会等待,间隔一段时间后会再次尝试获取。这种采用循环加锁 -> 等待的机制被称为自旋锁(spinlock)
。
自旋锁的原理比较简单,若是持有锁的线程能在短期内释放锁资源,那么那些等待竞争锁的线程就不须要作内核态和用户态之间的切换进入阻塞状态,它们只须要等一等(自旋),等到持有锁的线程释放锁以后便可获取,这样就避免了用户进程和内核切换的消耗。
由于自旋锁避免了操做系统进程调度和线程切换,因此自旋锁一般适用在时间比较短的状况下。因为这个缘由,操做系统的内核常用自旋锁。可是,若是长时间上锁的话,自旋锁会很是耗费性能,它阻止了其余线程的运行和调度。线程持有锁的时间越长,则持有该锁的线程将被 OS(Operating System)
调度程序中断的风险越大。若是发生中断状况,那么其余线程将保持旋转状态(反复尝试获取锁),而持有该锁的线程并不打算释放锁,这样致使的是结果是无限期推迟,直到持有锁的线程能够完成并释放它为止。
解决上面这种状况一个很好的方式是给自旋锁设定一个自旋时间,等时间一到当即释放自旋锁。自旋锁的目的是占着CPU资源不进行释放,等到获取锁当即进行处理。可是如何去选择自旋时间呢?若是自旋执行时间太长,会有大量的线程处于自旋状态占用 CPU 资源,进而会影响总体系统的性能。所以自旋的周期选的额外重要!JDK在1.6 引入了适应性自旋锁,适应性自旋锁意味着自旋时间不是固定的了,而是由前一次在同一个锁上的自旋时间以及锁拥有的状态来决定,基本认为一个线程上下文切换的时间是最佳的一个时间。
自旋锁尽量的减小线程的阻塞,这对于锁的竞争不激烈,且占用锁时间很是短的代码块来讲性能能大幅度的提高,由于自旋的消耗会小于线程阻塞挂起再唤醒的操做的消耗,这些操做会致使线程发生两次上下文切换!
可是若是锁的竞争激烈,或者持有锁的线程须要长时间占用锁执行同步块,这时候就不适合使用自旋锁了,由于自旋锁在获取锁前一直都是占用 cpu 作无用功,占着 XX 不 XX,同时有大量线程在竞争一个锁,会致使获取锁的时间很长,线程自旋的消耗大于线程阻塞挂起操做的消耗,其它须要 cpu 的线程又不能获取到 cpu,形成 cpu 的浪费。因此这种状况下咱们要关闭自旋锁。
下面咱们用Java 代码来实现一个简单的自旋锁
public class SpinLockTest { private AtomicBoolean available = new AtomicBoolean(false); public void lock(){ // 循环检测尝试获取锁 while (!tryLock()){ // doSomething... } } public boolean tryLock(){ // 尝试获取锁,成功返回true,失败返回false return available.compareAndSet(false,true); } public void unLock(){ if(!available.compareAndSet(true,false)){ throw new RuntimeException("释放锁失败"); } } }
这种简单的自旋锁有一个问题:没法保证多线程竞争的公平性。对于上面的 SpinlockTest,当多个线程想要获取锁时,谁最早将available
设为false
谁就能最早得到锁,这可能会形成某些线程一直都未获取到锁形成线程饥饿
。就像咱们下课后蜂拥的跑向食堂,下班后蜂拥地挤向地铁,一般咱们会采起排队的方式解决这样的问题,相似地,咱们把这种锁叫排队自旋锁(QueuedSpinlock)。计算机科学家们使用了各类方式来实现排队自旋锁,如TicketLock,MCSLock,CLHLock。接下来咱们分别对这几种锁作个大体的介绍。
在计算机科学领域中,TicketLock 是一种同步机制或锁定算法,它是一种自旋锁,它使用ticket
来控制线程执行顺序。
就像票据队列管理系统同样。面包店或者服务机构(例如银行)都会使用这种方式来为每一个先到达的顾客记录其到达的顺序,而不用每次都进行排队。一般,这种地点都会有一个分配器(叫号器,挂号器等等都行),先到的人须要在这个机器上取出本身如今排队的号码,这个号码是按照自增的顺序进行的,旁边还会有一个标牌显示的是正在服务的标志,这一般是表明目前正在服务的队列号,当前的号码完成服务后,标志牌会显示下一个号码能够去服务了。
像上面系统同样,TicketLock 是基于先进先出(FIFO) 队列的机制。它增长了锁的公平性,其设计原则以下:TicketLock 中有两个 int 类型的数值,开始都是0,第一个值是队列ticket(队列票据)
, 第二个值是 出队(票据)
。队列票据是线程在队列中的位置,而出队票据是如今持有锁的票证的队列位置。可能有点模糊不清,简单来讲,就是队列票据是你取票号的位置,出队票据是你距离叫号的位置。如今应该明白一些了吧。
当叫号叫到你的时候,不能有相同的号码同时办业务,必须只有一我的能够去办,办完后,叫号机叫到下一我的,这就叫作原子性
。你在办业务的时候不能被其余人所干扰,并且不可能会有两个持有相同号码的人去同时办业务。而后,下一我的看本身的号是否和叫到的号码保持一致,若是一致的话,那么就轮到你去办业务,不然只能继续等待。上面这个流程的关键点在于,每一个办业务的人在办完业务以后,他必须丢弃本身的号码,叫号机才能继续叫到下面的人,若是这我的没有丢弃这个号码,那么其余人只能继续等待。下面来实现一下这个票据排队方案
public class TicketLock { // 队列票据(当前排队号码) private AtomicInteger queueNum = new AtomicInteger(); // 出队票据(当前需等待号码) private AtomicInteger dueueNum = new AtomicInteger(); // 获取锁:若是获取成功,返回当前线程的排队号 public int lock(){ int currentTicketNum = dueueNum.incrementAndGet(); while (currentTicketNum != queueNum.get()){ // doSomething... } return currentTicketNum; } // 释放锁:传入当前排队的号码 public void unLock(int ticketNum){ queueNum.compareAndSet(ticketNum,ticketNum + 1); } }
每次叫号机在叫号的时候,都会判断本身是否是被叫的号,而且每一个人在办完业务的时候,叫号机根据在当前号码的基础上 + 1,让队列继续往前走。
可是上面这个设计是有问题的,由于得到本身的号码以后,是能够对号码进行更改的,这就形成系统紊乱,锁不能及时释放。这时候就须要有一个能确保每一个人按会着本身号码排队办业务的角色,在得知这一点以后,咱们从新设计一下这个逻辑
public class TicketLock2 { // 队列票据(当前排队号码) private AtomicInteger queueNum = new AtomicInteger(); // 出队票据(当前需等待号码) private AtomicInteger dueueNum = new AtomicInteger(); private ThreadLocal<Integer> ticketLocal = new ThreadLocal<>(); public void lock(){ int currentTicketNum = dueueNum.incrementAndGet(); // 获取锁的时候,将当前线程的排队号保存起来 ticketLocal.set(currentTicketNum); while (currentTicketNum != queueNum.get()){ // doSomething... } } // 释放锁:从排队缓冲池中取 public void unLock(){ Integer currentTicket = ticketLocal.get(); queueNum.compareAndSet(currentTicket,currentTicket + 1); } }
此次就再也不须要返回值,办业务的时候,要将当前的这一个号码缓存起来,在办完业务后,须要释放缓存的这条票据。
缺点
TicketLock 虽然解决了公平性的问题,可是多处理器系统上,每一个进程/线程占用的处理器都在读写同一个变量queueNum ,每次读写操做都必须在多个处理器缓存之间进行缓存同步,这会致使繁重的系统总线和内存的流量,大大下降系统总体的性能。
为了解决这个问题,MCSLock 和 CLHLock 应运而生。
上面说到TicketLock 是基于队列的,那么 CLHLock 就是基于链表设计的,CLH的发明人是:Craig,Landin and Hagersten,用它们各自的字母开头命名。CLH 是一种基于链表的可扩展,高性能,公平的自旋锁,申请线程只能在本地变量上自旋,它会不断轮询前驱的状态,若是发现前驱释放了锁就结束自旋。
public class CLHLock { public static class CLHNode{ private volatile boolean isLocked = true; } // 尾部节点 private volatile CLHNode tail; private static final ThreadLocal<CLHNode> LOCAL = new ThreadLocal<>(); private static final AtomicReferenceFieldUpdater<CLHLock,CLHNode> UPDATER = AtomicReferenceFieldUpdater.newUpdater(CLHLock.class,CLHNode.class,"tail"); public void lock(){ // 新建节点并将节点与当前线程保存起来 CLHNode node = new CLHNode(); LOCAL.set(node); // 将新建的节点设置为尾部节点,并返回旧的节点(原子操做),这里旧的节点实际上就是当前节点的前驱节点 CLHNode preNode = UPDATER.getAndSet(this,node); if(preNode != null){ // 前驱节点不为null表示当锁被其余线程占用,经过不断轮询判断前驱节点的锁标志位等待前驱节点释放锁 while (preNode.isLocked){ } preNode = null; LOCAL.set(node); } // 若是不存在前驱节点,表示该锁没有被其余线程占用,则当前线程得到锁 } public void unlock() { // 获取当前线程对应的节点 CLHNode node = LOCAL.get(); // 若是tail节点等于node,则将tail节点更新为null,同时将node的lock状态职位false,表示当前线程释放了锁 if (!UPDATER.compareAndSet(this, node, null)) { node.isLocked = false; } node = null; } }
MCS Spinlock 是一种基于链表的可扩展、高性能、公平的自旋锁,申请线程只在本地变量上自旋,直接前驱负责通知其结束自旋,从而极大地减小了没必要要的处理器缓存同步的次数,下降了总线和内存的开销。MCS 来自于其发明人名字的首字母: John Mellor-Crummey 和 Michael Scott。
public class MCSLock { public static class MCSNode { volatile MCSNode next; volatile boolean isLocked = true; } private static final ThreadLocal<MCSNode> NODE = new ThreadLocal<>(); // 队列 @SuppressWarnings("unused") private volatile MCSNode queue; private static final AtomicReferenceFieldUpdater<MCSLock,MCSNode> UPDATE = AtomicReferenceFieldUpdater.newUpdater(MCSLock.class,MCSNode.class,"queue"); public void lock(){ // 建立节点并保存到ThreadLocal中 MCSNode currentNode = new MCSNode(); NODE.set(currentNode); // 将queue设置为当前节点,而且返回以前的节点 MCSNode preNode = UPDATE.getAndSet(this, currentNode); if (preNode != null) { // 若是以前节点不为null,表示锁已经被其余线程持有 preNode.next = currentNode; // 循环判断,直到当前节点的锁标志位为false while (currentNode.isLocked) { } } } public void unlock() { MCSNode currentNode = NODE.get(); // next为null表示没有正在等待获取锁的线程 if (currentNode.next == null) { // 更新状态并设置queue为null if (UPDATE.compareAndSet(this, currentNode, null)) { // 若是成功了,表示queue==currentNode,即当前节点后面没有节点了 return; } else { // 若是不成功,表示queue!=currentNode,即当前节点后面多了一个节点,表示有线程在等待 // 若是当前节点的后续节点为null,则须要等待其不为null(参考加锁方法) while (currentNode.next == null) { } } } else { // 若是不为null,表示有线程在等待获取锁,此时将等待线程对应的节点锁状态更新为false,同时将当前线程的后继节点设为null currentNode.next.isLocked = false; currentNode.next = null; } } }
Java 语言专门针对 synchronized
关键字设置了四种状态,它们分别是:无锁、偏向锁、轻量级锁和重量级锁,可是在了解这些锁以前还须要先了解一下 Java 对象头和 Monitor。
咱们知道 synchronized 是悲观锁,在操做同步以前须要给资源加锁,这把锁就是对象头里面的,而Java 对象头又是什么呢?咱们以 Hotspot 虚拟机为例,Hopspot 对象头主要包括两部分数据:Mark Word(标记字段)
和 class Pointer(类型指针)
。
Mark Word:默认存储对象的HashCode,分代年龄和锁标志位信息。这些信息都是与对象自身定义无关的数据,因此Mark Word被设计成一个非固定的数据结构以便在极小的空间内存存储尽可能多的数据。它会根据对象的状态复用本身的存储空间,也就是说在运行期间Mark Word里存储的数据会随着锁标志位的变化而变化。
class Point:对象指向它的类元数据的指针,虚拟机经过这个指针来肯定这个对象是哪一个类的实例。
在32位虚拟机和64位虚拟机的 Mark Word 所占用的字节大小不同,32位虚拟机的 Mark Word 和 class Pointer 分别占用 32bits 的字节,而 64位虚拟机的 Mark Word 和 class Pointer 占用了64bits 的字节,下面咱们以 32位虚拟机为例,来看一下其 Mark Word 的字节具体是如何分配的
用中文翻译过来就是
无锁
的时候,对象头开辟 25bit 的空间用来存储对象的 hashcode ,4bit 用于存放分代年龄,1bit 用来存放是否偏向锁的标识位,2bit 用来存放锁标识位为01偏向锁
中划分更细,仍是开辟25bit 的空间,其中23bit 用来存放线程ID,2bit 用来存放 epoch,4bit 存放分代年龄,1bit 存放是否偏向锁标识, 0表示无锁,1表示偏向锁,锁的标识位仍是01轻量级锁
中直接开辟 30bit 的空间存放指向栈中锁记录的指针,2bit 存放锁的标志位,其标志位为00重量级锁
中和轻量级锁同样,30bit 的空间用来存放指向重量级锁的指针,2bit 存放锁的标识位,为11GC标记
开辟30bit 的内存空间却没有占用,2bit 空间存放锁标志位为11。其中无锁和偏向锁的锁标志位都是01,只是在前面的1bit区分了这是无锁状态仍是偏向锁状态。
关于为何这么分配的内存,咱们能够从 OpenJDK
中的markOop.hpp类中的枚举窥出端倪
来解释一下
synchronized
用的锁记录是存在Java对象头里的。
JVM基于进入和退出 Monitor 对象来实现方法同步和代码块同步。代码块同步是使用 monitorenter 和 monitorexit 指令实现的,monitorenter 指令是在编译后插入到同步代码块的开始位置,而 monitorexit 是插入到方法结束处和异常处。任何对象都有一个 monitor 与之关联,当且一个 monitor 被持有后,它将处于锁定状态。
根据虚拟机规范的要求,在执行 monitorenter 指令时,首先要去尝试获取对象的锁,若是这个对象没被锁定,或者当前线程已经拥有了那个对象的锁,把锁的计数器加1,相应地,在执行 monitorexit 指令时会将锁计数器减1,当计数器被减到0时,锁就释放了。若是获取对象锁失败了,那当前线程就要阻塞等待,直到对象锁被另外一个线程释放为止。
Synchronized是经过对象内部的一个叫作监视器锁(monitor)来实现的,监视器锁本质又是依赖于底层的操做系统的 Mutex Lock(互斥锁)来实现的。而操做系统实现线程之间的切换须要从用户态转换到核心态,这个成本很是高,状态之间的转换须要相对比较长的时间,这就是为何 Synchronized 效率低的缘由。所以,这种依赖于操做系统 Mutex Lock 所实现的锁咱们称之为重量级锁
。
Java SE 1.6为了减小得到锁和释放锁带来的性能消耗,引入了偏向锁
和轻量级锁
:锁一共有4种状态,级别从低到高依次是:无锁状态、偏向锁状态、轻量级锁状态和重量级锁状态。锁能够升级但不能降级。
因此锁的状态总共有四种:无锁状态、偏向锁、轻量级锁和重量级锁。随着锁的竞争,锁能够从偏向锁升级到轻量级锁,再升级的重量级锁(可是锁的升级是单向的,也就是说只能从低到高升级,不会出现锁的降级)。JDK 1.6中默认是开启偏向锁和轻量级锁的,咱们也能够经过-XX:-UseBiasedLocking=false来禁用偏向锁。
先来个大致的流程图来感觉一下这个过程,而后下面咱们再分开来讲
无锁状态
,无锁即没有对资源进行锁定,全部的线程均可以对同一个资源进行访问,可是只有一个线程可以成功修改资源。
无锁的特色就是在循环内进行修改操做,线程会不断的尝试修改共享资源,直到可以成功修改资源并退出,在此过程当中没有出现冲突的发生,这很像咱们在以前文章中介绍的 CAS 实现,CAS 的原理和应用就是无锁的实现。无锁没法全面代替有锁,但无锁在某些场合下的性能是很是高的。
HotSpot 的做者通过研究发现,大多数状况下,锁不只不存在多线程竞争,还存在锁由同一线程屡次得到的状况,偏向锁就是在这种状况下出现的,它的出现是为了解决只有在一个线程执行同步时提升性能。
能够从对象头的分配中看到,偏向锁要比无锁多了线程ID
和 epoch
,下面咱们就来描述一下偏向锁的获取过程
偏向锁获取过程
锁标志位
判断目前锁的状态,若是是 01,说明就是无锁或者偏向锁,而后再根据是否偏向锁
的标示判断是无锁仍是偏向锁,若是是无锁状况下,执行下一步全局安全点(Safe Point):全局安全点的理解会涉及到 C 语言底层的一些知识,这里简单理解 SafePoint 是 Java 代码中的一个线程可能暂停执行的位置。
等到下一次线程在进入和退出同步代码块时就不须要进行 CAS
操做进行加锁和解锁,只须要简单判断一下对象头的 Mark Word 中是否存储着指向当前线程的线程ID,判断的标志固然是根据锁的标志位来判断的。若是用流程图来表示的话就是下面这样
关闭偏向锁
偏向锁在Java 6 和Java 7 里是默认启用
的。因为偏向锁是为了在只有一个线程执行同步块时提升性能,若是你肯定应用程序里全部的锁一般状况下处于竞争状态,能够经过JVM参数关闭偏向锁:-XX:-UseBiasedLocking=false
,那么程序默认会进入轻量级锁状态。
关于 epoch
偏向锁的对象头中有一个被称为 epoch
的值,它做为误差有效性的时间戳。
轻量级锁
是指当前锁是偏向锁的时候,资源被另外的线程所访问,那么偏向锁就会升级为轻量级锁
,其余线程会经过自旋
的形式尝试获取锁,不会阻塞,从而提升性能,下面是详细的获取过程。
轻量级锁加锁过程
全局安全点(SafePoint)
时,会暂停原持有偏向锁的线程,而后会检查原持有偏向锁的状态,若是已经退出同步,就会唤醒持有偏向锁的线程,执行下一步若是用流程表示的话就是下面这样(已经包含偏向锁的获取)
重量级锁的获取流程比较复杂,小伙伴们作好准备,其实多看几遍也没那么麻烦,呵呵。
重量级锁的获取流程
执行完毕后,开始轻量级解锁操做,解锁须要判断两个条件
若是上面两个判断条件都符合的话,就进行锁释放,若是其中一个条件不符合,就会释放锁,并唤起等待的线程,进行新一轮的锁竞争。
重量级锁
若是用流程图表示是这样的
咱们知道,在并发环境中,多个线程须要对同一资源进行访问,同一时刻只能有一个线程可以获取到锁并进行资源访问,那么剩下的这些线程怎么办呢?这就比如食堂排队打饭的模型,最早到达食堂的人拥有最早买饭的权利,那么剩下的人就须要在第一我的后面排队,这是理想的状况,即每一个人都可以买上饭。那么现实状况是,在你排队的过程当中,就有个别不老实的人想走捷径,插队打饭,若是插队的这我的后面没有人制止他这种行为,他就可以顺利买上饭,若是有人制止,他就也得去队伍后面排队。
对于正常排队的人来讲,没有人插队,每一个人都在等待排队打饭的机会,那么这种方式对每一个人来讲都是公平的,先来后到嘛。这种锁也叫作公平锁。
那么假如插队的这我的成功买上饭而且在买饭的过程无论有没有人制止他,他的这种行为对正常排队的人来讲都是不公平的,这在锁的世界中也叫作非公平锁。
那么咱们根据上面的描述能够得出下面的结论
公平锁表示线程获取锁的顺序是按照线程加锁的顺序来分配的,即先来先得的FIFO先进先出顺序。而非公平锁就是一种获取锁的抢占机制,是随机得到锁的,和公平锁不同的就是先来的不必定先获得锁,这个方式可能形成某些线程一直拿不到锁,结果也就是不公平的了。
在 Java 中,咱们通常经过 ReetrantLock
来实现锁的公平性
咱们分别经过两个例子来说解一下锁的公平性和非公平性
锁的公平性
public class MyFairLock extends Thread{ private ReentrantLock lock = new ReentrantLock(true); public void fairLock(){ try { lock.lock(); System.out.println(Thread.currentThread().getName() + "正在持有锁"); }finally { System.out.println(Thread.currentThread().getName() + "释放了锁"); lock.unlock(); } } public static void main(String[] args) { MyFairLock myFairLock = new MyFairLock(); Runnable runnable = () -> { System.out.println(Thread.currentThread().getName() + "启动"); myFairLock.fairLock(); }; Thread[] thread = new Thread[10]; for(int i = 0;i < 10;i++){ thread[i] = new Thread(runnable); } for(int i = 0;i < 10;i++){ thread[i].start(); } } }
咱们建立了一个 ReetrantLock,并给构造函数传了一个 true,咱们能够查看 ReetrantLock 的构造函数
public ReentrantLock(boolean fair) { sync = fair ? new FairSync() : new NonfairSync(); }
根据 JavaDoc 的注释可知,若是是 true 的话,那么就会建立一个 ReentrantLock 的公平锁,而后并建立一个 FairSync
,FairSync 实际上是一个 Sync
的内部类,它的主要做用是同步对象以获取公平锁。
而 Sync 是 ReentrantLock 中的内部类,Sync 继承 AbstractQueuedSynchronizer
类,AbstractQueuedSynchronizer 就是咱们常说的 AQS ,它是 JUC(java.util.concurrent) 中最重要的一个类,经过它来实现独占锁和共享锁。
abstract static class Sync extends AbstractQueuedSynchronizer {...}
也就是说,咱们把 fair 参数设置为 true 以后,就能够实现一个公平锁了,是这样吗?咱们回到示例代码,咱们能够执行一下这段代码,它的输出是顺序获取的(碍于篇幅的缘由,这里就暂不贴出了),也就是说咱们建立了一个公平锁
锁的非公平性
与公平性相对的就是非公平性,咱们经过设置 fair
参数为 true,便实现了一个公平锁,与之相对的,咱们把 fair 参数设置为 false,是否是就是非公平锁了?用事实证实一下
private ReentrantLock lock = new ReentrantLock(false);
其余代码不变,咱们执行一下看看输出(部分输出)
Thread-1启动 Thread-4启动 Thread-1正在持有锁 Thread-1释放了锁 Thread-5启动 Thread-6启动 Thread-3启动 Thread-7启动 Thread-2启动
能够看到,线程的启动并无按顺序获取,能够看出非公平锁对锁的获取是乱序的,即有一个抢占锁的过程。也就是说,咱们把 fair 参数设置为 false 便实现了一个非公平锁。
ReentrantLock 是一把可重入锁
,也是一把互斥锁
,它具备与 synchronized
相同的方法和监视器锁的语义,可是它比 synchronized 有更多可扩展的功能。
ReentrantLock 的可重入性是指它能够由上次成功锁定但还未解锁的线程拥有。当只有一个线程尝试加锁时,该线程调用 lock()
方法会马上返回成功并直接获取锁。若是当前线程已经拥有这把锁,这个方法会马上返回。可使用 isHeldByCurrentThread
和 getHoldCount
进行检查。
这个类的构造函数接受可选择的 fairness 参数,当 fairness 设置为 true 时,在多线程争夺尝试加锁时,锁倾向于对等待时间最长的线程访问,这也是公平性的一种体现。不然,锁不能保证每一个线程的访问顺序,也就是非公平锁。与使用默认设置的程序相比,使用许多线程访问的公平锁的程序可能会显示较低
的整体吞吐量(即较慢;一般要慢得多)。可是获取锁并保证线程不会饥饿的次数比较小。不管如何请注意:锁的公平性不能保证线程调度的公平性。所以,使用公平锁的多线程之一可能会连续屡次得到它,而其余活动线程没有进行且当前未持有该锁。这也是互斥性
的一种体现。
也要注意的 tryLock()
方法不支持公平性。若是锁是能够获取的,那么即便其余线程等待,它仍然可以返回成功。
推荐使用下面的代码来进行加锁和解锁
class MyFairLock { private final ReentrantLock lock = new ReentrantLock(); public void m() { lock.lock(); try { // ... } finally { lock.unlock() } } }
ReentrantLock 锁经过同一线程最多支持2147483647个递归锁。 尝试超过此限制会致使锁定方法引起错误。
咱们在上面的简述中提到,ReentrantLock 是能够实现锁的公平性的,那么原理是什么呢?下面咱们经过其源码来了解一下 ReentrantLock 是如何实现锁的公平性的
跟踪其源码发现,调用 Lock.lock()
方法实际上是调用了 sync
的内部的方法
abstract void lock();
而 sync 是最基础的同步控制 Lock 的类,它有公平锁和非公平锁的实现。它继承 AbstractQueuedSynchronizer
即 使用 AQS 状态表明锁持有的数量。
lock 是抽象方法是须要被子类实现的,而继承了 AQS 的类主要有
咱们能够看到,全部实现了 AQS 的类都位于 JUC 包下,主要有五类:ReentrantLock
、ReentrantReadWriteLock
、Semaphore
、CountDownLatch
和 ThreadPoolExecutor
,其中 ReentrantLock、ReentrantReadWriteLock、Semaphore 均可以实现公平锁和非公平锁。
下面是公平锁 FairSync
的继承关系
非公平锁的NonFairSync
的继承关系
由继承图能够看到,两个类的继承关系都是相同的,咱们从源码发现,公平锁和非公平锁的实现就是下面这段代码的区别(下一篇文章咱们会从原理角度分析一下公平锁和非公平锁的实现)
经过上图中的源代码对比,咱们能够明显的看出公平锁与非公平锁的lock()方法惟一的区别就在于公平锁在获取同步状态时多了一个限制条件:hasQueuedPredecessors()
。
hasQueuedPredecessors() 也是 AQS 中的方法,它主要是用来 查询是否有任何线程在等待获取锁的时间比当前线程长,也就是说每一个等待线程都是在一个队列中,此方法就是判断队列中在当前线程获取锁时,是否有等待锁时间比本身还长的队列,若是当前线程以前有排队的线程,返回 true,若是当前线程位于队列的开头或队列为空,返回 false。
综上,公平锁就是经过同步队列来实现多个线程按照申请锁的顺序来获取锁,从而实现公平的特性。非公平锁加锁时不考虑排队等待问题,直接尝试获取锁,因此存在后申请却先得到锁的状况。
可重入锁又称为递归锁,是指在同一个线程在外层方法获取锁的时候,再进入该线程的内层方法会自动获取锁(前提锁对象得是同一个对象或者class),不会由于以前已经获取过还没释放而阻塞。Java 中 ReentrantLock
和synchronized
都是可重入锁,可重入锁的一个优势是在必定程度上能够避免死锁。
咱们先来看一段代码来讲明一下 synchronized 的可重入性
private synchronized void doSomething(){ System.out.println("doSomething..."); doSomethingElse(); } private synchronized void doSomethingElse(){ System.out.println("doSomethingElse..."); }
在上面这段代码中,咱们对 doSomething()
和 doSomethingElse()
分别使用了 synchronized
进行锁定,doSomething() 方法中调用了 doSomethingElse() 方法,由于 synchronized 是可重入锁,因此同一个线程在调用 doSomething() 方法时,也可以进入 doSomethingElse() 方法中。
若是 synchronized 是不可重入锁的话,那么在调用 doSomethingElse() 方法的时候,必须把 doSomething() 的锁丢掉,实际上该对象锁已被当前线程所持有,且没法释放。因此此时会出现死锁。
也就是说,不可重入锁会形成死锁
独占多和共享锁通常对应 JDK 源码的 ReentrantLock 和 ReentrantReadWriteLock 源码来介绍独占锁和共享锁。
独占锁又叫作排他锁,是指锁在同一时刻只能被一个线程拥有,其余线程想要访问资源,就会被阻塞。JDK 中 synchronized和 JUC 中 Lock 的实现类就是互斥锁。
共享锁指的是锁可以被多个线程所拥有,若是某个线程对资源加上共享锁后,则其余线程只能对资源再加共享锁,不能加排它锁。得到共享锁的线程只能读数据,不能修改数据。
咱们看到 ReentrantReadWriteLock 有两把锁:ReadLock
和 WriteLock
,也就是一个读锁一个写锁,合在一块儿叫作读写锁。再进一步观察能够发现 ReadLock 和 WriteLock 是靠内部类 Sync 实现的锁。Sync 是继承于 AQS 子类的,AQS 是并发的根本,这种结构在CountDownLatch、ReentrantLock、Semaphore里面也都存在。
在 ReentrantReadWriteLock 里面,读锁和写锁的锁主体都是 Sync,但读锁和写锁的加锁方式不同。读锁是共享锁,写锁是独享锁。读锁的共享锁可保证并发读很是高效,而读写、写读、写写的过程互斥,由于读锁和写锁是分离的。因此ReentrantReadWriteLock的并发性相比通常的互斥锁有了很大提高。