数据同步须要依赖锁,那锁的同步又依赖谁?synchronized给出的答案是在软件层面依赖JVM,而Lock给出的方案是在硬件层面依赖特殊的CPU指令,你们可能会进一步追问:JVM底层又是如何实现synchronized的?html
本文所指说的JVM是指Hotspot的6u23版本,下面首先介绍synchronized的实现: 缓存
synrhronized关键字简洁、清晰、语义明确,所以即便有了Lock接口,使用的仍是很是普遍。其应用层的语义是能够把任何一个非null 对象 做为"锁",当synchronized做用在方法上时,锁住的即是对象实例(this);看成用在静态方法时锁住的即是对象对应的Class实例,由于 Class数据存在于永久带,所以静态方法锁至关于该类的一个全局锁;当synchronized做用于某一个对象实例时,锁住的即是对应的代码块。在 HotSpot JVM实现中,锁有个专门的名字:对象监视器。 数据结构
1. 线程状态及状态转换 多线程
当多个线程同时请求某个对象监视器时,对象监视器会设置几种状态用来区分请求的线程: 架构
Contention List:全部请求锁的线程将被首先放置到该竞争队列 并发
Entry List:Contention List中那些有资格成为候选人的线程被移到Entry List oracle
Wait Set:那些调用wait方法被阻塞的线程被放置到Wait Set 函数
OnDeck:任什么时候刻最多只能有一个线程正在竞争锁,该线程称为OnDeck 性能
Owner:得到锁的线程称为Owner 优化
!Owner:释放锁的线程
下图反映了个状态转换关系:
新请求锁的线程将首先被加入到ConetentionList中,当某个拥有锁的线程(Owner状态)调用unlock以后,若是发现 EntryList为空则从ContentionList中移动线程到EntryList,下面说明下ContentionList和EntryList 的实现方式:
1.1 ContentionList 虚拟队列
ContentionList 并非一个真正的Queue,而只是一个虚拟队列,缘由在于ContentionList是由Node及其next指 针逻辑构成,并不存在一个Queue的数据结构。ContentionList是一个后进先出(LIFO)的队列,每次新加入Node时都会在队头进行, 经过CAS改变第一个节点的的指针为新增节点,同时设置新增节点的next指向后续节点,而取得操做则发生在队尾。显然,该结构实际上是个Lock- Free的队列。
由于只有Owner线程才能从队尾取元素,也即线程出列操做无争用,固然也就避免了CAS的ABA问题。
1.2 EntryList
EntryList与ContentionList逻辑上同属等待队列,ContentionList会被线程并发访问,为了下降对 ContentionList队尾的争用,而创建EntryList。Owner线程在unlock时会从ContentionList中迁移线程到 EntryList,并会指定EntryList中的某个线程(通常为Head)为Ready(OnDeck)线程。Owner线程并非把锁传递给 OnDeck线程,只是把竞争锁的权利交给OnDeck,OnDeck线程须要从新竞争锁。这样作虽然牺牲了必定的公平性,但极大的提升了总体吞吐量,在 Hotspot中把OnDeck的选择行为称之为“竞争切换”。
OnDeck线程得到锁后即变为owner线程,没法得到锁则会依然留在EntryList中,考虑到公平性,在EntryList中的位置不 发生变化(依然在队头)。若是Owner线程被wait方法阻塞,则转移到WaitSet队列;若是在某个时刻被notify/notifyAll唤醒, 则再次转移到EntryList。
2. 自旋锁
那些处于ContetionList、EntryList、WaitSet中的线程均处于阻塞状态,阻塞操做由操做系统完成(在Linxu下通 过pthread_mutex_lock函数)。线程被阻塞后便进入内核(Linux)调度状态,这个会致使系统在用户态与内核态之间来回切换,严重影响 锁的性能
缓解上述问题的办法即是自旋,其原理是:当发生争用时,若Owner线程能在很短的时间内释放锁,则那些正在争用线程能够稍微等一等(自旋), 在Owner线程释放锁后,争用线程可能会当即获得锁,从而避免了系统阻塞。但Owner运行的时间可能会超出了临界值,争用线程自旋一段时间后仍是没法 得到锁,这时争用线程则会中止自旋进入阻塞状态(后退)。基本思路就是自旋,不成功再阻塞,尽可能下降阻塞的可能性,这对那些执行时间很短的代码块来讲有非 常重要的性能提升。自旋锁有个更贴切的名字:自旋-指数后退锁,也即复合锁。很显然,自旋在多处理器上才有意义。
还有个问题是,线程自旋时作些啥?其实啥都不作,能够执行几回for循环,能够执行几条空的汇编指令,目的是占着CPU不放,等待获取锁的机 会。因此说,自旋是把双刃剑,若是旋的时间过长会影响总体性能,时间太短又达不到延迟阻塞的目的。显然,自旋的周期选择显得很是重要,但这与操做系统、硬 件体系、系统的负载等诸多场景相关,很难选择,若是选择不当,不但性能得不到提升,可能还会降低,所以你们广泛认为自旋锁不具备扩展性。
自旋优化策略
对自旋锁周期的选择上,HotSpot认为最佳时间应是一个线程上下文切换的时间,但目前并无作到。通过调查,目前只是经过汇编暂停了几个CPU周期,除了自旋周期选择,HotSpot还进行许多其余的自旋优化策略,具体以下:
若是平均负载小于CPUs则一直自旋
若是有超过(CPUs/2)个线程正在自旋,则后来线程直接阻塞
若是正在自旋的线程发现Owner发生了变化则延迟自旋时间(自旋计数)或进入阻塞
若是CPU处于节电模式则中止自旋
自旋时间的最坏状况是CPU的存储延迟(CPU A存储了一个数据,到CPU B得知这个数据直接的时间差)
自旋时会适当放弃线程优先级之间的差别
那synchronized实现什么时候使用了自旋锁?答案是在线程进入ContentionList时,也即第一步操做前。线程在进入等待队列时 首先进行自旋尝试得到锁,若是不成功再进入等待队列。这对那些已经在等待队列中的线程来讲,稍微显得不公平。还有一个不公平的地方是自旋线程可能会抢占了 Ready线程的锁。自旋锁由每一个监视对象维护,每一个监视对象一个。
3. JVM1.6偏向锁
在JVM1.6中引入了偏向锁,偏向锁主要解决无竞争下的锁性能问题,首先咱们看下无竞争下锁存在什么问题:
如今几乎全部的锁都是可重入的,也即已经得到锁的线程能够屡次锁住/解锁监视对象,按照以前的HotSpot设计,每次加锁/解锁都会涉及到一些 CAS操 做(好比对等待队列的CAS操做),CAS操做会延迟本地调用,所以偏向锁的想法是一旦线程第一次得到了监视对象,以后让监视对象“偏向”这个 线程,以后的屡次调用则能够避免CAS操做,说白了就是置个变量,若是发现为true则无需再走各类加锁/解锁流程。但还有不少概念须要解释、不少引入的 问题须要解决:
3.1 CAS及SMP架构
CAS为何会引入本地延迟?这要从SMP(对称多处理器)架构提及,下图大概代表了SMP的结构:
其意思是全部的CPU会共享一条系统总线(BUS),靠此总线链接主存。每一个核都有本身的一级缓存,各核相对于BUS对称分布,所以这种结构称为“对称多处理器”。
而CAS的全称为Compare-And-Swap,是一条CPU的原子指令,其做用是让CPU比较后原子地更新某个位置的值,通过调查发现, 其实现方式是基于硬件平台的汇编指令,就是说CAS是靠硬件实现的,JVM只是封装了汇编调用,那些AtomicInteger类即是使用了这些封装后的 接口。
Core1和Core2可能会同时把主存中某个位置的值Load到本身的L1 Cache中,当Core1在本身的L1 Cache中修改这个位置的值时,会经过总线,使Core2中L1 Cache对应的值“失效”,而Core2一旦发现本身L1 Cache中的值失效(称为Cache命中缺失)则会经过总线从内存中加载该地址最新的值,你们经过总线的来回通讯称为“Cache一致性流量”,由于总 线被设计为固定的“通讯能力”,若是Cache一致性流量过大,总线将成为瓶颈。而当Core1和Core2中的值再次一致时,称为“Cache一致 性”,从这个层面来讲,锁设计的终极目标即是减小Cache一致性流量。
而CAS刚好会致使Cache一致性流量,若是有不少线程都共享同一个对象,当某个Core CAS成功时必然会引发总线风暴,这就是所谓的本地延迟,本质上偏向锁就是为了消除CAS,下降Cache一致性流量。
Cache一致性:
上面提到Cache一致性,实际上是有协议支持的,如今通用的协议是MESI(最先由Intel开始支持),具体参考:http://en.wikipedia.org/wiki/MESI_protocol,之后会仔细讲解这部分。
Cache一致性流量的例外状况:
其实也不是全部的CAS都会致使总线风暴,这跟Cache一致性协议有关,具体参考:http://blogs.oracle.com/dave/entry/biased_locking_in_hotspot
NUMA(Non Uniform Memory Access Achitecture)架构:
与SMP对应还有非对称多处理器架构,如今主要应用在一些高端处理器上,主要特色是没有总线,没有公用主存,每一个Core有本身的内存,针对这种结构此处不作讨论。
3.2 偏向解除
偏向锁引入的一个重要问题是,在多争用的场景下,若是另一个线程争用偏向对象,拥有者须要释放偏向锁,而释放的过程会带来一些性能开销,但整体说来偏向锁带来的好处仍是大于CAS代价的。
4. 总结
关于锁,JVM中还引入了一些其余技术好比锁膨胀等,这些与自旋锁、偏向锁相比影响不是很大,这里就不作介绍。
经过上面的介绍能够看出,synchronized的底层实现主要依靠Lock-Free的队列,基本思路是自旋后阻塞,竞争切换后继续竞争锁,稍微牺牲了公平性,但得到了高吞吐量。
转载自 http://www.open-open.com/lib/view/open1352431526366.html