Author:
bugall
Wechat:bugallF
Email:769088641@qq.com
Github: https://github.com/bugallmysql
InnoDB是符合MVCC(Multi-Version Concurrency Control)规范的,通俗的讲就是写加锁,读不加锁,读写不冲突(有些状况下是不符合MVCC的,好比当isolation级别为serializable时,git
是读写冲突的,这又跟autocommit参数的值有关,这里不展开讲)。有这么一个前提mysql才能对并发有不错的处理能力,可是不少时候咱们不但愿多个线程同时修改同一个数据,咱们的作法就是设github
置isolation的级别,保证数据的一致性。咱们接下来就来探讨下InnoDB中的同步机制。sql
好比咱们如今mysql-server上跟客户端创建里3个链接,某一时刻这个三个链接同时发来了一个请求,须要把名为"bugall"的用户的money增长10000,在这个时候你不但愿别的链接再来修改数据库
这个值,一般咱们会在"bugall"这个用户的数据上加一把排它锁,这样的话全部的对"bugall"对应数据作修改的请求链接都会被序列化,对"bugall"作修改的时候其它修改的请求都会被阻塞。这个数据结构
阻塞过程是怎么实现的呢?或是说这个同步机制是怎么实现的?咱们接着往下看并发
内存模型决定里CPU怎样访问内存,以及并发状况下各CPU之间的影响。可是内存模型并不包括虚拟地址转换,由于最终CPU访问的内存的物理地址,内存模型主要关心的是CPU和内存之间数据和物理函数
地址的传输。不一样硬件之间内存模型的差别在于硬件是根据怎样的顺序来执行load和store指令,改变执行顺序或许有可能带性能的提高,除此以外,内存模型还指定了多个处理器访问同一内存地址的性能
行为,最简单的内存模型就是顺序内存模型(sequential memory model),也称为strong ordering,在这个模型下,全部的load和store指令是根据程序运行顺序执行的。atom
load %r1,A //将内存地址A中的值放入寄存器r1 load %r2,B //将内存地址B中的值放入寄存器r2 add %r3,%r1,%r2 //将寄存器r1与r2的值相加,并放入寄存器r3 store %r3,c //将寄存器r3中的值写入到内存地址c中 在数序内存模型下,执行的顺序都是按照程序运行的顺序进行的,若还未将内存地址A中的值取到,则不能执行从内存地址B中取值的操做除了要求内存操做的顺序与程序运行顺序一致外,顺序内存模型 还要求从CPU或者I/O设备中读取或者写入操做是原子的,即一旦开始了,这些操做就不能被其余的内存操做中断
虽然顺序内存模型的执行顺序是根据程序的运行顺序,可是多个CPU对同一个内存地址的访问顺序确实不肯定的,而正是由于少里访问的肯定性从而致使竞争(race condition)条件的发生。为了说
明这个问题,假设有一个全局的计数器counter,CPU操做每次将该值加1,同时要求该计数器须要很是精确的展现当前CPU的操做次数
load %r1,counter //将计数器counter的值读取到寄存器r1 add %r1,1 //将寄存器r1中的值加1 store %r1,counter //并存放到计数器counter中
接下来有两种CPU顺序的执行累加操做
在该顺序下,两个CPU执行的时间交错,没有发生race condition, 所以最后获得的值符合以前的预期,然而,还有一种可能性
能够发现:若当两个CPU同时进行load操做时,那么最终将会产生错误的结果。由于每一个CPU在自增前读到的数据都是0,那么无论以后的操做顺寻如何,获得的结果永远会是1,而正确的值应为2。
在两个或者多个CPU之间更新共享的数据结构指令序列会产生race condition,指令序列自己称为临界区(critical section),操做的数据称为临界资源(critical resource)。如上面代码
中的三个指令序列可视为临界区,为里消除多个CPU并发访问临界区而致使的race condition,故须要限制同一个时刻只容许一个CPU执行临界区,而这就是互斥(mutex exclusion)
为了保证同一时刻只容许一个CPU执行临界区,当前硬件都提供里基于原子的read-modify-write操做。read-modify-write操做容许一个CPU读取一个值,修改该值,并将修改完成的值写回到内
存的三个操做做为一个原子总线操做,其在CPU中是一个特别的指令,而且只有在须要同步的时候才使用.对于具体进行怎样的modify操做每一个实现标准可能并不相同,但一般来讲,目前的CPU都支持
test-and-set(TAS)指令,该指令从内存中读取一个字节或者一个word(4个字节),而后和0进行比较,而且无条件的将其在内存中的值设置为1,全部这些操做都是原子操做。一旦CPU在执行test-
and-set操做,其它任何CPU和I/O设备都不能使用总线,经过test-and-set指令,操做系统或者数据库系统能够构造更高级别的同步操做,如spin lock(自旋锁),semephore(信号量)
在TAS的基础上,能够实现不少互斥的数据结构,而spin lock则是使用最为普遍,也最为简单的一种互斥结构。spin lock使用来对short-term critical section进行互斥的数据结构,特别需
要注意的是,spin lock用来互斥的critical section的代码应该比较少,即通常能够较快执行完代码,并释放spin lock,由于spin lock会使其它须要获取锁的线程进入忙等,占用CPU。为在
多CPU环境中利用test_and_set指令实现进程互斥,硬件须要提供进一步的支持,以保证test_and_set指令执行的原子性. 这种支持目前多以"锁总线"(bus locking)的形式提供的,因为
test_and_set指令对内存的两次操做都须要通过总线,在执行test_and_set指令以前锁住总线,在执行test_and_set指令后锁定总线,便可保证test_and_set指令执行的原子性.
实现最基本的TAS指令就是使用swap-atomic操做。该操做仅仅将寄存器中的值与内存的值进行交换,经过swap-atomic 能够用来构造test-and-set操做,首先将寄存器中的值设置为1,而后执行
atomic swap,最后和寄存器中的值进行比较。
int test_and_set(volatile int* addr){ int old_value; old_value = swap_atomic(addr,1); if(old_value==0){ return 0; } return 1; }
变量addr的类型是init,代表须要操做的单位是word.volatile修饰词告诉编译器从内存中读取addr的值,由于即便本操做没有修改addr的值,其它CPU也可能修改该值,那么在这中状况下,可能会
致使执行test_and_set获得错误的结果。swap_atomic函数执行swap-atomic的硬件指令,并返回交换前内存中addr的值,test-and-set操做是由两个独立的操做组合为一个指令,第一个阶段
是将addr中的值设置为1,第二阶段比较以前取得的结果。初始化时,将其值设置为0
typedef init lock_t void initlock(volatile lock_t *lock_status){ *lock_status = 0; }
使用前面的TAS方法讲一个spin lock对象上锁
void lock(volatile lock_t* lock_statue){ while(test_and_set(lock_status)==1); }
当lock_status的值为0时,test_and_set返回的结果为0,上锁成功。若该对象已经被使用,那么须要在while中循环(spin),知道对象释放锁。这也是spin lock名字的由来