深刻MySQL存储引擎分析锁和排序的原理

几个问题

  1. 为何不建议使用订单号做为主键?
  2. 为何要在须要排序的字段上加索引?
  3. for update 的记录不存在会致使锁住全表?
  4. redolog 和 binlog 有什么区别?
  5. MySQL 如何回滚一条 sql ?
  6. char(50) 和 varchar(50) 效果是同样的么?

索引知识回顾

对于 MySQL 数据库而言,数据是存储在文件里的,而为了可以快速定位到某张表里的某条记录进行查询和修改,咱们须要将这些数据以必定的数据结构进行存储,这个数据结构就是咱们说的索引。回忆一下咱们大学里学过的算法与数据结构,可以支持快速查找的数据结构有:顺序数组、哈希、搜索树。算法

数组要求 insert 的时候保证有序,这样查找的时候能够利用二分查找法达到 O(log(N)) 的时间复杂度,对范围查询支持也很好,可是 insert 的时候若是不是在数组尾部,就须要摞动后面全部的数据,时间复杂度为O(N)。因此有序数组只适合存储静态数据,例如几乎不多变更的配置数据,或者是历史数据。这里应该会有人有疑问:我用另一种线性数据结构链表来替代数组不就能够解决数组由于要移动数据致使太慢的问题了么,要回答这个问题咱们须要了解操做系统读取文件的流程,磁盘 IO 是一个相对很慢的操做,为了提升读取速度,咱们应该尽可能减小磁盘 IO 操做,而操做系统通常以 4kb 为一个数据页读取数据,而 MySQL 通常为 16kb 做为一个数据块,已经读取的数据块会在内存进行缓存,若是屡次数据读取在同一个数据块,则只须要一次磁盘 IO ,而若是顺序一致的记录在文件中也是顺序存储的,就能够一次读取多个数据块,这样范围查询的速度也能够大大提高,显然链表没有这方面的优点。sql

相似于 jdk 中的 hashmap,哈希表经过一个特定的哈希函数将 key 值转换为一个固定的地址,而后将对应的 value 放到这个位置,若是发生哈希碰撞就在这个位置拉出一个链表,因为哈希函数的离散特性,因此通过哈希函数处理后的 key 将失去原有的顺序,因此哈希结构的索引没法知足范围查询,只适合等值查询的状况例如一些缓存的场景。数据库

二叉树在极端状况下会变成线性结构,也就是每一个节点都只有左子节点或者只有右子节点,这样就没法利用二分查找只能从第一个节点开始向后遍历了,因此为了维持 O(log(N)) 的时间复杂度,咱们须要在插入节点的时候对节点进行调整以保证树的平衡,因此平衡二叉树插入的时间复杂度也是 O(log(N)),二叉树只有两个子节点,若是数据量很大则树就很高,树的每一层通常不在同一个数据块中存储,为了尽可能的减小磁盘读写次数,咱们用N叉树来代替二叉树,在 MySQL 中这个 N 通常为 1200,这样树高是 4 的话也能够存储亿级别的数据,并且树的前面两层通常都在内存中,MySQL 中用到的 B+ 树,通常用非叶子节点构建索引,而叶子节点用来存储具体的值。编程

在 InnoDB 中,有聚簇索引和普通索引之分,聚簇索引根据主键来构建,叶子节点存放的是该主键对应的这一行记录,而普通索引根据申明这个索引时候的列来构建,叶子节点存放的是这一行记录对应的主键的值,而普通索引中还有惟一索引和联合索引两个特例,惟一索引在插入和修改的时候会校验该索引对应的列的值是否已经存在,而联合索引将两个列的值按照申明时候的顺序进行拼接后在构建索引。后端

根据以上描述咱们能够获得如下信息:数组

  • 数据是以行为单位存储在聚簇索引里的,根据主键查询能够直接利用聚簇索引定位到所在记录,根据普通索引查询须要先在普通索引上找到对应的主键的值,而后根据主键值去聚簇索引上查找记录,俗称回表。缓存

  • 普通索引上存储的值是主键的值,若是主键是一个很长的字符串而且建了不少普通索引,将形成普通索引占有很大的物理空间,这也是为何建议使用 自增ID 来替代订单号做为主键,另外一个缘由是 自增ID 在 insert 的时候能够保证相邻的两条记录可能在同一个数据块,而订单号的连续性在设计上可能没有自增ID好,致使连续插入可能在多个数据块,增长了磁盘读写次数。bash

  • 若是咱们查询一整行记录的话,必定要去聚簇索引上查找,而若是咱们只须要根据普通索引查询主键的值,因为这些值在普通索引上已经存在,因此并不须要回表,这个称为索引覆盖,在必定程度上能够提升查询效率,因为联合索引上经过多个列构建索引,有时候咱们能够将须要频繁查询的字段加到联合索引里面,例如若是常常须要根据 name 查找 age 咱们能够建一个 name 和 age 的联合索引。数据结构

  • 查询的时候若是在索引上用了函数,将致使没法用到根据以前列上的值构建的索引,索引遵循最左匹配原则,因此若是须要查询某个列的值中间是否包含某个字符串,将没法利用索引,若是有这种需求能够利用全文索引,而若是查询是否以某个字符串开头就能够,联合索引根据第一个列查询能够用到索引,仅仅根据第二个列将没法用到索引,查询的时候用 IN 的效率高于 NOT = 。另外建议将索引的列设置为非空,这个和 NULL 字段的存储有关,下文在分析。多线程

存储格式

有了以上的索引知识咱们在来分析数据是怎么存储的,InnoDB 存储引擎的逻辑存储结构从大到小依次能够分为:表空间、段、区、页、行。

表空间做为存储结构的最高层,全部数据都存放在表空间中,默认状况下用一个共享表空间 ibdata1 ,若是开启了 innodb_file_per_table 则每张表的数据将存储在单独的表空间中,也就是每张表都会有一个文件,

表空间由各个段构成,InnoDB存储引擎由索引组织的,而索引中的叶子节点用来记录数据,存储在数据段,而非叶子节点用来构建索引,存储在索引段,而回滚段咱们在后面分析锁的时候在聊。

区是由连续的页组成,任何状况下一个区都是 1MB ,

一个区中能够有多个页,每一个页默认为 16KB ,因此默认状况下一个区中能够包含64个连续的页,页的大小是能够经过 innodb_page_size 设置,页中存储的是具体的行记录。一行记录最终以二进制的方式存储在文件里,咱们要可以解析出一行记录中每一个列的值,存储的时候就须要有固定的格式,至少须要知道每一个列占多少空间,而 MySQL 中定义了一些固定长度的数据类型,例如 int、tinyint、bigint、char数组、float、double、date、datetime、timestamp 等,这些字段咱们只须要读取对应长度的字节,而后根据类型进行解析便可,对于变长字段,例如 varchar、varbinary 等,须要有一个位置来单独存储字段实际用到的长度,固然还须要头信息来存储元数据,例如记录类型,下一条记录的位置等。下面咱们以 Compact 行格式分析一行数据在 InnoDB 中是怎么存储的。

  • 变长字段长度列表,该位置用来存储所申明的变长字段中非空字段实际占有的长度列表,例若有3个非空字段,其中第一个字段长度为3,第二个字段为空,第三个字段长度为1,则将用 01 03 表示,为空字段将在下一个位置进行标记。变长字段长度不能超过 2 个字节,因此 varchar 的长度最大为 65535。

  • NULL 标志位,占 1 个字节,若是对应的列为空则在对应的位上置为 1 ,不然为 0 ,因为该标志位占一个字节,因此列的数量不能超过 255。若是某字段为空,在后面具体的列数据中将不会在记录。这种方式也致使了在处理索引字段为空的时候须要进行额外的操做。

  • 记录头信息,固定占 5 字节,包含下一条记录的位置,该行记录总长度,记录类型,是否被删除,对应的 slot 信息等

  • 列数据 包含具体的列对应的值,加上两个隐藏列,事务 ID 列和回滚指针列。若是没有申明主键,还会增长一列记录内部 ID。

下面咱们以《MySQL 技术内幕》第二版中的例子分析下一行记录在表空间具体的存储结构。

CREATE TABLE mytest(
    t1 varchar(10),
    t2 varchar(10),
    t3 char(10),
    t4 varchar(10)
) engine = innodb;

insert into mytest VALUES('a','bb','bb','ccc');
insert into mytest VALUES('d',NULL,NULL,'fff');
复制代码

该表定义了 3 个变长字段和 1 个定长字段,而后插入两行记录,第二行记录包含空值,咱们打开表空间 mytest.ibd 文件,转换为 16 进制,并定位到以下内容:

// 第一行记录
03 02 01 为变长字段长度列表,这里是倒序存放的,分别对应 ccc、bb、a 的长度。
00 表示没有为空的字段
00 00 10 00 2c 为记录头
00 00 00 2b 68 00 没有申明主键,维护内部 ID
00 00 00 00 06 05 事务ID
80 00 00 00 32 01 10 回滚指针
61 第一列 a 的值
62 62 第二列 bb 的值
62 62 20 20 20 20 20 20 20 20 第三列 bb 的值,固定长度 char(10) 以20进行填充
63 63 63 第四列 ccc 的值

// 第二行记录
03 01 为变长字段长度列表,这里是倒序存放的,分别对应 fff、a 的长度,第二列位空。
06 转换为二进制为 00000110 表示第二列和第三列为空
00 00 20 ff 98 为记录头
00 00 00 2b 68 01 没有申明主键,维护内部 ID
00 00 00 00 06 06 事务ID
80 00 00 00 32 01 10 回滚指针
64 第一列 d 的值
65 65 65 第四列 fff 的值
复制代码

到此,咱们了解了一个数据行是怎么存储的,然而数据行并非存储引擎管理的最小存储单位,索引只可以帮助咱们定位到某个数据页,每一次磁盘读写的最小单位为也是数据页,而一个数据页内存储了多个数据行,咱们须要了解数据页的内部结构才能知道存储引擎怎么定位到某一个数据行。InnoDB 的数据页由如下 7 个部分组成:

  • 文件头(File Header) 固定 38 个字节 (页的位置,上一页下一页位置,checksum , LSN)
  • 数据页头( Page Header)固定 56 个字节 包含slot数目,可重用空间起始地址,第一个记录地址,记录数,最大事务ID等
  • 虚拟的最大最小记录 (Infimum + Supremum Record)
  • 用户记录 (User Records) 包含已经删除的记录以链表的形式构成可重用空间
  • 待分配空间 (Free spaces) 未分配的空间
  • 页目录 (Page Directory) slot 信息,下面单独介绍
  • 文件尾 (File Trailer) 固定8个字节,用来保证页的完整性

页目录里维护多个 slot ,一个 slot 包含多个行记录。每一个 slot 占 2 个字节,记录这个 slot 里的行记录相对页初始位置的偏移量。因为索引只能定位到数据页,而定位到数据页内的行记录还须要在内存中进行二分查找,而这个二分查找就须要借助 slot 信息,先找到对应的 slot ,而后在 slot 内部经过数据行中记录头里的下一个记录地址进行遍历。每个 slot 能够包含 4 到 8 个数据行。若是没有 slot 辅助,链表自己是没法进行二分查找的。

排序

排序有好多种算法来实现,在 MySQL 中常常会带上一个 limit ,表示从排序后的结果集中取前 100 条,或者取第 n 条到第 m 条,要实现排序,咱们须要先根据查询条件获取结果集,而后在内存中对这个结果集进行排序,若是结果集数量特别大,还须要将结果集写入到多个文件里,而后单独对每一个文件里的数据进行排序,而后在文件之间进行归并,排序完成后在进行 limit 操做。没错,这个就是 MySQL 实现排序的方式,前提是排序的字段没有索引。

CREATE TABLE `person` (
  `id` int(11) NOT NULL,
  `city` varchar(16) NOT NULL,
  `name` varchar(16) NOT NULL,
  `age` int(11) NOT NULL,
  `addr` varchar(128) DEFAULT NULL,
  PRIMARY KEY (`id`),
  KEY `city` (`city`)
) ENGINE=InnoDB;

select city,name,age from person where city='武汉' order by name limit 100  ;
复制代码

使用 explain 发现该语句会使用 city 索引,而且会有 filesort . 咱们分析下该语句的执行流程:

  1. 初始化 sortbuffer ,用来存放结果集
  2. 找到 city 索引,定位到 city 等于武汉的第一条记录,获取主键索引ID3. 根据 ID 去主键索引上找到对应记录,取出 city,name,age 字段放入 sortbuffer
  3. 在 city 索引取下一个 city 等于武汉的记录的主键ID
  4. 重复上面的步骤,直到全部 city 等于武汉的记录都放入 sortbuffer
  5. 对 sortbuffer 里的数据根据 name 作快速排序
  6. 根据排序结果取前面 1000 条返回

这里是查询 city,name,age 3个字段,比较少,若是查询的字段较多,则多个列若是都放入 sortbuffer 将占有大量内存空间,另外一个方案是只区出待排序的字段和主键放入 sortbuffer 这里是 name 和 id ,排序完成后在根据 id 取出须要查询的字段返回,其实就是时间换取空间的作法,这里经过 max_length_for_sort_data 参数控制,是否采用后面的方案进行排序。

另外若是 sortbuffer 里的条数不少,一样会占有大量的内存空间,能够经过参数 sort_buffer_size 来控制是否须要借助文件进行排序,这里会把 sortbuffer 里的数据放入多个文件里,用归并排序的思路最终输出一个大的文件。

以上方案主要是 name 字段没有加上索引,若是 name 字段上有索引,因为索引在构建的时候已是有序的了,因此就不须要进行额外的排序流程只须要在查询的时候查出指定的条数就能够了,这将大大提高查询速度。咱们如今加一个 city 和 name 的联合索引。

alter table person add index city_user(city, name);
复制代码

这样查询过程以下:

  1. 根据 city,name 联合索引定位到 city 等于武汉的第一条记录,获取主键索引ID
  2. 根据 ID 去主键索引上找到对应记录,取出 city,name,age 字段做为结果集返回
  3. 继续重复以上步骤直到 city 不等于武汉,或者条数大于 1000

因为联合因此在构建索引的时候,在 city 等于武汉的索引节点中的数据已是根据 name 进行排序了的,因此这里只须要直接查询就可,另外这里若是加上 city, name, age 的联合索引,则能够用到索引覆盖,不行到主键索引上进行回表。

总结一下,咱们在有排序操做的时候,最好可以让排序字段上建有索引,另外因为查询第一百万条开始的一百条记录,须要过滤掉前面一百万条记录,即便用到索引也很慢,因此能够根据 ID 来进行区分,分页遍历的时候每次缓存上一次查询结果最后一条记录的 id , 下一次查询加上 id > xxxx limit 0,1000 这样能够避免前期扫描到的结果被过滤掉的状况。

InnoDB 存储模型

InnoDB 经过一些列后台线程将相关操做进行异步处理,以下图所示,同时借助缓冲池来减少 CPU 和磁盘速度上的差别。当查询的时候会先经过索引定位到对应的数据页,而后检测数据页是否在缓冲池内,若是在就直接返回,若是不在就去聚簇索引中经过磁盘 IO 读取对应的数据页并放入缓冲池。一个数据页会包含多个数据行。缓存池经过 LRU 算法对数据页进行管理,也就是最频繁使用的数据页排在列表前面,不常用的排在队尾,当缓冲池满了的时候会淘汰掉队尾的数据页。从磁盘新读取到的数据页并不会放在队列头部而是放在中间位置,这个中间位置能够经过参数进行修。缓冲池也能够设置多个实例,数据页根据哈希算法决定放在哪一个缓冲池。

InnoDB 在更新数据的时候会采用 WAL 技术,也就是 Write Ahead Logging ,这个日志就是 redolog 用来保证数据库宕机后能够经过该文件进行恢复。这个文件通常只会顺序写,只有在数据库启动的时候才会读取 redolog 文件看是否须要进行恢复。该文件记录了对某个数据页的物理操做,例如某个 sql 把某一行的某个列的值改成 10 ,对应的 redolog 文件格式可能为:把第5个数据页中偏移量为99的位置写入一个值 10 。redolog 不是无限大的,他的大小是能够配置的,而且是循环使用的,例如配置大小为 4G ,一共 4 个文件,每一个文件 1G 。 首先从第一个文件开始顺序写,写到第四个文件后在从第一个文件开始写,相似一个环,用一个后台线程把 redolog 里的数据同步到聚簇索引上的数据页上。写入 redolog 的时候不能将没有同步到数据页上的记录覆盖,若是碰到这种状况会停下来先进行数据页同步而后在继续写入 redolog 。另外执行更新操做的时候,会先更新缓冲池里的数据页,而后写入 redolog, 这个时候真正存储数据的地方尚未更新,也就是说这时候缓冲池中的数据页和磁盘不一致,这种数据页称为脏页,当脏页因为内存不足或者其余缘由须要丢弃的时候,必定要先将该脏页对应的redolog 刷新到磁盘里的真实数据页,否则下次查询的时候因为 redolog 没有同步到磁盘,而查询直接经过索引定位到数据页就会查询出脏数据。

更新的时候先从磁盘或者缓冲池中读取对应的数据页,而后对数据页里的数据进行更改并生成 redolog 到对应的缓冲池(redolog buffer)进行缓存,当事务提交的时候将缓存写入到 redolog 的物理磁盘文件上。这里因为操做系统的文件写入 InnoDB 并无使用 O_DIRECT 直接写入到文件,为了保证性能而是先写入操做系统的缓存,以后在进行 flush ,因此事务提交的时候 InnoDB 须要在调用一次 fsync 的系统调用来确保数据落盘。为了提升性能 InnoDB 能够经过参数 innodb_flush_log_at_trx_commit 来控制事务提交时是否强制刷盘。

innodb_flush_log_at_trx_commit 参数值默认为 1 ,事务每次提交都须要调用 fsync 进行刷盘。

  • 0 表示事务提交的时候不会调用 redolog的文件写入,经过后台线程每秒同步一次。

  • 1 表示事务每次提交都须要调用 fsync 进行刷盘,以防止数据库宕机致使数据丢失。

  • 2 表示事务提交的时候会写入文件可是只保证写入操做系统缓存,不进行 fsync 操做。 redolog 文件只会顺序写,因此磁盘操做性能不会太慢,

在执行更新逻辑的时候还会写入另一个日志:undolog 。这个文件存储在共享表空间中,也就是即便打开了 innodb_file_per_table 参数,全部的表的 undolog 都存储在同一个文件里。该文件主要用来作事务回滚和 MVCC 。undolog 是逻辑日志,也就是他不是记录的将物理的数据页恢复到以前的状态,而是记录的和原 sql 相反的 sql , 例如 insert 对应 delete , delete 对应 insert ,update 对应另一个 update 。事务回滚很好理解,执行相反的操做回滚到以前的状态,而 MVCC 是指镜像读,当一个事务须要查询某条记录,而该记录已经被其余事务修改,但该事务还没提交,而当前事务能够经过 undolog 计算到以前的值。这里咱们只须要知道和 redolog 同样, undolog 也是须要在执行 update 语句的时候在事务提交前须要写入到文件的。另外 undolog 的写入也会有对应的 redolog ,由于 undolog 也须要持久化,经过 WAL 能够提升效率。这里能够总结下,在事务提交的时候要保证 redolog 写入到文件里,而这个 redolog 包含 主键索引上的数据页的修改,以及共享表空间的回滚段中 undolog 的插入。 另外 undolog 的清理经过一个后台线程定时处理,清理的时候须要判断该 undolog 是否全部的事务都不会用到。

熟悉 MySQL 的都知道,他经过 binlog 来进行高可用,也就是经过 binlog 来将数据同步到集群内其余的 MySQL 实例。binlog 和 redolog 的区别是,他是在存储引擎上层 Server 层写入的,他记录的是逻辑操做,也就是对应的 sql ,而 redolog 记录的底层某个数据页的物理操做,redolog 是循环写的,而binlog 是追加写的,不会覆盖之前写的数据。而binlog 也须要在事务提交前写入文件。binlog 的写入页须要经过 fsync 来保证落盘,为了提升 tps ,MySQL 能够经过参数  sync_binlog 来控制是否须要同步刷盘,该策略会影响当主库宕机后备库数据可能并无彻底同步到主库数据。因为事务的原子性,须要保证事务提交的时候 redolog 和 binlog 都写入成功,因此 MySQL 执行层采用了两阶段提交来保证 redolog 和 binlog 都写入成功后才 commit,若是一方失败则会进行回滚。

下面咱们理一下一条 update 语句的执行过程:

update person set age = 30 where id = 1;
复制代码
  1. 分配事务 ID ,开启事务,获取锁,没有获取到锁则等待。
  2. 执行器先经过存储引擎找到 id = 1 的数据页,若是缓冲池有则直接取出,没有则去主键索引上取出对应的数据页放入缓冲池。
  3. 在数据页内找到 id = 1 这行记录,取出,将 age 改成 30 而后写入内存
  4. 生成 redolog undolog 到内存,redolog 状态为 prepare
  5. 将 redolog undolog 写入文件并调用 fsync
  6. server 层生成 binlog 并写入文件调用 fsync
  7. 事务提交,将 redolog 的状态改成 commited 释放锁

数据库使用锁是为了对共享资源进行并发访问控制,从而保证数据的完整性和一致性。InnoDB 中锁的最小粒度为行,和 jdk 中的 ReadWriteLock 同样,InnoDB提供了共享锁和排他锁,分别用来读和写。共享锁之间能够兼容,其余都互斥。根据加锁的范围,能够分为:全局锁、表级锁、行锁。全局锁会把整个数据库实例加锁,命令为 flush tables withs read lock , 将使数据库处于只读状态,其余数据写入和修改表结构等语句会阻塞,通常在备库上作全局备份使用。而表级锁有两种,一种是表锁,命令为 lock table with read/write ,和读写锁同样,另一种是元数据锁,也叫意向锁,不须要显示申明,当执行修改表结构,加索引的时候会自动加元数据写锁,对表进行增删改查的时候会加元数据读锁。这样当两条修改语句的事务之间元数据锁都是读锁不互斥,可是修改表结构的时候执行更新因为互斥就须要阻塞。还有一种行级锁称为间隙锁,他锁定的是两条记录之间的间隙,防止其余事务往这个间隙插入数据,间隙锁是隐式锁,是存储引擎本身加上的。

非锁定读

普通的 select 操做都是非锁定读,若是存在事务冲突,会利用 undolog 获取新事务操做以前的镜像返回,在读已提交的隔离级别下,会获取新事务修改前的最新的一份已经提交的数据,而在可重复读的隔离级别下,会读取该事务开始时的数据版本。当有多个事务并发操做同一行记录时,该记录会同时存在多个 undolog ,每一个 undolog 就是一个版本,这种模式称为多版本并发控制(MVCC) ,该模式可以极大的提升数据库的性能,想想,若是基于锁来控制的话,当对某个记录进行修改的时候,另外一个事务将须要等待,无论他是要读取仍是写入,MVCC 容许写入的时候还可以进行读操做,这对大部分都是查询操做的应用来讲极大的提升了 tps 。

锁定读

有时候咱们在查询的时候须要显示的给记录加锁来保证一致性,select for update 将对扫描到的记录加上排他锁,而 select in share lock 将对扫描的记录加上共享锁。这两个语句必须在一个事物内,也就是须要显示开启事物,begin transaction; 当事物提交的时候会释放锁。具体加锁的逻辑咱们后面在分析。另外全部的锁定读都是当前读,也就是读取当前记录的最新版本,不会利用 undolog 读取镜像。另外全部的 insert、update、delete 操做也是当前读,update、delete 会在更新以前进行一次当前读,而后加锁,而 insert 由于会触发惟一索引检测,也会包含一个当前读。

自增加锁

在主键设置为自增加的状况下,该表会维护一个计数器,每一个插入操做都会先获取这个计数器的当前值,而后加 1 做为新的主键,显然这个计数器是一个共享变量须要加排他锁,而这个锁不须要等到事物提交后才释放,他在 sql 语句插入完成后就会释放,新版本的 innoDB 采用互斥量来实现提升了插入速度。

锁的问题

  • 脏读
  • 不可重复读
  • 丢失更新
  • 死锁和热点

脏读是指事务A对某个数据页进行了更改,可是并无提交,这个数据就成为脏数据,这里稍微和上面提到的脏页作下区分,脏页是指内存中已经更改可是尚未刷新到磁盘的数据,脏页是正常的,而脏读是指一个事物读取了另一个事物没有提交的数据,若是另一个数据对这个数据又进行了更改,则出现数据一致性,脏读违背了数据库的隔离性。脏读目前只能出如今读未提交这个隔离级别下,目前 MySQL 默认的隔离级别为可重复读。

不可重复读是指一个事务前后两次读取同一条记录的结果不同,由于第二次读取的时候可能其余事务已经进行更改并提交,不可重复读只发生在隔离级别为读未提交和读已提交里。

丢失更新是指两个事务同时更新某一条记录,致使其中一个事务更新失效,理论上任何一个隔离级别都不会发生丢失更新,由于更新的时候会加上排他锁,可是应用中却常常发生,例如一个计数器应用,事务A查询计数器的值 v=5,在内存中加 1 写入到数据库,在写入以前另一个事务读取到计数器的值 v=5 ,而后加 1 写入数据库,这样原本应该为 7 , 如今倒是 6 ,这是由于 咱们是先读取在写入,而读取和写入对数据库而言是两个操做,并非一个原子操做,这里能够经过把查询的记录加上排他锁 select for update 来防止丢失更新现象。固然这里直接将 sql 改成 v = v + 1 也能够。

死锁是指两个或两个以上事务因争夺资源而互相等待的状况,InnoDB 提供了死锁检测和超时机制来防止死锁的影响,死锁检测是很是耗 CPU 的,当不少个事务同时竞争同一个资源的时候,例如抢购的时候扣商品份额,或者支付的时候全部的订单都会用到一个公共帐户,同一个资源竞争的事务越多,死锁检测越耗 CPU 。为了减小这种状况的影响,建议尽可能在业务层减小热点的产生,例如将热点帐户拆分红若个个一样功能的帐户,万一发生高并发,建议在应用层作限流或者排队,固然也能够在数据库层作排队,这个须要修改数据库源码。

加锁的流程

InnoDB的加锁过程比较复杂,大体能够记住一个原则是:将全部扫描到的记录都加锁,范围查询会加间隙锁,而后加锁过程按照两阶段锁 2PL 来实现,也就是先加锁,而后全部的锁在事物提交的时候释放。怎么加锁和数据库的隔离级别有关,然而咱们通常不多更改 MySQL 的隔离级别,因此下面咱们均按照可重复读的隔离级别进行分析,另一个因素是查询条件中是否包含索引,是主键索引仍是普通索引,是不是惟一索引等。咱们如下面这条 sql 语句来分析加锁过程。

select * from trade_order where order_no = '201912102322' for update; 
复制代码
  • order_no 是主键索引 ,这种状况将在主键索引上的 order_no = '201912102322' 这条记录上加排他锁。
  • order_no 是普通索引,而且是惟一索引 将会对 普通索引上对应的一套记录加排他锁,对主键索引上对应的记录加排他锁
  • order_no 是普通索引,而且不是惟一索引 将会对 普通索引上 order_no = '201912102322' 一条或者多条记录加锁,而且对这些记录对应的主键索引上的记录加锁。这里除了加上行锁外,还会加上间隙锁,防止其余事物插入 order_no = '201912102322' 的记录,然而若是是惟一索引就不须要间隙锁,行锁就能够。

  • order_no 上没有索引,innoDB 将会在主键索引上全表扫描,这里并无加表锁,而是将全部的记录都会加上行级排他锁,而实际上 innoDB 内部作了优化,当扫描到一行记录后发现不匹配就会把锁给释放,固然这个违背了 2PL 原则在事务提交的时候释放。这里除了对记录进行加锁,还会对每两个记录之间的间隙加锁,因此最终将会保存全部的间隙锁和 order_no = '201912102322' 的行锁。

order_no = '201912102322' 这条记录不存在的状况下,若是order_no 是主键索引,则会加一个间隙锁,而这个间隙是主键索引中 order_no 小于 201912102322 的第一条记录到大于 201912102322 的第一条记录。试想一下若是不加间隙锁,若是其余事物插入了一条 order_no = '201912102322' 的记录,因为 select for update 是当前读,即便上面那个事物没有提交,若是在该事物中从新查询一次就会发生幻读。

若是没有索引,则对扫描到的全部记录和间隙都加锁,若是不匹配行锁将会释放只剩下间隙锁。回忆一下上面讲的数据页的结果中又一个最大记录和最小记录,Infimum 和 Supremum Record,这两个记录在加间隙锁的时候就会用到。

事务

InnoDB 存储引擎的事务需彻底符合 ACID 特性。下面咱们一块儿看下 InnoDB 作了哪些事情。

  • 原子性 : 是指一个事务内的全部操做要么所有成功要么所有失败,数据库中将 redolog 和 binlog 的写入采用两阶段提交就是为了保证事务的原子性。另外因为 InnodDB 是按页进行存储的,每一个页大小为 16kb 而操做系统的通常以 4KB 为一页进行读取,因此可能出现一个 InnoDB 的数据页只写了一部分的状况。而 InnoDB 为了防止这种状况的发生采用双写机制,除了写入磁盘上的数据页还会在共享空间中写入。而 redolog 按块存储,每一个块 512 字节,正好和扇区大小同样因此,能够保证原子性,不须要进行双写。
  • 一致性 :保证磁盘和缓存的数据一致,binlog 数据和 主库中的数据一致。
  • 隔离性 : 默认为可重复读,采用 undolog 来实现。
  • 持久性 : 事务一旦提交,其结果就是永久的,redolog 须要在事务提交前进行刷盘,磁盘采用 RAID 等。

本账号将持续分享后端技术干货,包括虚拟机基础,多线程编程,高性能框架,异步、缓存和消息中间件,分布式和微服务,架构学习和进阶等学习资料和文章。

相关文章
相关标签/搜索