Mysql普通索引和惟一索引的选择分析

假设一个用户管理系统,每一个人注册都有一个惟一的手机号,并且业务代码已经保证了不会写入两个重复的手机号。若是用户管理系统须要按照手机号查姓名,就会执行相似这样的 SQL 语句:mysql

select name from users where mobile = '15202124529';sql

一般会考虑在 mobile 字段上建索引。因为手机号字段相对较大,一般基本不会把手机号当作主键,那么如今就有两个选择:数据库

1.  给 id_card 字段建立惟一索引
2.  建立一个普通索引

若是业务代码已经保证了不会写入重复的身份证号,那么这两个选择逻辑上都是正确的。数组

从性能的角度考虑,选择惟一索引仍是普通索引?

如图:假设字段 k 上的值都不重复
image缓存

接下来,就从这两种(ID,k)索引对查询语句和更新语句的性能影响来进行分析异步

查询过程

假设,执行查询的语句是 select id from T where k=5。这个查询语句在索引树上查找的过程,先是经过 B+ 树从树根开始,按层搜索到叶子节点,也就是图中右下角的这个数据页,而后能够认为数据页内部经过二分法来定位记录(数据页内部经过有序数组保存节点。数据页之间经过双向链表串接)。性能

  • 对于普通索引来讲,查找到知足条件的第一个记录 (5,500) 后,须要查找下一个记录,直到碰到第一个不知足 k=5 条件的记录。
  • 对于惟一索引来讲,因为索引定义了惟一性,查找到第一个知足条件的记录后,就会中止继续检索。

那么,这个不一样带来的性能差距会有多少呢?答案是,微乎其微优化

缘由:除非 Key 的列很是大,有连续多个 Key 占满了一个 page,才会引发一次 page 的 IO,这样才会产生比较明显的性能差别,从均摊上看,差别几乎能够不算。spa

InnoDB 的数据是按数据页为单位来读写的。也就是说,当须要读一条记录的时候,并非将这个记录自己从磁盘读出来,而是以页为单位,将其总体读入内存。在 InnoDB 中,每一个数据页的大小默认是 16KB。线程

更新过程

为了说明普通索引和惟一索引对更新语句性能的影响这个问题,须要先介绍一下 change buffer

  • 当须要更新一个数据页时,若是数据页在内存中就直接更新,
  • 而若是这个数据页尚未在内存中的话,在不影响数据一致性的前提下:
  1.  InnoDB 会将这些 更新操做 缓存在 change buffer 中,这样就不须要从磁盘中读入这个数据页了。
  2. 在下次查询须要访问这个数据页的时候,将数据页读入内存,
  3. 而后执行 change buffer 中与这个页有关的操做。

    经过这种方式就能保证这个数据逻辑的正确性

须要说明的是,虽然名字叫做 change buffer,实际上它是能够持久化的数据。也就是说,change buffer 在内存中有拷贝,也会被写入到磁盘上。

把change buffer中的操做,应用到旧的数据页,获得新的数据页的过程,应该称为merge。

Ps.  除了访问这个数据页会触发 merge 外,系统有后台线程会按期 merge。在数据库正常关闭(shutdown)的过程当中,也会执行 merge 操做。

(change buffer的merge操做,先把change buffer的操做更新到内存的数据页中,此操做写到redo log中,mysql未宕机,redo log写满后须要移动check point点时,经过判断内存中数据和磁盘是否一致便是否是脏页来刷新到磁盘中,当mysql宕机后没有内存即没有脏页,经过redo log来恢复。)

显然,若是可以将更新操做先记录在 change buffer,减小读磁盘,语句的执行速度会获得明显的提高。

并且,数据读入内存是须要占用 buffer pool 的,因此这种方式还可以避免占用内存,提升内存利用率。

什么条件下可使用 change buffer 呢?

对于惟一索引来讲,全部的更新操做都要先判断这个操做是否违反惟一性约束。

好比,要插入 (4,400) 这个记录,就要先判断如今表中是否已经存在 k=4 的记录,而这必需要将数据页读入内存才能判断。

若是都已经读入到内存了,那直接更新内存会更快,就不必使用 change buffer 了。

所以,惟一索引的更新就不能使用 change buffer,实际上也只有普通索引可使用。

change buffer 用的是 buffer pool 里的内存,所以不能无限增大。change buffer 的大小,能够经过参数 innodb_change_buffer_max_size 来动态设置。这个参数设置为 50 的时候,表示 change buffer 的大小最多只能占用 buffer pool 的 50%。

image

Ps. 数据库缓冲池(buffer pool) https://www.jianshu.com/p/f9ab1cb24230

分析:插入一个新记录 InnoDB 的处理流程

理解了 change buffer 的机制,那么若是要在这张表中插入一个新记录 (4,400) 的话,InnoDB 的处理流程是怎样的

一、第一种状况是:这个记录要更新的目标页在内存中。

  •  这时,InnoDB 的处理流程以下:对于惟一索引来讲,找到 3 和 5 之间的位置,判断到没有冲突,插入这个值,语句执行结束;
  • 对于普通索引来讲,找到 3 和 5 之间的位置,插入这个值,语句执行结束。

这样看来,普通索引和惟一索引对更新语句性能影响的差异,只是一个判断,只会耗费微小的 CPU 时间。但,这不是关注的重点

二、第二种状况是,这个记录要更新的目标页不在内存中。这时,InnoDB 的处理流程以下:

  • 对于惟一索引来讲,须要将数据页读入内存,判断到没有冲突,插入这个值,语句执行结束;
  • 对于普通索引来讲,则是将更新记录在 change buffer,语句执行就结束了。

将数据从磁盘读入内存涉及随机 IO 的访问,是数据库里面成本最高的操做之一。change buffer 由于减小了随机磁盘访问,因此对更新性能的提高是会很明显的。

change buffer主要是将更新操做缓存起来,异步处理. 这样每次更新过来,直接记下change buffer便可,速度很快,将屡次写磁盘变为一次写磁盘

change buffer 的使用场景

经过上面的分析,已经清楚了使用 change buffer 对更新过程的加速做用,也清楚了 change buffer 只限于用在普通索引的场景下,而不适用于惟一索引。

普通索引的全部场景,使用 change buffer 均可以起到加速做用吗?

由于 merge 的时候是真正进行数据更新的时刻,而 change buffer 的主要目的就是将记录的变动动做缓存下来,因此在一个数据页作 merge 以前,change buffer 记录的变动越多(也就是这个页面上要更新的次数越多),收益就越大。

所以,对于写多读少的业务来讲,页面在写完之后立刻被访问到的几率比较小,此时 change buffer 的使用效果最好。这种业务模型常见的就是帐单类、日志类的系统。(适合写多读少的场景,读多写少反倒会增长change buffer的维护代价)

反过来,假设一个业务的更新模式是写入以后立刻会作查询,那么即便知足了条件,将更新先记录在 change buffer,但以后因为立刻要访问这个数据页,会当即触发 merge 过程。这样随机访问 IO 的次数不会减小,反而增长了 change buffer 的维护代价。因此,对于这种业务模式来讲,change buffer 反而起到了反作用。(若是当即对普通索引的更新操做结果执行查询,就会触发merge操做,磁盘中的数据会和change buffer 的操做记录进行合并,产生大量io)

索引选择和实践

综上分析,普通索引和惟一索引应该怎么选择:

其实,这两类索引在查询能力上是没差异的,主要考虑的是对更新性能的影响。因此,建议尽可能选择普通索引

若是全部的更新后面,都立刻伴随着对这个记录的查询,那么应该关闭 change buffer。

而在其余状况下,change buffer 都能提高更新性能。在实际使用中,普通索引和 change buffer 的配合使用,对于数据量大的表的更新优化仍是很明显的。

Ps. 特别地,在使用机械硬盘时,change buffer 这个机制的收效是很是显著的。因此,当有一个相似“历史数据”的库,应该特别关注这些表里的索引,尽可能使用普通索引,而后把 change buffer 尽可能开大,以确保这个“历史数据”表的数据写入速度。

change buffer 和 redo log

理解了 change buffer 的原理,可能会联想到 redo log 和 WAL(Write-Ahead Logging,它的关键点就是先写日志,再写磁盘)。

WAL 提高性能的核心机制,也的确是尽可能减小随机读写

在表上执行这个插入语句:

mysql> insert into t(id,k) values(id1,k1),(id2,k2);

假设当前 k 索引树的状态,查找到位置后,k1 所在的数据页在内存 (InnoDB buffer pool) 中,k2 所在的数据页不在内存中。如图 是带 change buffer 的更新状态图。

image

图3  带 change buffer 的更新过程

分析这条更新语句,你会发现它涉及了四个部分:

内存、redo log(ib_log_fileX)、 数据表空间(t.ibd)、系统表空间(ibdata1)。

数据表空间:就是一个个的表数据文件,对应的磁盘文件就是“表名.ibd”; 系统表空间:用来放系统信息,如数据字典等,对应的磁盘文件是“ibdata1”

数据表空间 和 系统表空间 彷佛表明的就是B+树对应的那个复杂的结构

这条更新语句作了以下的操做(按照图中的数字顺序):

  1. Page 1 在内存中,直接更新内存;
  2. Page 2 没有在内存中,就在内存的 change buffer 区域,记录下“我要往 Page 2 插入一行”
  3. 这个信息将上述两个动做记入 redo log 中(图中 3 和 4)。

作完上面这些,事务就能够完成了。因此,你会看到,执行这条更新语句的成本很低,就是写了两处内存,而后写了一处磁盘(两次操做合在一块儿写了一次磁盘),并且仍是顺序写的。

change buffer和redo log颗粒度不同,由于change buffer只是针对若是更改的数据所在页不在内存中才暂时储存在change buffer中。而redo log会记录一个事务内进行数据更改的全部操做,即便修改的数据已经在内存中了,那也会记录下来

同时,图中的两个虚线箭头,是后台操做,不影响更新的响应时间。

那在这以后的读请求,要怎么处理呢?

好比,咱们如今要执行 select * from t where k in (k1, k2)。

若是读语句发生在更新语句后不久,内存中的数据都还在,那么此时的这两个读操做就与系统表空间(ibdata1)和 redo log(ib_log_fileX)无关了。

image

图 4 带 change buffer 的读过程

从图中能够看到:读 Page 1 的时候,直接从内存返回。

WAL 以后若是读数据,是否是必定要读盘,是否是必定要从 redo log 里面把数据更新之后才能够返回?

实际上是不用的。虽然磁盘上仍是以前的数据,可是这里直接从内存返回结果,结果是正确的。要读 Page 2 的时候,须要把 Page 2 从磁盘读入内存中,而后应用 change buffer 里面的操做日志,生成一个正确的版本并返回结果。能够看到,直到须要读 Page 2 的时候,这个数据页才会被读入内存。

若是要简单地对比这两个机制在提高更新性能上的收益的话,redo log 主要节省的是随机写磁盘的 IO 消耗(转成顺序写),而 change buffer 主要节省的则是随机读磁盘的 IO 消耗。

思考题:

一、经过图 3 能够看到,change buffer 一开始是写内存的,那么若是这个时候机器掉电重启,会不会致使 change buffer 丢失呢?change buffer 丢失可不是小事儿,再从磁盘读入数据可就没有了 merge 过程,就等因而数据丢失了。会不会出现这种状况呢?

答:

1.change buffer有一部分在内存有一部分在ibdata.

作purge操做,应该就会把change buffer里相应的数据持久化到ibdata

2.redo log里记录了数据页的修改以及change buffer新写入的信息

若是掉电,持久化的change buffer数据已经purge,不用恢复。主要分析没有持久化的数据

状况又分为如下几种:

(1)change buffer写入,redo log虽然作了fsync但未commit,binlog未fsync到磁盘,这部分数据丢失

(2)change buffer写入,redo log写入但没有commit,binlog以及fsync到磁盘,先从binlog恢复redo log,再从redo log恢复change buffer

(3)change buffer写入,redo log和binlog都已经fsync.那么直接从redo log里恢复。

相关文章
相关标签/搜索