09 | 普通索引和惟一索引,应该怎么选择?

今天的正文开始前,我要特地感谢一下评论区几位留下高质量留言的同窗。mysql

用户名是 @某、人 的同窗,对文章的知识点作了梳理,而后提了关于事务可见性的问题,就是先启动可是后提交的事务,对数据可见性的影响。@夏日雨同窗也提到了这个问题,我在置顶评论中回复了,今天的文章末尾也会再展开说明。@Justin和@倪大人两位同窗提了两个好问题。sql

对于可以引起更深一步思考的问题,我会在回复的内容中写上“好问题”三个字,方便你搜索,你也能够去看看他们的留言。数据库

很是感谢你们很细致地看文章,而且留下了那么多和很高质量的留言。知道文章有给你们带来一些新理解,对我来讲是一个很好的鼓励。同时,也让其余认真看评论区的同窗,有机会发现一些本身尚未意识到的、但可能还不清晰的知识点,这也在整体上提升了整个专栏的质量。再次谢谢大家。数组

好了,如今就回到咱们今天的正文内容。缓存

在前面的基础篇文章中,我给你介绍过索引的基本概念,相信你已经了解了惟一索引和普通索引的区别。今天咱们就继续来谈谈,在不一样的业务场景下,应该选择普通索引,仍是惟一索引?session

假设你在维护一个市民系统,每一个人都有一个惟一的身份证号,并且业务代码已经保证了不会写入两个重复的身份证号。若是市民系统须要按照身份证号查姓名,就会执行相似这样的SQL语句:性能

select name from CUser where id_card = 'xxxxxxxyyyyyyzzzzz';

因此,你必定会考虑在id_card字段上建索引。学习

因为身份证号字段比较大,我不建议你把身份证号当作主键,那么如今你有两个选择,要么给id_card字段建立惟一索引,要么建立一个普通索引。若是业务代码已经保证了不会写入重复的身份证号,那么这两个选择逻辑上都是正确的。优化

如今我要问你的是,从性能的角度考虑,你选择惟一索引仍是普通索引呢?选择的依据是什么呢?spa

简单起见,咱们仍是用第4篇文章《深刻浅出索引(上)》中的例子来讲明,假设字段 k 上的值都不重复。

图1 InnoDB的索引组织结构

接下来,咱们就从这两种索引对查询语句和更新语句的性能影响来进行分析。

查询过程

假设,执行查询的语句是 select id from T where k=5。这个查询语句在索引树上查找的过程,先是经过B+树从树根开始,按层搜索到叶子节点,也就是图中右下角的这个数据页,而后能够认为数据页内部经过二分法来定位记录。

  • 对于普通索引来讲,查找到知足条件的第一个记录(5,500)后,须要查找下一个记录,直到碰到第一个不知足k=5条件的记录。
  • 对于惟一索引来讲,因为索引定义了惟一性,查找到第一个知足条件的记录后,就会中止继续检索。

那么,这个不一样带来的性能差距会有多少呢?答案是,微乎其微。

你知道的,InnoDB的数据是按数据页为单位来读写的。也就是说,当须要读一条记录的时候,并非将这个记录自己从磁盘读出来,而是以页为单位,将其总体读入内存。在InnoDB中,每一个数据页的大小默认是16KB。

由于引擎是按页读写的,因此说,当找到k=5的记录的时候,它所在的数据页就都在内存里了。那么,对于普通索引来讲,要多作的那一次“查找和判断下一条记录”的操做,就只须要一次指针寻找和一次计算。

固然,若是k=5这个记录恰好是这个数据页的最后一个记录,那么要取下一个记录,必须读取下一个数据页,这个操做会稍微复杂一些。

可是,咱们以前计算过,对于整型字段,一个数据页能够放近千个key,所以出现这种状况的几率会很低。因此,咱们计算平均性能差别时,仍能够认为这个操做成本对于如今的CPU来讲能够忽略不计。

更新过程

为了说明普通索引和惟一索引对更新语句性能的影响这个问题,我须要先跟你介绍一下change buffer。

当须要更新一个数据页时,若是数据页在内存中就直接更新,而若是这个数据页尚未在内存中的话,在不影响数据一致性的前提下,InooDB会将这些更新操做缓存在change buffer中,这样就不须要从磁盘中读入这个数据页了。在下次查询须要访问这个数据页的时候,将数据页读入内存,而后执行change buffer中与这个页有关的操做。经过这种方式就能保证这个数据逻辑的正确性。

须要说明的是,虽然名字叫做change buffer,实际上它是能够持久化的数据。也就是说,change buffer在内存中有拷贝,也会被写入到磁盘上。

将change buffer中的操做应用到原数据页,获得最新结果的过程称为merge。除了访问这个数据页会触发merge外,系统有后台线程会按期merge。在数据库正常关闭(shutdown)的过程当中,也会执行merge操做。

显然,若是可以将更新操做先记录在change buffer,减小读磁盘,语句的执行速度会获得明显的提高。并且,数据读入内存是须要占用buffer pool的,因此这种方式还可以避免占用内存,提升内存利用率。

那么,什么条件下可使用change buffer呢?

对于惟一索引来讲,全部的更新操做都要先判断这个操做是否违反惟一性约束。好比,要插入(4,400)这个记录,就要先判断如今表中是否已经存在k=4的记录,而这必需要将数据页读入内存才能判断。若是都已经读入到内存了,那直接更新内存会更快,就不必使用change buffer了。

所以,惟一索引的更新就不能使用change buffer,实际上也只有普通索引可使用。

change buffer用的是buffer pool里的内存,所以不能无限增大。change buffer的大小,能够经过参数innodb_change_buffer_max_size来动态设置。这个参数设置为50的时候,表示change buffer的大小最多只能占用buffer pool的50%。

如今,你已经理解了change buffer的机制,那么咱们再一块儿来看看若是要在这张表中插入一个新记录(4,400)的话,InnoDB的处理流程是怎样的。

第一种状况是,这个记录要更新的目标页在内存中。这时,InnoDB的处理流程以下:

  • 对于惟一索引来讲,找到3和5之间的位置,判断到没有冲突,插入这个值,语句执行结束;
  • 对于普通索引来讲,找到3和5之间的位置,插入这个值,语句执行结束。

这样看来,普通索引和惟一索引对更新语句性能影响的差异,只是一个判断,只会耗费微小的CPU时间。

但,这不是咱们关注的重点。

第二种状况是,这个记录要更新的目标页不在内存中。这时,InnoDB的处理流程以下:

  • 对于惟一索引来讲,须要将数据页读入内存,判断到没有冲突,插入这个值,语句执行结束;
  • 对于普通索引来讲,则是将更新记录在change buffer,语句执行就结束了。

将数据从磁盘读入内存涉及随机IO的访问,是数据库里面成本最高的操做之一。change buffer由于减小了随机磁盘访问,因此对更新性能的提高是会很明显的。

以前我就碰到过一件事儿,有个DBA的同窗跟我反馈说,他负责的某个业务的库内存命中率忽然从99%下降到了75%,整个系统处于阻塞状态,更新语句所有堵住。而探究其缘由后,我发现这个业务有大量插入数据的操做,而他在前一天把其中的某个普通索引改为了惟一索引。

change buffer的使用场景

经过上面的分析,你已经清楚了使用change buffer对更新过程的加速做用,也清楚了change buffer只限于用在普通索引的场景下,而不适用于惟一索引。那么,如今有一个问题就是:普通索引的全部场景,使用change buffer均可以起到加速做用吗?

由于merge的时候是真正进行数据更新的时刻,而change buffer的主要目的就是将记录的变动动做缓存下来,因此在一个数据页作merge以前,change buffer记录的变动越多(也就是这个页面上要更新的次数越多),收益就越大。

所以,对于写多读少的业务来讲,页面在写完之后立刻被访问到的几率比较小,此时change buffer的使用效果最好。这种业务模型常见的就是帐单类、日志类的系统。

反过来,假设一个业务的更新模式是写入以后立刻会作查询,那么即便知足了条件,将更新先记录在change buffer,但以后因为立刻要访问这个数据页,会当即触发merge过程。这样随机访问IO的次数不会减小,反而增长了change buffer的维护代价。因此,对于这种业务模式来讲,change buffer反而起到了反作用。

索引选择和实践

回到咱们文章开头的问题,普通索引和惟一索引应该怎么选择。其实,这两类索引在查询能力上是没差异的,主要考虑的是对更新性能的影响。因此,我建议你尽可能选择普通索引。

若是全部的更新后面,都立刻伴随着对这个记录的查询,那么你应该关闭change buffer。而在其余状况下,change buffer都能提高更新性能。

在实际使用中,你会发现,普通索引和change buffer的配合使用,对于数据量大的表的更新优化仍是很明显的。

特别地,在使用机械硬盘时,change buffer这个机制的收效是很是显著的。因此,当你有一个相似“历史数据”的库,而且出于成本考虑用的是机械硬盘时,那你应该特别关注这些表里的索引,尽可能使用普通索引,而后把change buffer 尽可能开大,以确保这个“历史数据”表的数据写入速度。

change buffer 和 redo log

理解了change buffer的原理,你可能会联想到我在前面文章中和你介绍过的redo log和WAL。

在前面文章的评论中,我发现有同窗混淆了redo log和change buffer。WAL 提高性能的核心机制,也的确是尽可能减小随机读写,这两个概念确实容易混淆。因此,这里我把它们放到了同一个流程里来讲明,便于你区分这两个概念。

备注:这里,你能够再回顾下第2篇文章《日志系统:一条SQL更新语句是如何执行的?》中的相关内容。

如今,咱们要在表上执行这个插入语句:

mysql> insert into t(id,k) values(id1,k1),(id2,k2);

这里,咱们假设当前k索引树的状态,查找到位置后,k1所在的数据页在内存(InnoDB buffer pool)中,k2所在的数据页不在内存中。如图2所示是带change buffer的更新状态图。

图2 带change buffer的更新过程

分析这条更新语句,你会发现它涉及了四个部分:内存、redo log(ib_log_fileX)、 数据表空间(t.ibd)、系统表空间(ibdata1)。

这条更新语句作了以下的操做(按照图中的数字顺序):

  1. Page 1在内存中,直接更新内存;

  2. Page 2没有在内存中,就在内存的change buffer区域,记录下“我要往Page 2插入一行”这个信息

  3. 将上述两个动做记入redo log中(图中3和4)。

作完上面这些,事务就能够完成了。因此,你会看到,执行这条更新语句的成本很低,就是写了两处内存,而后写了一处磁盘(两次操做合在一块儿写了一次磁盘),并且仍是顺序写的。

同时,图中的两个虚线箭头,是后台操做,不影响更新的响应时间。

那在这以后的读请求,要怎么处理呢?

好比,咱们如今要执行 select * from t where k in (k1, k2)。这里,我画了这两个读请求的流程图。

若是读语句发生在更新语句后不久,内存中的数据都还在,那么此时的这两个读操做就与系统表空间(ibdata1)和 redo log(ib_log_fileX)无关了。因此,我在图中就没画出这两部分。

图3 带change buffer的读过程

从图中能够看到:

  1. 读Page 1的时候,直接从内存返回。有几位同窗在前面文章的评论中问到,WAL以后若是读数据,是否是必定要读盘,是否是必定要从redo log里面把数据更新之后才能够返回?实际上是不用的。你能够看一下图3的这个状态,虽然磁盘上仍是以前的数据,可是这里直接从内存返回结果,结果是正确的。

  2. 要读Page 2的时候,须要把Page 2从磁盘读入内存中,而后应用change buffer里面的操做日志,生成一个正确的版本并返回结果。

能够看到,直到须要读Page 2的时候,这个数据页才会被读入内存。

因此,若是要简单地对比这两个机制在提高更新性能上的收益的话,redo log 主要节省的是随机写磁盘的IO消耗(转成顺序写),而change buffer主要节省的则是随机读磁盘的IO消耗。

小结

今天,我从普通索引和惟一索引的选择开始,和你分享了数据的查询和更新过程,而后说明了change buffer的机制以及应用场景,最后讲到了索引选择的实践。

因为惟一索引用不上change buffer的优化机制,所以若是业务能够接受,从性能角度出发我建议你优先考虑非惟一索引。

最后,又到了思考题时间。

经过图2你能够看到,change buffer一开始是写内存的,那么若是这个时候机器掉电重启,会不会致使change buffer丢失呢?change buffer丢失可不是小事儿,再从磁盘读入数据可就没有了merge过程,就等因而数据丢失了。会不会出现这种状况呢?

你能够把你的思考和观点写在留言区里,我会在下一篇文章的末尾和你讨论这个问题。感谢你的收听,也欢迎你把这篇文章分享给更多的朋友一块儿阅读。

补充:
评论区你们对“是否使用惟一索引”有比较多的讨论,主要是纠结在“业务可能没法确保”的状况。这里,我再说明一下:

  • 首先,业务正确性优先。我们这篇文章的前提是“业务代码已经保证不会写入重复数据”的状况下,讨论性能问题。若是业务不能保证,或者业务就是要求数据库来作约束,那么没得选,必须建立惟一索引。这种状况下,本篇文章的意义在于,若是碰上了大量插入数据慢、内存命中率低的时候,能够给你多提供一个排查思路。
  • 而后,在一些“归档库”的场景,你是能够考虑使用惟一索引的。好比,线上数据只须要保留半年,而后历史数据保存在归档库。这时候,归档数据已是确保没有惟一键冲突了。要提升归档效率,能够考虑把表里面的惟一索引改为普通索引。

上期问题时间

上期的问题是:如何构造一个“数据没法修改”的场景。评论区里已经有很多同窗给出了正确答案,这里我再描述一下。


这样,session A看到的就是我截图的效果了。

其实,还有另一种场景,同窗们在留言区都尚未提到。

这个操做序列跑出来,session A看的内容也是可以复现我截图的效果的。这个session B’启动的事务比A要早,实际上是上期咱们描述事务版本的可见性规则时留的彩蛋,由于规则里还有一个“活跃事务的判断”,我是准备留到这里再补充的。

当我试图在这里讲述完整规则的时候,发现第8篇文章《事务究竟是隔离的仍是不隔离的?》中的解释引入了太多的概念,以至于分析起来很是复杂。

所以,我重写了第8篇,这样咱们人工去判断可见性的时候,才会更方便。【看到这里,我建议你可以再从新打开第8篇文章并认真学习一次。若是学习的过程当中,有任何问题,也欢迎你给我留言】

用新的方式来分析session B’的更新为何对session A不可见就是:在session A视图数组建立的瞬间,session B’是活跃的,属于“版本未提交,不可见”这种状况。

业务中若是要绕过这类问题,@约书亚提供了一个“乐观锁”的解法,你们能够去上一篇的留言区看一下。

相关文章
相关标签/搜索