今天的正文开始前,我要特地感谢一下评论区几位留下高质量留言的同窗。用户名是 @某、人 的同窗,对文章的知识点作了梳理,而后提了关于事务可见性的问
题,就是先启动可是后提交的事务,对数据可见性的影响。@夏日雨同窗也提到了这个问题,我在置顶评论中回复了,今天的文章末尾也会再展开说明。@Justin 和 @倪大人两位
同窗提了两个好问题。mysql
对于可以引起更深一步思考的问题,我会在回复的内容中写上“好问题”三个字,方便你搜索,你也能够去看看他们的留言。sql
很是感谢你们很细致地看文章,而且留下了那么多和很高质量的留言。知道文章有给你们带来一些新理解,对我来讲是一个很好的鼓励。同时,也让其余认真看评论区的同窗,有
机会发现一些本身尚未意识到的、但可能还不清晰的知识点,这也在整体上提升了整个专栏的质量。再次谢谢大家。数据库
好了,如今就回到咱们今天的正文内容。数组
在前面的基础篇文章中,我给你介绍过索引的基本概念,相信你已经了解了惟一索引和普通索引的区别。今天咱们就继续来谈谈,在不一样的业务场景下,应该选择普通索引,仍是惟一索引?缓存
假设你在维护一个市民系统,每一个人都有一个惟一的身份证号,并且业务代码已经保证了不会写入两个重复的身份证号。若是市民系统须要按照身份证号查姓名,就会执行相似这
样的 SQL 语句:bash
select name from CUser where id_card = 'xxxxxxxyyyyyyzzzzz';
因此,你必定会考虑在 id_card 字段上建索引。session
因为身份证号字段比较大,我不建议你把身份证号当作主键,那么如今你有两个选择,要么给 id_card 字段建立惟一索引,要么建立一个普通索引。若是业务代码已经保证了不会
写入重复的身份证号,那么这两个选择逻辑上都是正确的。性能
如今我要问你的是,从性能的角度考虑,你选择惟一索引仍是普通索引呢?选择的依据是什么呢?学习
简单起见,咱们仍是用第 4 篇文章《深刻浅出索引(上)》中的例子来讲明,假设字段 k上的值都不重复。优化
图 1 InnoDB 的索引组织结构
接下来,咱们就从这两种索引对查询语句和更新语句的性能影响来进行分析。
假设,执行查询的语句是 select id from T where k=5。这个查询语句在索引树上查找的过程,先是经过 B+ 树从树根开始,按层搜索到叶子节点,也就是图中右下角的这个数据
页,而后能够认为数据页内部经过二分法来定位记录。
你知道的,InnoDB 的数据是按数据页为单位来读写的。也就是说,当须要读一条记录的时候,并非将这个记录自己从磁盘读出来,而是以页为单位,将其总体读入内存。在
InnoDB 中,每一个数据页的大小默认是 16KB。
由于引擎是按页读写的,因此说,当找到 k=5 的记录的时候,它所在的数据页就都在内存里了。那么,对于普通索引来讲,要多作的那一次“查找和判断下一条记录”的操做,就
只须要一次指针寻找和一次计算。
固然,若是 k=5 这个记录恰好是这个数据页的最后一个记录,那么要取下一个记录,必须读取下一个数据页,这个操做会稍微复杂一些。
可是,咱们以前计算过,对于整型字段,一个数据页能够放近千个 key,所以出现这种状况的几率会很低。因此,咱们计算平均性能差别时,仍能够认为这个操做成本对于如今的
CPU 来讲能够忽略不计。
为了说明普通索引和惟一索引对更新语句性能的影响这个问题,我须要先跟你介绍一下change buffer。
当须要更新一个数据页时,若是数据页在内存中就直接更新,而若是这个数据页尚未在内存中的话,在不影响数据一致性的前提下,InooDB 会将这些更新操做缓存在 change
buffer 中,这样就不须要从磁盘中读入这个数据页了。在下次查询须要访问这个数据页的时候,将数据页读入内存,而后执行 change buffer 中与这个页有关的操做。经过这种方
式就能保证这个数据逻辑的正确性。
须要说明的是,虽然名字叫做 change buffer,实际上它是能够持久化的数据。也就是说,change buffer 在内存中有拷贝,也会被写入到磁盘上。
将 change buffer 中的操做应用到原数据页,获得最新结果的过程称为 merge。除了访问这个数据页会触发 merge 外,系统有后台线程会按期 merge。在数据库正常关闭
(shutdown)的过程当中,也会执行 merge 操做。
显然,若是可以将更新操做先记录在 change buffer,
一、减小读磁盘,语句的执行速度会获得明显的提高。
二、并且,数据读入内存是须要占用 buffer pool 的,因此这种方式还可以避免占用内存,提升内存利用率。
对于惟一索引来讲,全部的更新操做都要先判断这个操做是否违反惟一性约束。好比,要插入 (4,400) 这个记录,就要先判断如今表中是否已经存在 k=4 的记录,而这必需要将数
据页读入内存才能判断。若是都已经读入到内存了,那直接更新内存会更快,就不必使用 change buffer 了。
所以,惟一索引的更新就不能使用 change buffer,实际上也只有普通索引可使用。change buffer 用的是 buffer pool 里的内存,所以不能无限增大。change buffer 的大
小,能够经过参数 innodb_change_buffer_max_size 来动态设置。这个参数设置为 50的时候,表示 change buffer 的大小最多只能占用 buffer pool 的 50%。
如今,你已经理解了 change buffer 的机制,那么咱们再一块儿来看看若是要在这张表中插入一个新记录 (4,400) 的话,InnoDB 的处理流程是怎样的。
这样看来,普通索引和惟一索引对更新语句性能影响的差异,只是一个判断,只会耗费微小的 CPU 时间。
但,这不是咱们关注的重点。
将数据从磁盘读入内存涉及随机 IO 的访问,是数据库里面成本最高的操做之一。changebuffer 由于减小了随机磁盘访问,因此对更新性能的提高是会很明显的。
以前我就碰到过一件事儿,有个 DBA 的同窗跟我反馈说,他负责的某个业务的库内存命中率忽然从 99% 下降到了 75%,整个系统处于阻塞状态,更新语句所有堵住。而探究其
缘由后,我发现这个业务有大量插入数据的操做,而他在前一天把其中的某个普通索引改为了惟一索引。
经过上面的分析,你已经清楚了使用 change buffer 对更新过程的加速做用,也清楚了change buffer 只限于用在普通索引的场景下,而不适用于惟一索引。那么,如今有一个
问题就是:普通索引的全部场景,使用 change buffer 均可以起到加速做用吗?
由于 merge 的时候是真正进行数据更新的时刻,而 change buffer 的主要目的就是将记录的变动动做缓存下来,因此在一个数据页作 merge 以前,change buffer 记录的变动
越多(也就是这个页面上要更新的次数越多),收益就越大。
所以,对于写多读少的业务来讲,页面在写完之后立刻被访问到的几率比较小,此时change buffer 的使用效果最好。这种业务模型常见的就是帐单类、日志类的系统。
反过来,假设一个业务的更新模式是写入以后立刻会作查询,那么即便知足了条件,将更新先记录在 change buffer,
但以后因为立刻要访问这个数据页,会当即触发 merge 过程。
这样随机访问 IO 的次数不会减小,反而增长了 change buffer 的维护代价。
因此,对于这种业务模式来讲,change buffer 反而起到了反作用。
回到咱们文章开头的问题,普通索引和惟一索引应该怎么选择。其实,这两类索引在查询能力上是没差异的,主要考虑的是对更新性能的影响。因此,我建议你尽可能选择普通索引。
若是全部的更新后面,都立刻伴随着对这个记录的查询,那么你应该关闭 changebuffer。而在其余状况下,change buffer 都能提高更新性能。
在实际使用中,你会发现,普通索引和 change buffer 的配合使用,对于数据量大的表的更新优化仍是很明显的。
特别地,在使用机械硬盘时,change buffer 这个机制的收效是很是显著的。因此,当你有一个相似“历史数据”的库,而且出于成本考虑用的是机械硬盘时,那你应该特别关注
这些表里的索引,尽可能使用普通索引,而后把 change buffer 尽可能开大,以确保这个“历史数据”表的数据写入速度
理解了 change buffer 的原理,你可能会联想到我在前面文章中和你介绍过的 redo log和 WAL。
在前面文章的评论中,我发现有同窗混淆了 redo log 和 change buffer。WAL 提高性能的核心机制,也的确是尽可能减小随机读写,这两个概念确实容易混淆。因此,这里我把它
们放到了同一个流程里来讲明,便于你区分这两个概念。
备注:这里,你能够再回顾下第 2 篇文章《日志系统:一条 SQL 更新语句是如何执行的?》中的相关内容。
如今,咱们要在表上执行这个插入语句:
mysql> insert into t(id,k) values(id1,k1),(id2,k2);
这里,咱们假设当前 k 索引树的状态,查找到位置后,k1 所在的数据页在内存 (InnoDBbuffer pool) 中,k2 所在的数据页不在内存中。如图 2 所示是带 change buffer 的更新状态图。
图 2 带 change buffer 的更新过程
分析这条更新语句,你会发现它涉及了四个部分:内存、redo log(ib_log_fileX)、 数据表空间(t.ibd)、系统表空间(ibdata1)。
这条更新语句作了以下的操做(按照图中的数字顺序):
1. Page 1 在内存中,直接更新内存;
2. Page 2 没有在内存中,就在内存的 change buffer 区域,记录下“我要往 Page 2 插入一行”这个信息
3. 将上述两个动做记入 redo log 中(图中 3 和 4)。
作完上面这些,事务就能够完成了。因此,你会看到,执行这条更新语句的成本很低,就是写了两处内存,而后写了一处磁盘(两次操做合在一块儿写了一次磁盘),并且仍是顺序写的。
同时,图中的两个虚线箭头,是后台操做,不影响更新的响应时间。
好比,咱们如今要执行 select * from t where k in (k1, k2)。这里,我画了这两个读请求的流程图。
若是读语句发生在更新语句后不久,内存中的数据都还在,那么此时的这两个读操做就与系统表空间(ibdata1)和 redo log(ib_log_fileX)无关了。因此,我在图中就没画出这两部分。
图 3 带 change buffer 的读过程
从图中能够看到:
1. 读 Page 1 的时候,直接从内存返回。有几位同窗在前面文章的评论中问到,WAL 以后若是读数据,是否是必定要读盘,是否是必定要从 redo log 里面把数据更新
之后才能够返回?实际上是不用的。你能够看一下图 3 的这个状态,虽然磁盘上仍是以前的数据,可是这里直接从内存返回结果,结果是正确的。
2. 要读 Page 2 的时候,须要把 Page 2 从磁盘读入内存中,而后应用 change buffer 里面的操做日志,生成一个正确的版本并返回结果。能够看到,直到须要读 Page 2 的时候,这个数据页才会被读入内存。
因此,若是要简单地对比这两个机制在提高更新性能上的收益的话:
redo log 主要节省的是随机写磁盘的 IO 消耗(转成顺序写),
而 change buffer 主要节省的则是随机读磁盘的 IO 消耗。
今天,我从普通索引和惟一索引的选择开始,和你分享了数据的查询和更新过程,而后说明了 change buffer 的机制以及应用场景,最后讲到了索引选择的实践。
因为惟一索引用不上 change buffer 的优化机制,所以若是业务能够接受,从性能角度出发我建议你优先考虑非惟一索引。
最后,又到了思考题时间。
经过图 2 你能够看到,change buffer 一开始是写内存的,那么若是这个时候机器掉电重启,会不会致使 change buffer 丢失呢?change buffer 丢失可不是小事儿,再从磁盘读
入数据可就没有了 merge 过程,就等因而数据丢失了。会不会出现这种状况呢?
你能够把你的思考和观点写在留言区里,我会在下一篇文章的末尾和你讨论这个问题。感谢你的收听,也欢迎你把这篇文章分享给更多的朋友一块儿阅读。
评论区你们对“是否使用惟一索引”有比较多的讨论,主要是纠结在“业务可能没法确保”的状况。这里,我再说明一下:
首先,业务正确性优先。我们这篇文章的前提是“业务代码已经保证不会写入重复数据”的状况下,讨论性能问题。若是业务不能保证,或者业务就是要求数据库来作约
束,那么没得选,必须建立惟一索引。这种状况下,本篇文章的意义在于,若是碰上了大量插入数据慢、内存命中率低的时候,能够给你多提供一个排查思路。
而后,在一些“归档库”的场景,你是能够考虑使用普通索引的。好比,线上数据只须要保留半年,而后历史数据保存在归档库。这时候,归档数据已是确保没有惟一键冲
突了。要提升归档效率,能够考虑把表里面的惟一索引改为普通索引。
上期的问题是:如何构造一个“数据没法修改”的场景。评论区里已经有很多同窗给出了正确答案,这里我再描述一下。
这样,session A 看到的就是我截图的效果了。
其实,还有另一种场景,同窗们在留言区都尚未提到。
这个操做序列跑出来,session A 看的内容也是可以复现我截图的效果的。这个 sessionB’启动的事务比 A 要早,实际上是上期咱们描述事务版本的可见性规则时留的彩蛋,由于
规则里还有一个“活跃事务的判断”,我是准备留到这里再补充的。
当我试图在这里讲述完整规则的时候,发现第 8 篇文章《事务究竟是隔离的仍是不隔离的?》中的解释引入了太多的概念,以至于分析起来很是复杂。
所以,我重写了第 8 篇,这样咱们人工去判断可见性的时候,才会更方便。【看到这里,我建议你可以再从新打开第 8 篇文章并认真学习一次。若是学习的过程当中,有任何问题,
也欢迎你给我留言】
用新的方式来分析 session B’的更新为何对 session A 不可见就是:在 session A 视
图数组建立的瞬间,session B’是活跃的,属于“版本未提交,不可见”这种状况。
业务中若是要绕过这类问题,@约书亚提供了一个“乐观锁”的解法,你们能够去上一篇的留言区看一下。
a、普通索引,查到知足条件的第一个记录后,继续查找下一个记录,知道第一个不知足条件的记录
b、惟一索引,因为索引惟一性,查到第一个知足条件的记录后,中止检索
可是,二者的性能差距微乎其微。由于InnoDB根据数据页来读写的。
概念:change buffer
当须要更新一个数据页,若是数据页在内存中就直接更新,若是不在内存中,在不影响数据一致性的前提下,InnoDB会将这些更新操做缓存在change buffer中。下次查询须要访问这个数据页的时候,将数据页读入内存,而后执行change buffer中的与这个页有关的操做。
change buffer是能够持久化的数据。在内存中有拷贝,也会被写入到磁盘上
purge:将change buffer中的操做应用到原数据页上,获得最新结果的过程,成为purge访问这个数据页会触发purge,系统有后台线程按期purge,在数据库正常关闭的过程当中,也会执行purge
change buffer用的是buffer pool里的内存,change buffer的大小,能够经过参数innodb_change_buffer_max_size来动态设置。这个参数设置为50的时候,表示change buffer的大小最多只能占用buffer pool的50%。
将数据从磁盘读入内存涉及随机IO的访问,是数据库里面成本最高的操做之一。
change buffer 由于减小了随机磁盘访问,因此对更新性能的提高很明显。
在一个数据页作purge以前,change buffer记录的变动越多,收益就越大。
对于写多读少的业务来讲,页面在写完之后立刻被访问到的几率比较小,此时change buffer的使用效果最好。这种业务模型常见的就是帐单类、日志类的系统。
反过来,假设一个业务的更新模式是写入以后立刻会作查询,那么即便知足了条件,将更新先记录在change buffer,但以后因为立刻要访问这个数据页,会当即触发purge过程。
这样随机访问IO的次数不会减小,反而增长了change buffer的维护代价。因此,对于这种业务模式来讲,change buffer反而起到了反作用。
索引的选择和实践:尽量使用普通索引。redo log主要节省的是随机写磁盘的IO消耗(转成顺序写),而change buffer主要节省的则是随机读磁盘的IO消耗。