前面咱们介绍过索引,你已经知道了在 MySQL 中一张表实际上是能够支持多个索引的。可是,你写 SQL 语句的时候,并无主动指定使用哪一个索引。也就是说,使用哪一个索引是由MySQL 来肯定的。mysql
不知道你有没有碰到过这种状况,一条原本能够执行得很快的语句,却因为 MySQL 选错了索引,而致使执行速度变得很慢?程序员
咱们一块儿来看一个例子吧。算法
咱们先建一个简单的表,表里有 a、b 两个字段,并分别建上索引:sql
CREATE TABLE `t` ( `id` int(11) NOT NULL, `a` int(11) DEFAULT NULL, `b` int(11) DEFAULT NULL, PRIMARY KEY (`id`), KEY `a` (`a`), KEY `b` (`b`) ) ENGINE=InnoDB;
而后,咱们往表 t 中插入 10 万行记录,取值按整数递增,即:(1,1,1),(2,2,2),(3,3,3)直到 (100000,100000,100000)。数据库
我是用存储过程来插入数据的,这里我贴出来方便你复现:bash
delimiter ;; create procedure idata() begin declare i int; set i=1; while(i<=100000)do insert into t values(i, i, i); set i=i+1; end while; end;; delimiter ; call idata();
接下来,咱们分析一条 SQL 语句:session
mysql> select * from t where a between 10000 and 20000;
你必定会说,这个语句还用分析吗,很简单呀,a 上有索引,确定是要使用索引 a 的 测试
你说得没错,图 1 显示的就是使用 explain 命令看到的这条语句的执行状况。优化
图 1 使用 explain 命令查看语句执行状况spa
从图 1 看上去,这条查询语句的执行也确实符合预期,key 这个字段值是’a’,表示优化器选择了索引 a。
不过别急,这个案例不会这么简单。在咱们已经准备好的包含了 10 万行数据的表上,咱们再作以下操做。
图 2 session A 和 session B 的执行流程
这里,session A 的操做你已经很熟悉了,它就是开启了一个事务。随后,session B 把数据都删除后,又调用了 idata 这个存储过程,插入了 10 万行数据。
这时候,session B 的查询语句 select * from t where a between 10000 and 20000 就不会再选择索引 a 了。咱们能够经过慢查询日志(slow log)来查看一下具体的执行状况。
为了说明优化器选择的结果是否正确,我增长了一个对照,即:使用 force index(a) 来让优化器强制使用索引 a(这部份内容,我还会在这篇文章的后半部分中提到)。
下面的三条 SQL 语句,就是这个实验过程。
set long_query_time=0; select * from t where a between 10000 and 20000; /*Q1*/ select * from t force index(a) where a between 10000 and 20000;/*Q2*/
第一句,是将慢查询日志的阈值设置为 0,表示这个线程接下来的语句都会被记录入慢查询日志中;
第二句,Q1 是 session B 原来的查询;
第三句,Q2 是加了 force index(a) 来和 session B 原来的查询语句执行状况对比。
如图 3 所示是这三条 SQL 语句执行完成后的慢查询日志
图 3 slow log 结果
能够看到,Q1 扫描了 10 万行,显然是走了全表扫描,执行时间是 40 毫秒。Q2 扫描了10001 行,执行了 21 毫秒。也就是说,咱们在没有使用 force index 的时候,MySQL用错了索引,致使了更长的执行时间。
这个例子对应的是咱们日常不断地删除历史数据和新增数据的场景。这时,MySQL 居然会选错索引,是否是有点奇怪呢?今天,咱们就从这个奇怪的结果提及吧。
在第一篇文章中,咱们就提到过,选择索引是优化器的工做。
而优化器选择索引的目的,是找到一个最优的执行方案,并用最小的代价去执行语句。在数据库里面,扫描行数是影响执行代价的因素之一。扫描的行数越少,意味着访问磁盘数
据的次数越少,消耗的 CPU 资源越少。
固然,扫描行数并非惟一的判断标准,优化器还会结合是否使用临时表、是否排序等因素进行综合判断。
咱们这个简单的查询语句并无涉及到临时表和排序,因此 MySQL 选错索引确定是在判断扫描行数的时候出问题了。
MySQL 在真正开始执行语句以前,并不能精确地知道知足这个条件的记录有多少条,而只能根据统计信息来估算记录数。
这个统计信息就是索引的“区分度”。显然,一个索引上不一样的值越多,这个索引的区分度就越好。而一个索引上不一样的值的个数,咱们称之为“基数”(cardinality)。也就是
说,这个基数越大,索引的区分度越好。
咱们可使用 show index 方法,看到一个索引的基数。如图 4 所示,就是表 t 的 showindex 的结果 。虽然这个表的每一行的三个字段值都是同样的,可是在统计信息中,这三
个索引的基数值并不一样,并且其实都不许确。
图 4 表 t 的 show index 结果
这里,我给你简单介绍一下 MySQL 采样统计的方法。
为何要采样统计呢?由于把整张表取出来一行行统计,虽然能够获得精确的结果,可是代价过高了,因此只能选择“采样统计”。
采样统计的时候,InnoDB 默认会选择 N 个数据页,统计这些页面上的不一样值,获得一个平均值,而后乘以这个索引的页面数,就获得了这个索引的基数。
而数据表是会持续更新的,索引统计信息也不会固定不变。因此,当变动的数据行数超过1/M 的时候,会自动触发从新作一次索引统计。
在 MySQL 中,有两种存储索引统计的方式,能够经过设置参数 innodb_stats_persistent的值来选择:
因为是采样统计,因此无论 N 是 20 仍是 8,这个基数都是很容易不许的。但,这还不是所有。
你能够从图 4 中看到,此次的索引统计值(cardinality 列)虽然不够精确,但大致上仍是差很少的,选错索引必定还有别的缘由。
其实索引统计只是一个输入,对于一个具体的语句来讲,优化器还要判断,执行这个语句自己要扫描多少行。
接下来,咱们再一块儿看看优化器预估的,这两个语句的扫描行数是多少。
图 5 意外的 explain 结果
rows 这个字段表示的是预计扫描行数。
其中,Q1 的结果仍是符合预期的,rows 的值是 104620;可是 Q2 的 rows 值是37116,误差就大了。而图 1 中咱们用 explain 命令看到的 rows 是只有 10001 行,是这
个误差误导了优化器的判断。
到这里,可能你的第一个疑问不是为何不许,而是优化器为何放着扫描 37000 行的执行计划不用,却选择了扫描行数是 100000 的执行计划呢?
这是由于,若是使用索引 a,每次从索引 a 上拿到一个值,都要回到主键索引上查出整行数据,这个代价优化器也要算进去的。
而若是选择扫描 10 万行,是直接在主键索引上扫描的,没有额外的代价。
优化器会估算这两个选择的代价,从结果看来,优化器认为直接扫描主键索引更快。固然,从执行时间看来,这个选择并非最优的。
使用普通索引须要把回表的代价算进去,在图 1 执行 explain 的时候,也考虑了这个策略的代价 ,但图 1 的选择是对的。也就是说,这个策略并无问题。
因此冤有头债有主,MySQL 选错索引,这件事儿还得归咎到没能准确地判断出扫描行数。至于为何会获得错误的扫描行数,这个缘由就做为课后问题,留给你去分析了。
既然是统计信息不对,那就修正。
咱们来看一下执行效果。
图 6 执行 analyze table t 命令恢复的 explain 结果
这回对了。
因此在实践中,若是你发现 explain 的结果预估的 rows 值跟实际状况差距比较大,能够采用这个方法来处理。
其实,若是只是索引统计不许确,经过 analyze 命令能够解决不少问题,可是前面咱们说了,优化器可不止是看扫描行数。
依然是基于这个表 t,咱们看看另一个语句:
mysql> select * from t where (a between 1 and 1000) and (b between 50000 and 100000) order by b limit 1;
从条件上看,这个查询没有符合条件的记录,所以会返回空集合。
在开始执行这条语句以前,你能够先设想一下,若是你来选择索引,会选择哪个呢?
为了便于分析,咱们先来看一下 a、b 这两个索引的结构图。
图 7 a、b 索引的结构图
若是使用索引 a 进行查询,那么就是扫描索引 a 的前 1000 个值,而后取到对应的 id,再到主键索引上去查出每一行,而后根据字段 b 来过滤。显然这样须要扫描 1000 行。
若是使用索引 b 进行查询,那么就是扫描索引 b 的最后 50001 个值,与上面的执行过程相同,也是须要回到主键索引上取值再判断,因此须要扫描 50001 行。
因此你必定会想,若是使用索引 a 的话,执行速度明显会快不少。那么,下面咱们就来看看究竟是不是这么一回事儿。
图 8 是执行 explain 的结果。
mysql> explain select * from t where (a between 1 and 1000) and (b between 50000 and 100000) order by b limit 1;
图 8 使用 explain 方法查看执行计划
能够看到,返回结果中 key 字段显示,此次优化器选择了索引 b,而 rows 字段显示须要扫描的行数是 50198。从这个结果中,你能够获得两个结论:
其实大多数时候优化器都能找到正确的索引,但偶尔你仍是会碰到咱们上面举例的这两种状况:本来能够执行得很快的 SQL 语句,执行速度却比你预期的慢不少,你应该怎么办呢?
一种方法是,像咱们第一个例子同样,采用 force index 强行选择一个索引。MySQL 会根据词法解析的结果分析出可能可使用的索引做为候选项,而后在候选列表中依次判断
每一个索引须要扫描多少行。若是 force index 指定的索引在候选索引列表中,就直接选择这个索引,再也不评估其余索引的执行代价。
咱们来看看第二个例子。刚开始分析时,咱们认为选择索引 a 会更好。如今,咱们就来看看执行效果
图 9 使用不一样索引的语句执行耗时
能够看到,本来语句须要执行 2.23 秒,而当你使用 force index(a) 的时候,只用了 0.05秒,比优化器的选择快了 40 多倍。
也就是说,优化器没有选择正确的索引,force index 起到了“矫正”的做用。
不过不少程序员不喜欢使用 force index,一来这么写不优美,二来若是索引改了名字,这个语句也得改,显得很麻烦。并且若是之后迁移到别的数据库的话,这个语法还可能会不兼容
但其实使用 force index 最主要的问题仍是变动的及时性。由于选错索引的状况仍是比较少出现的,因此开发的时候一般不会先写上 force index。而是等到线上出现问题的时
候,你才会再去修改 SQL 语句、加上 force index。可是修改以后还要测试和发布,对于生产系统来讲,这个过程不够敏捷。
因此,数据库的问题最好仍是在数据库内部来解决。那么,在数据库里面该怎样解决呢?
既然优化器放弃了使用索引 a,说明 a 还不够合适,因此第二种方法就是,咱们能够考虑修改语句,引导 MySQL 使用咱们指望的索引。好比,在这个例子里,显然把“order by
b limit 1” 改为 “order by b,a limit 1” ,语义的逻辑是相同的。咱们来看看改以后的效果:
图 10 order by b,a limit 1 执行结果
以前优化器选择使用索引 b,是由于它认为使用索引 b 能够避免排序(b 自己是索引,已是有序的了,若是选择索引 b 的话,不须要再作排序,只须要遍历),因此即便扫描行
数多,也断定为代价更小。
如今 order by b,a 这种写法,要求按照 b,a 排序,就意味着使用这两个索引都须要排序。所以,扫描行数成了影响决策的主要条件,因而此时优化器选了只须要扫描 1000 行的索引 a。
固然,这种修改并非通用的优化手段,只是恰好在这个语句里面有 limit 1,所以若是有知足条件的记录, order by b limit 1 和 order by b,a limit 1 都会返回 b 是最小的那一
行,逻辑上一致,才能够这么作。
若是你以为修改语义这件事儿不太好,这里还有一种改法,图 11 是执行效果。
mysql> select * from (select * from t where (a between 1 and 1000) and (b between 50000 and 100000) order by b limit 100)alias limit 1;
图 11 改写 SQL 的 explain
在这个例子里,咱们用 limit 100 让优化器意识到,使用 b 索引代价是很高的。实际上是咱们根据数据特征诱导了一下优化器,也不具有通用性。
第三种方法是,在有些场景下,咱们能够新建一个更合适的索引,来提供给优化器作选择,或删掉误用的索引。
不过,在这个例子中,我没有找到经过新增索引来改变优化器行为的方法。这种状况其实比较少,尤为是通过 DBA 索引优化过的库,再碰到这个 bug,找到一个更合适的索引通常比较难。
若是我说还有一个方法是删掉索引 b,你可能会以为可笑。但实际上我碰到过两次这样的例子,最终是 DBA 跟业务开发沟通后,发现这个优化器错误选择的索引其实根本没有必
要存在,因而就删掉了这个索引,优化器也就从新选择到了正确的索引。
今天咱们一块儿聊了聊索引统计的更新机制,并提到了优化器存在选错索引的可能性。对于因为索引统计信息不许确致使的问题,你能够用 analyze table 来解决。
而对于其余优化器误判的状况,你能够在应用端用 force index 来强行指定索引,也能够经过修改语句来引导优化器,还能够经过增长或者删除索引来绕过这个问题。
你可能会说,今天这篇文章后面的几个例子,怎么都没有展开说明其原理。我要告诉你的是,今天的话题,咱们面对的是 MySQL 的 bug,每个展开都必须深刻到一行行代码去
量化,实在不是咱们在这里应该作的事情。
因此,我把我用过的解决方法跟你分享,但愿你在碰到相似状况的时候,可以有一些思路。
你平时在处理 MySQL 优化器 bug 的时候有什么别的方法,也发到评论区分享一下吧。最后,我给你留下一个思考题。前面咱们在构造第一个例子的过程当中,经过 session A 的
配合,让 session B 删除数据后又从新插入了一遍数据,而后就发现 explain 结果中,rows 字段从 10001 变成 37000 多。
而若是没有 session A 的配合,只是单独执行 delete from t 、call idata()、explain 这三句话,会看到 rows 字段其实仍是 10000 左右。你能够本身验证一下这个结果。
这是什么缘由呢?也请你分析一下吧。
你能够把你的分析结论写在留言区里,我会在下一篇文章的末尾和你讨论这个问题。感谢你的收听,也欢迎你把这篇文章分享给更多的朋友一块儿阅读。
我在上一篇文章最后留给你的问题是,若是某次写入使用了 change buffer 机制,以后主机异常重启,是否会丢失 change buffer 和数据。
这个问题的答案是不会丢失,留言区的不少同窗都回答对了。虽然是只更新内存,可是在事务提交的时候,咱们把 change buffer 的操做也记录到 redo log 里了,因此崩溃恢复
的时候,change buffer 也能找回来。
在评论区有同窗问到,merge 的过程是否会把数据直接写回磁盘,这是个好问题。这里,我再为你分析一下。
merge 的执行流程是这样的:
1. 从磁盘读入数据页到内存(老版本的数据页);
2. 从 change buffer 里找出这个数据页的 change buffer 记录 (可能有多个),依次应用,获得新版数据页;
3. 写 redo log。这个 redo log 包含了数据的变动和 change buffer 的变动。
到这里 merge 过程就结束了。这时候,数据页和内存中 change buffer 对应的磁盘位置都尚未修改,属于脏页,以后各自刷回本身的物理数据,就是另一个过程了。
今天这个问题不是特别明白为何。session A开启了一致性读,session B delete或者insert,以前记录都已经放进了undo了。二级索引的记录也写进了redo和change buffer,应该说删除了索引页也不影响session A的重复读。估计是开启了一致性读以后,在这个事务执行期间,不能释放空间,致使统计信息变大。仍是须要老师解释下具体的细节
1.个人理解是因为B是查找(50000,100000),因为B+树有序,经过二分查找找到b=50000的值,从50000往右扫描,一条一条回表查数据,在执行器上作where a(1,1000)的筛选,而后作判断是否够不够limit的数,够就结束循环。因为这里b(50000,100000)必然不存在a(1,1000),因此须要扫描5W行左右.可是若是把a改成(50001,51000),扫描行数没有变。那么是由于优化器给的扫描行数有问题仍是执行器没有结束循环?为何不结束循环?
(好像rows能直观展现limit起做用,必须在执行器上过滤数据,不能在索引上过滤数据,不知道为何这样设计)
2.假设b上数据是会有不少重复的数据,b的最大值也存在多行重复
select * from t where (a between 1 and 1000) and (b between 50000 and 100000) order by b desc limit 1;
这里倒序去扫描b索引树,选取的是b值最大,id值为一个固定值(既不最大也不最小)
select * from t force index(a) where (a between 1 and 1000) and (b between 50000 and 100000) order by b desc limit 1;
因为这里选取的是a索引,排序不能用到索引,只能用优化排序.选取的是b值最大,id值最小那一行
这就是典型的两条相同的sql,可是索引选择的不一样,出现的数据不一致。
因此若是是order by b,a就能够避免这种状况的引发的不一致,也能够避免堆排序形成的不一致
可是若是是asc没有出现这种状况。这里出现不一致,应该还不是因为堆排序形成的。这是什么缘由形成的?
1. 好问题,并且你作了个不错的对照实验。是的,加了limit 1 能减小扫描多少行,其实优化器也不肯定,【得执行才知道】,因此显示的时候仍是按照“最多可能扫多少行”来显示。
2. 你这个例子里,若是确实是按照b扫描了,应该确定是ID最大值呀,除非ID最大的那个记录,a条件不知足。可是必定是“知足a条件里面最大的那个ID的”,你再验证下。
而若是是用了a, 那就有临时表排序,临时表排序有三种算法,还份内存仍是磁盘临时表… 这里展开不了了,后面《order by是怎么工做的》这篇会讲