我在上一篇文章,为你讲解完order by语句的几种执行模式后,就想到了以前一个作英语学习App的朋友碰到过的一个性能问题。今天这篇文章,我就从这个性能问题提及,和你说说MySQL中的另一种排序需求,但愿可以加深你对MySQL排序逻辑的理解。mysql
这个英语学习App首页有一个随机显示单词的功能,也就是根据每一个用户的级别有一个单词表,而后这个用户每次访问首页的时候,都会随机滚动显示三个单词。他们发现随着单词表变大,选单词这个逻辑变得愈来愈慢,甚至影响到了首页的打开速度。算法
如今,若是让你来设计这个SQL语句,你会怎么写呢?sql
为了便于理解,我对这个例子进行了简化:去掉每一个级别的用户都有一个对应的单词表这个逻辑,直接就是从一个单词表中随机选出三个单词。这个表的建表语句和初始数据的命令以下:数据库
mysql> CREATE TABLE `words` ( `id` int(11) NOT NULL AUTO_INCREMENT, `word` varchar(64) DEFAULT NULL, PRIMARY KEY (`id`) ) ENGINE=InnoDB; delimiter ;; create procedure idata() begin declare i int; set i=0; while i
为了便于量化说明,我在这个表里面插入了10000行记录。接下来,咱们就一块儿看看要随机选择3个单词,有什么方法实现,存在什么问题以及如何改进。数组
首先,你会想到用order by rand()来实现这个逻辑。数据结构
mysql> select word from words order by rand() limit 3;
这个语句的意思很直白,随机排序取前3个。虽然这个SQL语句写法很简单,但执行流程却有点复杂的。函数
咱们先用explain命令来看看这个语句的执行状况。性能
Extra字段显示Using temporary,表示的是须要使用临时表;Using filesort,表示的是须要执行排序操做。学习
所以这个Extra的意思就是,须要临时表,而且须要在临时表上排序。优化
这里,你能够先回顾一下上一篇文章中全字段排序和rowid排序的内容。我把上一篇文章的两个流程图贴过来,方便你复习。
而后,我再问你一个问题,你以为对于临时内存表的排序来讲,它会选择哪种算法呢?回顾一下上一篇文章的一个结论:对于InnoDB表来讲,执行全字段排序会减小磁盘访问,所以会被优先选择。
我强调了“InnoDB表”,你确定想到了,对于内存表,回表过程只是简单地根据数据行的位置,直接访问内存获得数据,根本不会致使多访问磁盘。优化器没有了这一层顾虑,那么它会优先考虑的,就是用于排序的行越少越好了,因此,MySQL这时就会选择rowid排序。
理解了这个算法选择的逻辑,咱们再来看看语句的执行流程。同时,经过今天的这个例子,咱们来尝试分析一下语句的扫描行数。
这条语句的执行流程是这样的:
建立一个临时表。这个临时表使用的是memory引擎,表里有两个字段,第一个字段是double类型,为了后面描述方便,记为字段R,第二个字段是varchar(64)类型,记为字段W。而且,这个表没有建索引。
从words表中,按主键顺序取出全部的word值。对于每个word值,调用rand()函数生成一个大于0小于1的随机小数,并把这个随机小数和word分别存入临时表的R和W字段中,到此,扫描行数是10000。
如今临时表有10000行数据了,接下来你要在这个没有索引的内存临时表上,按照字段R排序。
初始化 sort_buffer。sort_buffer中有两个字段,一个是double类型,另外一个是整型。
从内存临时表中一行一行地取出R值和位置信息(我后面会和你解释这里为何是“位置信息”),分别存入sort_buffer中的两个字段里。这个过程要对内存临时表作全表扫描,此时扫描行数增长10000,变成了20000。
在sort_buffer中根据R的值进行排序。注意,这个过程没有涉及到表操做,因此不会增长扫描行数。
排序完成后,取出前三个结果的位置信息,依次到内存临时表中取出word值,返回给客户端。这个过程当中,访问了表的三行数据,总扫描行数变成了20003。
接下来,咱们经过慢查询日志(slow log)来验证一下咱们分析获得的扫描行数是否正确。
# Query_time: 0.900376 Lock_time: 0.000347 Rows_sent: 3 Rows_examined: 20003 SET timestamp=1541402277; select word from words order by rand() limit 3;
其中,Rows_examined:20003就表示这个语句执行过程当中扫描了20003行,也就验证了咱们分析得出的结论。
这里插一句题外话,在平时学习概念的过程当中,你能够常常这样作,先经过原理分析算出扫描行数,而后再经过查看慢查询日志,来验证本身的结论。我本身就是常常这么作,这个过程颇有趣,分析对了开心,分析错了可是弄清楚了也很开心。
如今,我来把完整的排序执行流程图画出来。
图中的pos就是位置信息,你可能会以为奇怪,这里的“位置信息”是个什么概念?在上一篇文章中,咱们对InnoDB表排序的时候,明明用的仍是ID字段。
这时候,咱们就要回到一个基本概念:MySQL的表是用什么方法来定位“一行数据”的。
在前面第4和第5篇介绍索引的文章中,有几位同窗问到,若是把一个InnoDB表的主键删掉,是否是就没有主键,就没办法回表了?
其实不是的。若是你建立的表没有主键,或者把一个表的主键删掉了,那么InnoDB会本身生成一个长度为6字节的rowid来做为主键。
这也就是排序模式里面,rowid名字的来历。实际上它表示的是:每一个引擎用来惟一标识数据行的信息。
到这里,我来稍微小结一下:order by rand()使用了内存临时表,内存临时表排序的时候使用了rowid排序方法。
那么,是否是全部的临时表都是内存表呢?
其实不是的。tmp_table_size这个配置限制了内存临时表的大小,默认值是16M。若是临时表大小超过了tmp_table_size,那么内存临时表就会转成磁盘临时表。
磁盘临时表使用的引擎默认是InnoDB,是由参数internal_tmp_disk_storage_engine控制的。
当使用磁盘临时表的时候,对应的就是一个没有显式索引的InnoDB表的排序过程。
为了复现这个过程,我把tmp_table_size设置成1024,把sort_buffer_size设置成 32768, 把 max_length_for_sort_data 设置成16。
set tmp_table_size=1024; set sort_buffer_size=32768; set max_length_for_sort_data=16; /* 打开 optimizer_trace,只对本线程有效 */ SET optimizer_trace='enabled=on'; /* 执行语句 */ select word from words order by rand() limit 3; /* 查看 OPTIMIZER_TRACE 输出 */ SELECT * FROM `information_schema`.`OPTIMIZER_TRACE`\G
而后,咱们来看一下此次OPTIMIZER_TRACE的结果。
由于将max_length_for_sort_data设置成16,小于word字段的长度定义,因此咱们看到sort_mode里面显示的是rowid排序,这个是符合预期的,参与排序的是随机值R字段和rowid字段组成的行。
这时候你可能心算了一下,发现不对。R字段存放的随机值就8个字节,rowid是6个字节(至于为何是6字节,就留给你课后思考吧),数据总行数是10000,这样算出来就有140000字节,超过了sort_buffer_size 定义的 32768字节了。可是,number_of_tmp_files的值竟然是0,难道不须要用临时文件吗?
这个SQL语句的排序确实没有用到临时文件,采用是MySQL 5.6版本引入的一个新的排序算法,即:优先队列排序算法。接下来,咱们就看看为何没有使用临时文件的算法,也就是归并排序算法,而是采用了优先队列排序算法。
其实,咱们如今的SQL语句,只须要取R值最小的3个rowid。可是,若是使用归并排序算法的话,虽然最终也能获得前3个值,可是这个算法结束后,已经将10000行数据都排好序了。
也就是说,后面的9997行也是有序的了。但,咱们的查询并不须要这些数据是有序的。因此,想一下就明白了,这浪费了很是多的计算量。
而优先队列算法,就能够精确地只获得三个最小值,执行流程以下:
(对数据结构印象模糊的同窗,能够先设想成这是一个由三个元素组成的数组)
取下一个行(R’,rowid’),跟当前堆里面最大的R比较,若是R’小于R,把这个(R,rowid)从堆中去掉,换成(R’,rowid’);
重复第2步,直到第10000个(R’,rowid’)完成比较。
这里我简单画了一个优先队列排序过程的示意图。
图6是模拟6个(R,rowid)行,经过优先队列排序找到最小的三个R值的行的过程。整个排序过程当中,为了最快地拿到当前堆的最大值,老是保持最大值在堆顶,所以这是一个最大堆。
图5的OPTIMIZER_TRACE结果中,filesort_priority_queue_optimization这个部分的chosen=true,就表示使用了优先队列排序算法,这个过程不须要临时文件,所以对应的number_of_tmp_files是0。
这个流程结束后,咱们构造的堆里面,就是这个10000行里面R值最小的三行。而后,依次把它们的rowid取出来,去临时表里面拿到word字段,这个过程就跟上一篇文章的rowid排序的过程同样了。
咱们再看一下上面一篇文章的SQL查询语句:
select city,name,age from t where city='杭州' order by name limit 1000 ;
你可能会问,这里也用到了limit,为何没用优先队列排序算法呢?缘由是,这条SQL语句是limit 1000,若是使用优先队列算法的话,须要维护的堆的大小就是1000行的(name,rowid),超过了我设置的sort_buffer_size大小,因此只能使用归并排序算法。
总之,不管是使用哪一种类型的临时表,order by rand()这种写法都会让计算过程很是复杂,须要大量的扫描行数,所以排序过程的资源消耗也会很大。
再回到咱们文章开头的问题,怎么正确地随机排序呢?
咱们先把问题简化一下,若是只随机选择1个word值,能够怎么作呢?思路上是这样的:
取得这个表的主键id的最大值M和最小值N;
用随机函数生成一个最大值到最小值之间的数 X = (M-N)*rand() + N;
取不小于X的第一个ID的行。
咱们把这个算法,暂时称做随机算法1。这里,我直接给你贴一下执行语句的序列:
mysql> select max(id),min(id) into @M,@N from t ; set @X= floor((@M-@N+1)*rand() + @N); select * from t where id >= @X limit 1;
这个方法效率很高,由于取max(id)和min(id)都是不须要扫描索引的,而第三步的select也能够用索引快速定位,能够认为就只扫描了3行。但实际上,这个算法自己并不严格知足题目的随机要求,由于ID中间可能有空洞,所以选择不一样行的几率不同,不是真正的随机。
好比你有4个id,分别是一、二、四、5,若是按照上面的方法,那么取到 id=4的这一行的几率是取得其余行几率的两倍。
若是这四行的id分别是一、二、40000、40001呢?这个算法基本就能当bug来看待了。
因此,为了获得严格随机的结果,你能够用下面这个流程:
取得整个表的行数,并记为C。
取得 Y = floor(C * rand())。 floor函数在这里的做用,就是取整数部分。
再用limit Y,1 取得一行。
咱们把这个算法,称为随机算法2。下面这段代码,就是上面流程的执行语句的序列。
mysql> select count(*) into @C from t; set @Y = floor(@C * rand()); set @sql = concat("select * from t limit ", @Y, ",1"); prepare stmt from @sql; execute stmt; DEALLOCATE prepare stmt;
因为limit 后面的参数不能直接跟变量,因此我在上面的代码中使用了prepare+execute的方法。你也能够把拼接SQL语句的方法写在应用程序中,会更简单些。
这个随机算法2,解决了算法1里面明显的几率不均匀问题。
MySQL处理limit Y,1 的作法就是按顺序一个一个地读出来,丢掉前Y个,而后把下一个记录做为返回结果,所以这一步须要扫描Y+1行。再加上,第一步扫描的C行,总共须要扫描C+Y+1行,执行代价比随机算法1的代价要高。
固然,随机算法2跟直接order by rand()比起来,执行代价仍是小不少的。
你可能问了,若是按照这个表有10000行来计算的话,C=10000,要是随机到比较大的Y值,那扫描行数也跟20000差很少了,接近order by rand()的扫描行数,为何说随机算法2的代价要小不少呢?我就把这个问题留给你去课后思考吧。
如今,咱们再看看,若是咱们按照随机算法2的思路,要随机取3个word值呢?你能够这么作:
取得整个表的行数,记为C;
根据相同的随机方法获得Y一、Y二、Y3;
再执行三个limit Y, 1语句获得三行数据。
咱们把这个算法,称做随机算法3。下面这段代码,就是上面流程的执行语句的序列。
mysql> select count(*) into @C from t; set @Y1 = floor(@C * rand()); set @Y2 = floor(@C * rand()); set @Y3 = floor(@C * rand()); select * from t limit @Y1,1; //在应用代码里面取Y一、Y二、Y3值,拼出SQL后执行 select * from t limit @Y2,1; select * from t limit @Y3,1;
今天这篇文章,我是借着随机排序的需求,跟你介绍了MySQL对临时表排序的执行过程。
若是你直接使用order by rand(),这个语句须要Using temporary 和 Using filesort,查询的执行代价每每是比较大的。因此,在设计的时候你要量避开这种写法。
今天的例子里面,咱们不是仅仅在数据库内部解决问题,还会让应用代码配合拼接SQL语句。在实际应用的过程当中,比较规范的用法就是:尽可能将业务逻辑写在业务代码中,让数据库只作“读写数据”的事情。所以,这类方法的应用仍是比较普遍的。
最后,我给你留下一个思考题吧。
上面的随机算法3的总扫描行数是 C+(Y1+1)+(Y2+1)+(Y3+1),实际上它仍是能够继续优化,来进一步减小扫描行数的。
个人问题是,若是你是这个需求的开发人员,你会怎么作,来减小扫描行数呢?说说你的方案,并说明你的方案须要的扫描行数。
你能够把你的设计和结论写在留言区里,我会在下一篇文章的末尾和你讨论这个问题。感谢你的收听,也欢迎你把这篇文章分享给更多的朋友一块儿阅读。
我在上一篇文章最后留给你的问题是,select * from t where city in (“杭州”," 苏州 ") order by name limit 100;这个SQL语句是否须要排序?有什么方案能够避免排序?
虽然有(city,name)联合索引,对于单个city内部,name是递增的。可是因为这条SQL语句不是要单独地查一个city的值,而是同时查了"杭州"和" 苏州 "两个城市,所以全部知足条件的name就不是递增的了。也就是说,这条SQL语句须要排序。
那怎么避免排序呢?
这里,咱们要用到(city,name)联合索引的特性,把这一条语句拆成两条语句,执行流程以下:
执行select * from t where city=“杭州” order by name limit 100; 这个语句是不须要排序的,客户端用一个长度为100的内存数组A保存结果。
执行select * from t where city=“苏州” order by name limit 100; 用相同的方法,假设结果被存进了内存数组B。
如今A和B是两个有序数组,而后你能够用归并排序的思想,获得name最小的前100值,就是咱们须要的结果了。
若是把这条SQL语句里“limit 100”改为“limit 10000,100”的话,处理方式其实也差很少,即:要把上面的两条语句改为写:
select * from t where city="杭州" order by name limit 10100;
和
select * from t where city="苏州" order by name limit 10100。
这时候数据量较大,能够同时起两个链接一行行读结果,用归并排序算法拿到这两个结果集里,按顺序取第10001~10100的name值,就是须要的结果了。
固然这个方案有一个明显的损失,就是从数据库返回给客户端的数据量变大了。
因此,若是数据的单行比较大的话,能够考虑把这两条SQL语句改为下面这种写法:
select id,name from t where city="杭州" order by name limit 10100;
和
select id,name from t where city="苏州" order by name limit 10100。
而后,再用归并排序的方法取得按name顺序第10001~10100的name、id的值,而后拿着这100个id到数据库中去查出全部记录。
上面这些方法,须要你根据性能需求和开发的复杂度作出权衡。