这天风和日丽,小a正在工位上苦练钓鱼技术, java
忽然接到产品的☎️,又来需求? 只听到产品又开始口若黄河:我须要要查询到city是“上海”的全部人的name,而且还要按name排序返回前1000人的name、age。mysql
小a急忙正襟危坐,从一堆库表中翻出须要的表,抽出其建表语句: 算法
看看表结构,再看看产品的需求 sql
感受很容易,随手SQL这么一写: 诶,这语句看着简单而朴实,一个需求好像就完美解决了。但为了显示本身强大的性能优化水平,考虑到要避免全表扫描,因而又给 city 字段加索引。 建完索引,天然还须要使用explain验证一下:性能优化
explain select city, name, age from citizen where city = '上海' order by name limit 1000;
+----+-------------+---------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
| id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
+----+-------------+---------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
| 1 | SIMPLE | citizen | NULL | ALL | city | NULL | NULL | NULL | 32 | 100.00 | Using where; Using filesort |
+----+-------------+---------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
1 row in set, 1 warning (0.00 sec)
复制代码
Extra字段的 Using filesort 表示须要排序,MySQL会给每一个线程分配一块内存用于排序,称为sort_buffer。bash
这时魔鬼产品忽然凑过来问:给我看看你代码咋写的,你这么写你真的懂MySQL 底层怎么执行order by的吗? 小a忽然惊醒,还真没想过这些。markdown
产品经理冷笑道:你知道你的 city 索引长啥样吗? 我本身创建的,我咋可能不知道!随手直接画出session
产品,你可好好看了,这里 id_x ~ id_(x+n)
的数据都知足city='上海’。oop
产品:那你却是说说这条SQL的执行流程?不知道了吧,我来告诉你吧:性能
name、city、age
三字段city
找到第一个知足city='上海’
条件的主键id, 即id_x
;name、city、age
三个字段的值,存入sort_bufferid_y
name
作快排这就是全字段排序,执行流程以下:
按name排序 这一操做可能在内存中完成,也可能须要外部排序,而这就取决于
MySQL为排序开辟的内存(sort_buffer)的大小。若要排序的数据量小于sort_buffer_size,排序就在内存中完成。若排序数据量太大,内存放不下,则得利用磁盘临时文件辅助排序。
产品又开始炫技了,又问到:你知道 一条排序语句什么时候才会使用临时文件
吗? 这?这还真又触及到个人知识盲区了!
mysql> SET optimizer_trace='enabled=on';
Query OK, 0 rows affected (0.00 sec) /* 使用 @a 保存 Innodb_rows_read 的初始值 */ mysql> select VARIABLE_VALUE into @a from performance_schema.session_status where variable_name = 'Innodb_rows_read';
Query OK, 1 row affected (0.00 sec) mysql> select city, name,age from citizen where city='上海' order by name limit 1000;
+--------+------+-----+
| city | name | age |
+--------+------+-----+
| 上海 | java | 22 |
...
/* 查看 OPTIMIZER_TRACE 输出 */
SELECT * FROM `information_schema`.`OPTIMIZER_TRACE`\G
/* 使用 @b 保存 Innodb_rows_read 的当前值 */
mysql> select VARIABLE_VALUE into @b from performance_schema.session_status where variable_name = 'Innodb_rows_read';
Query OK, 1 row affected (0.00 sec) /* 计算 Innodb_rows_read 的差值 */ mysql> select @b-@a;
复制代码
查看 OPTIMIZER_TRACE 结果中的 number_of_tmp_files 字段确认是否使用临时文件。
"filesort_execution": [
],
"filesort_summary": {
"rows": 4000
"examined_rows": 4000,
"number_of_tmp_files": 12,
"sort_buffer_size": 32664 ,
"sort_mode": "<sort_key, packed_additional_fields>"
复制代码
排序过程当中使用的临时文件数。为啥须要12个文件?内存放不下时,就须要使用外部排序,外部排序通常使用归并排序。 MySQL将须要排序的数据分红12份,每一份单独排序后存在这些临时文件中。而后把这12个有序文件再合并成一个有序的大文件。
若 sort_buffer_size 超过需排序的数据量大小,则 number_of_tmp_files 就是0,即排序可直接在内存完成。
不然就须要放在临时文件中排序。sort_buffer_size越小,须要分红的份数越多,number_of_tmp_files的值就越大。
参与排序的行数。测试表有4000条知足city='上海’的记录,因此该参数为4000。
排序过程对字符串作了“紧凑”处理。即便name字段的定义是varchar(16),在排序过程当中仍是要按实际长度分配空间。
select @b-@a
的结果4000,即整个执行过程只扫描了
4000行。
注意,为了不对结论形成干扰,我把internal_tmp_disk_storage_engine设置成MyISAM。不然,select @b-@a
的结果会显示为4001。 由于查询OPTIMIZER_TRACE表时,须要用到临时表,而internal_tmp_disk_storage_engine的默认值是InnoDB。若使用InnoDB,把数据从临时表取出时,会让Innodb_rows_read的值加1。
我惊奇地望着产品,像瞻仰伟人通常,不如你继承个人代码吧,让我来作产品?
rowid排序
上面的算法,只是对原表数据读了一遍,剩下的操做都是在sort_buffer和临时文件中执行。但这就存在问题:若查询要返回的字段不少,那么sort_buffer要放的字段数就会不少,内存里可以同时放下的行数就会变少,就要分红不少临时文件,排序性能就会不好。 因此若单行很大,该方法的效率可不够行哦。 产品大大又开始发难,那么你知道若MySQL认为排序的单行长度太大,它又会干啥吗?
如今修改个参数,让MySQL采用另一种算法。
SET max_length_for_sort_data = 16;
复制代码
MySQL用于控制用于排序的行数据的长度。若单行的长度超过该值,MySQL就认为单行太大,要换个算法。
city、name、age
三字段的定义总长度36,那你看我把max_length_for_sort_data设为16会咋样。
新的算法放入sort_buffer的字段,只有要排序的列(即name字段)和主键id。 但这时,排序的结果就因少了city
和age
字段值,不能直接返回了,整个执行流程变成以下:
name
和id
city
找到第一个知足city='上海’条件的主键id,也就是图中的id_xcity
取下一个记录的主键id 听到这里,感受明白了一些:产品你别急,你看我画下这个
rowid排序
执行过程的示意图,看看对不对? 你看这个和你以前画的全字段排序示意图,其实就是多访问了一次表citizen的主键索引,即step7。
注意了,最后的resultSet是一个逻辑概念,实际上MySQL服务端从排序后的sort_buffer中依次取出id,而后到原表查到city、name和age这三字段的结果,不须要在服务端再耗费内存存储结果,而是直接返回给客户端。
这时查看rowid排序的OPTIMIZER_TRACE结果,看看和以前的不一样之处在哪里
"filesort_execution": [
],
"filesort_summary": {
"rows": 4000
"examined_rows": 4000,
"number_of_tmp_files": 10,
"sort_buffer_size": 32728 ,
"sort_mode": "<sort_key, rowid>"
复制代码
select @b-@a
结果变成5000由于这时除了排序过程,在排序完成后,还要根据id去原表取值。因为语句是limit 1000,所以会多读1000行。
表示参与排序的只有name和id字段
由于这时参与排序的行数虽然仍是4000,但每行都变小了,所以需排序的总数据量就小了,须要的临时文件也就少咯。
产品最后总结到:
这样排序过程当中一次能够排序更多行,但最后须要回表取数据
把须要字段都放到sort_buffer,这样排序后就直接从内存返回查询结果,不用回表。
因此MySQL就是:若内存够,就多利用内存,尽可能减小磁盘访问。
对InnoDB,rowid排序会要求回表,多形成了磁盘读,所以不会被优先选择。 因此MySQL排序是个高成本操做。
并不是全部order by都需排序操做。MySQL之因此须要生成临时表,而且在临时表上作排序,是由于原来的数据都是无序的。
是的。
因此能够建立一个city,name
联合索引:
alter table t add index citizen(city, name);
复制代码
依然能够用树搜索定位到第一个知足city='上海’的记录,而且能确保接下来按顺序取“下一条记录”的遍历过程,只要city是上海,name值必定有序。 这样整个查询过程的流程就变成:
可见,该查询过程无需临时表,也无需排序。
explain select city, name, age from citizen where city = '上海' order by name limit 1000;
+----+-------------+---------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
| id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
+----+-------------+---------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
| 1 | SIMPLE | citizen | NULL | ref | city,name | name | 51 | const | 4000 | 100.00 | Using index condition |
+----+-------------+---------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
1 row in set, 1 warning (0.00 sec)
复制代码
可见Extra字段中没有Using filesort了,也就是不须要排序了。并且因为(city,name)这个联合索引自己有序,因此该查询也不用把4000行全都读一遍,只要找到知足条件的前1000条记录便可退出。在这个例子里,只需扫描1000次。
该语句的执行流程有没有可能进一步简化呢?
索引上的信息足够知足查询请求,不须要再回到主键索引上去取数据。
按覆盖索引,能够再优化一下这个查询语句的执行流程。 针对这个查询,咱们能够建立一个city、name和age的联合索引,对应的SQL语句就是:
alter table t add index city_user_age(city, name, age);
复制代码
这时,对于city字段的值相同的行来讲,仍是按照name字段的值递增排序的,此时的查询语句也就再也不须要排序了。这样整个查询语句的执行流程就变成了:
引入 (city,name,age)
联合索引,查询语句的执行流程
(city,name,age)
联合索引查询语句的执行计划explain select city, name, age from citizen where city = '上海' order by name limit 1000;
+----+-------------+---------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
| id | select_type | table | partitions | type | possible_keys | key | key_len | ref | rows | filtered | Extra |
+----+-------------+---------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
| 1 | SIMPLE | citizen | NULL | ref | city,name,age | age | 51 | const | 4000 | 100.00 | Using where; Using index |
+----+-------------+---------+------------+------+---------------+------+---------+------+------+----------+-----------------------------+
1 row in set, 1 warning (0.00 sec)
复制代码
Extra字段里面多了“Using index”,说明使用了覆盖索引,性能上会快不少。 但这并不是说要为了每一个查询能用上覆盖索引,就要把语句中涉及的字段都建上联合索引,毕竟索引也很占空间,并且修改新增都会致使索引改变,仍是具体业务场景具体分析。
参考
- “order by”是怎么工做的?
- blog.csdn.net/Linuxhus/ar…
- 每天写order by,你知道Mysql底层执行原理吗?