MySQL的limit用法和分页查询的性能分析及优化

1、limit用法

在咱们使用查询语句的时候,常常要返回前几条或者中间某几行数据,这个时候怎么办呢?不用担忧,mysql已经为咱们提供了这样一个功能。mysql

SELECT * FROM table LIMIT [offset,] rows | `rows OFFSET offset ` 
(LIMIT offset, `length`)
SELECT
*
FROM table
where condition1 = 0
and condition2 = 0
and condition3 = -1
and condition4 = -1
order by id asc
LIMIT 2000 OFFSET 50000

LIMIT 子句能够被用于强制 SELECT 语句返回指定的记录数。LIMIT 接受一个或两个数字参数。参数必须是一个整数常量。若是给定两个参数,第一个参数指定第一个返回记录行的偏移量第二个参数指定返回记录行的最大数目初始记录行的偏移量是 0(而不是 1): 为了与 PostgreSQL 兼容,MySQL 也支持句法: LIMIT # OFFSET #。sql

mysql> SELECT * FROM table LIMIT 5,10; // 检索记录行 6-15

//为了检索从某一个偏移量到记录集的结束全部的记录行,能够指定第二个参数为 -1:segmentfault

mysql> SELECT * FROM table LIMIT 95,-1; // 检索记录行 96-last.

//若是只给定一个参数,它表示返回最大的记录行数目:
mysql> SELECT * FROM table LIMIT 5; //检索前 5 个记录行
//换句话说,LIMIT n 等价于 LIMIT 0,npost

2、Mysql的分页查询语句的性能分析

MySql分页sql语句,若是和MSSQL的TOP语法相比,那么MySQL的LIMIT语法要显得优雅了许多。使用它来分页是再天然不过的事情了。性能

最基本的分页方式:测试

SELECT ... FROM ... WHERE ... ORDER BY ... LIMIT ...

在中小数据量的状况下,这样的SQL足够用了,惟一须要注意的问题就是确保使用了索引:
举例来讲,若是实际SQL相似下面语句,那么在category_id, id两列上创建复合索引比较好:大数据

SELECT * FROM articles WHERE category_id = 123 ORDER BY id LIMIT 50, 10

子查询的分页方式:优化

随着数据量的增长,页数会愈来愈多,查看后几页的SQL就可能相似:
SELECT * FROM articles WHERE category_id = 123 ORDER BY id LIMIT 10000, 10 spa

一言以蔽之,就是越日后分页,LIMIT语句的偏移量就会越大,速度也会明显变慢
此时,咱们能够经过子查询的方式来提升分页效率,大体以下:code

SELECT * FROM articles WHERE  id >=  
(SELECT id FROM articles  WHERE category_id = 123 ORDER BY id LIMIT 10000, 1) LIMIT 10

JOIN分页方式

SELECT * FROM `content` AS t1   
JOIN (SELECT id FROM `content` ORDER BY id desc LIMIT ".($page-1)*$pagesize.", 1) AS t2   
WHERE t1.id <= t2.id ORDER BY t1.id desc LIMIT $pagesize;

通过个人测试,join分页和子查询分页的效率基本在一个等级上,消耗的时间也基本一致。
explain SQL语句:

id select_type table type possible_keys key key_len ref rows Extra
1 PRIMARY <derived2> system NULL NULL NULL NULL 1  
1 PRIMARY t1 range PRIMARY PRIMARY 4 NULL 6264 Using where
2 DERIVED content index NULL PRIMARY 4 NULL 27085 Using index

为何会这样呢?由于子查询是在索引上完成的,而普通的查询时在数据文件上完成的,一般来讲,索引文件要比数据文件小得多,因此操做起来也会更有效率。

实际能够利用相似策略模式的方式去处理分页,好比判断若是是一百页之内,就使用最基本的分页方式,大于一百页,则使用子查询的分页方式。

3、对于有大数据量的mysql表来讲,使用LIMIT分页存在很严重的性能问题。

查询从第1000000以后的30条记录:

SQL代码1:平均用时6.6秒 SELECT * FROM `cdb_posts` ORDER BY pid LIMIT 1000000 , 30

SQL代码2:平均用时0.6秒 SELECT * FROM `cdb_posts` WHERE pid >= (SELECT pid FROM  
`cdb_posts` ORDER BY pid LIMIT 1000000 , 1) LIMIT 30

由于要取出全部字段内容,第一种须要跨越大量数据块并取出,而第二种基本经过直接根据索引字段定位后,才取出相应内容,效率天然大大提高。对limit的优化,不是直接使用limit,而是首先获取到offset的id,而后直接使用limit size来获取数据。

能够看出,越日后分页,LIMIT语句的偏移量就会越大,二者速度差距也会越明显。

实际应用中,能够利用相似策略模式的方式去处理分页,好比判断若是是一百页之内,就使用最基本的分页方式,大于一百页,则使用子查询的分页方式。

优化思想:避免数据量大时扫描过多的记录

clipboard.png

clipboard.png

为了保证index索引列连续,能够为每一个表加一个自增字段,而且加上索引

参考:mysql分页offset过大,Sql优化经验

相关文章
相关标签/搜索