MYSQL分页limit速度太慢优化方法

标签: MySQL优化设计 limit 分页 | 发表时间:2016-03-21 23:24 | 作者:OurMySQL
分享到:
出处:http://ourmysql.com

   在mysql中limit可以实现快速分页,但是如果数据到了几百万时我们的limit必须优化才能有效的合理的实现分页了,否则可能卡死你的服务器哦。

   当一个表数据有几百万的数据的时候成了问题!

   如 * from table limit 0,10 这个没有问题 当 limit 200000,10 的时候数据读取就很慢,可以按照一下方法解决

    第一页会很快

   PERCONA PERFORMANCE CONFERENCE 2009上,来自雅虎的几位工程师带来了一篇”EfficientPagination Using MySQL”的报告

   limit10000,20的意思扫描满足条件的10020行,扔掉前面的10000行,返回最后的20行,问题就在这里。

   LIMIT 451350 , 30 扫描了45万多行,怪不得慢的都堵死了。

   但是

   limit 30 这样的语句仅仅扫描30行。

   那么如果我们之前记录了最大ID,就可以在这里做文章

   举个例子

   日常分页SQL语句

   select id,name,content from users order by id asc limit 100000,20

   扫描100020行

   如果记录了上次的最大ID

   select id,name,content from users where id>100073 order by id asc limit 20

   扫描20行。

   总数据有500万左右

   以下例子 当时候 select * from wl_tagindex where byname=’f’ order by id limit 300000,10 执行时间是 3.21s

   优化后:

   select * from (

               select id from wl_tagindex

               where byname=’f’ order by id limit 300000,10

   ) a

   left join wl_tagindex b on a.id=b.id

   执行时间为 0.11s 速度明显提升

   这里需要说明的是 我这里用到的字段是 byname ,id 需要把这两个字段做复合索引,否则的话效果提升不明显

   总结

   当一个数据库表过于庞大,LIMIT offset, length中的offset值过大,则SQL查询语句会非常缓慢,你需增加order by,并且order by字段需要建立索引。

   如果使用子查询去优化LIMIT的话,则子查询必须是连续的,某种意义来讲,子查询不应该有where条件,where会过滤数据,使数据失去连续性。

   如果你查询的记录比较大,并且数据传输量比较大,比如包含了text类型的field,则可以通过建立子查询。

   SELECT id,title,content FROM items WHERE id IN (SELECT id FROM items ORDER BY id limit 900000, 10);

   如果limit语句的offset较大,你可以通过传递pk键值来减小offset = 0,这个主键最好是int类型并且auto_increment

   SELECT * FROM users WHERE uid > 456891 ORDER BY uid LIMIT 0, 10;

   这条语句,大意如下:

   SELECT * FROM users WHERE uid >=  (SELECT uid FROM users ORDER BY uid limit 895682, 1) limit 0, 10;

   如果limit的offset值过大,用户也会翻页疲劳,你可以设置一个offset最大的,超过了可以另行处理,一般连续翻页过大,用户体验很差,则应该提供更优的用户体验给用户。

   limit 分页优化方法

   1.子查询优化法

   先找出第一条数据,然后大于等于这条数据的id就是要获取的数据

   缺点:数据必须是连续的,可以说不能有where条件,where条件会筛选数据,导致数据失去连续性

   实验下

    mysql> set profi=1;

   Query OK, 0 rows affected (0.00 sec)

   mysql> select count(*) from Member;

   +———-+

   | count(*) |

   +———-+

   |   169566 |

   +———-+

   1 row in set (0.00 sec)

   mysql> pager grep !~-

   PAGER set to ‘grep !~-‘

   mysql> select * from Member limit 10, 100;

   100 rows in set (0.00 sec)

   mysql> select * from Member where MemberID >= (select MemberID from Member limit 10,1) limit 100;

   100 rows in set (0.00 sec)

   mysql> select * from Member limit 1000, 100;

   100 rows in set (0.01 sec)

   mysql> select * from Member where MemberID >= (select MemberID from Member limit 1000,1) limit 100;

   100 rows in set (0.00 sec)

   mysql> select * from Member limit 100000, 100;

   100 rows in set (0.10 sec)

   mysql> select * from Member where MemberID >= (select MemberID from Member limit 100000,1) limit 100;

   100 rows in set (0.02 sec)

   mysql> nopager

   PAGER set to stdout

   mysql> show profilesG

   *************************** 1. row ***************************

   Query_ID: 1

   Duration: 0.00003300

      Query: select count(*) from Member

   *************************** 2. row ***************************

   Query_ID: 2

   Duration: 0.00167000

      Query: select * from Member limit 10, 100

   *************************** 3. row ***************************

   Query_ID: 3

   Duration: 0.00112400

      Query: select * from Member where MemberID >= (select MemberID from Member limit 10,1) limit 100

   *************************** 4. row ***************************

   Query_ID: 4

   Duration: 0.00263200

      Query: select * from Member limit 1000, 100

   *************************** 5. row ***************************

   Query_ID: 5

   Duration: 0.00134000

      Query: select * from Member where MemberID >= (select MemberID from Member limit 1000,1) limit 100

   *************************** 6. row ***************************

   Query_ID: 6

   Duration: 0.09956700

      Query: select * from Member limit 100000, 100

   *************************** 7. row ***************************

   Query_ID: 7

   Duration: 0.02447700

      Query: select * from Member where MemberID >= (select MemberID from Member limit 100000,1) limit 100

    从结果中可以得知,当偏移1000以上使用子查询法可以有效的提高性能。

   2.倒排表优化法

   倒排表法类似建立索引,用一张表来维护页数,然后通过高效的连接得到数据

   缺点:只适合数据数固定的情况,数据不能删除,维护页表困难

   3.反向查找优化法

   当偏移超过一半记录数的时候,先用排序,这样偏移就反转了

   缺点:order by优化比较麻烦,要增加索引,索引影响数据的修改效率,并且要知道总记录数

   ,偏移大于数据的一半

   引用

   limit偏移算法:

   正向查找: (当前页 – 1) * 页长度

   反向查找: 总记录 – 当前页 * 页长度

   做下实验,看看性能如何

   总记录数:1,628,775

   每页记录数: 40

   总页数:1,628,775 / 40 = 40720

   中间页数:40720 / 2 = 20360

   第21000页

   正向查找SQL:

   Sql代码

   SELECT * FROM `abc` WHERE `BatchID` = 123 LIMIT 839960, 40

   时间:1.8696 秒

   反向查找sql:

   Sql代码

   SELECT * FROM `abc` WHERE `BatchID` = 123 ORDER BY InputDate DESC LIMIT 788775, 40

   时间:1.8336 秒

   第30000页

   正向查找SQL:

   Sql代码

   1.SELECT * FROM `abc` WHERE `BatchID` = 123 LIMIT 1199960, 40

   SELECT * FROM `abc` WHERE `BatchID` = 123 LIMIT 1199960, 40

   时间:2.6493 秒

   反向查找sql:

   Sql代码

   1.SELECT * FROM `abc` WHERE `BatchID` = 123 ORDER BY InputDate DESC LIMIT 428775, 40

   SELECT * FROM `abc` WHERE `BatchID` = 123 ORDER BY InputDate DESC LIMIT 428775, 40

    时间:1.0035 秒

   注意,反向查找的结果是是降序desc的,并且InputDate是记录的插入时间,也可以用主键联合索引,但是不方便。

   4.limit限制优化法

   把limit偏移量限制低于某个数。。超过这个数等于没数据,我记得alibaba的dba说过他们是这样做的

   5.只查索引法

猜您喜欢

相关 [mysql limit 速度] 推荐:

MYSQL分页limit速度太慢优化方法

- - OurMySQL
   在mysql中limit可以实现快速分页,但是如果数据到了几百万时我们的limit必须优化才能有效的合理的实现分页了,否则可能卡死你的服务器哦.    当一个表数据有几百万的数据的时候成了问题.    如 * from table limit 0,10 这个没有问题 当 limit 200000,10 的时候数据读取就很慢,可以按照一下方法解决.

MySQL 优化Limit分页

- - CSDN博客数据库推荐文章
     很多时候、我们需要选择出从指定位置开始的指定行数、此时、limit笑了.      对于limit的定义是:.      表示从第x行开始选择y条记录.      在业务需要分页操作的时候、我们通常采用limit+order by这对洗剪吹组合、高端洋气上档次.      然而、当翻到非常靠后的页面时、MySQL需要花费大量的时间来扫描需要丢弃的数据.

mysql order by和limit共用bug

- - 数据库 - ITeye博客
 在mysql下执行没有问题,可以得到预期结果. 但是用jdbc执行的时候就得不到预期结果了. 官网地址:http://bugs.mysql.com/bug.php?id=32933. 以下转载:http://bbs.chinaunix.net/thread-1276235-1-1.html. 我想从一个表中检索所有标题含有“中国”的数据,将它们按id排序,取前5条,所以我写了以下语句.

MySQL大数据下Limit使用

- - CSDN博客推荐文章
对于一直用Oracle的我,今天可是非常诧异,MySQL中同一个函数在不同数量级上的性能居然差距如此之大. 先看表ibmng(id,title,info)  唯一  id key 索引title. 很多人都会认为不会有多大差别,但是他们都错了,差别太大了,(可能机器不同有点差距,但绝对10倍以上)具体执行时间留给好奇的同学.

【ActiveMQ Tuning】Prefetch Limit

- - 博客园_首页
   摘要:ActiveMQ优化 客户端优化 预取限制. 原文: http://fusesource.com/docs/broker/5.4/tuning/GenTuning-Consumer-Prefetch.html. Overview:图列4.1阐明了Broker在等待之前发送给客户端消息的反馈的行为.

mysql处理海量数据时的一些优化查询速度方法

- - IT江湖
最近一段时间由于工作需要,开始关注针对Mysql数据库的select查询语句的相关优化方法. 由于在参与的实际项目中发现当mysql表的数据量达到百万级时,普通SQL查询效率呈直线下降,而且如果where中的查询条件较多时,其查询速度简直无法容忍. 曾经测试对一个包含400多万条记录(有索引)的表执行一条条件查询,其查询时间竟然高达40几秒,相信这么高的查询延时,任何用户都会抓狂.

[MySQL优化案例]系列 — 索引、提交频率对InnoDB表写入速度的影响

- - MySQL中文网
本次,我们来看看索引、提交频率对InnoDB表写入速度的影响,了解有哪些需要注意的. 1、关于索引对写入速度的影响: a、如果有自增列做主键,相对完全没索引的情况,写入速度约提升 3.11%; b、如果有自增列做主键,并且二级索引,相对完全没索引的情况,写入速度约降低 27.37%;. 因此,InnoDB表最好总是有一个自增列做主键.

Linux Ksplice,MySQL and Oracle

- Syn - DBA Notes
Oracle 在 7 月份收购了 Ksplice. 使用了 Ksplice 的 Linux 系统,为 Kernel 打补丁无需重启动,做系统维护的朋友应该明白这是一个杀手级特性. 现在该产品已经合并到 Oracle Linux 中. 目前已经有超过 700 家客户,超过 10 万套系统使用了 Ksplice (不知道国内是否已经有用户了.

mysql backup 脚本

- - ITeye博客
网上备份脚本很多,但考虑都不周全. 保证创建备份文件只能是创建者跟root可以访问,其他用户没有权限,保证了数据库备份的安全. 上面脚本是负责备份的份数管理,. 已有 0 人发表留言,猛击->> 这里<<-参与讨论. —软件人才免语言低担保 赴美带薪读研.

MySQL Replication 线程

- - CSDN博客推荐文章
Replication 线程. Mysql 的Replication 是一个异步的复制过程,从一个Mysql instace(我们称之为Master)复制到另一个Mysql instance(我们称之Slave). 在Master 与Slave 之间的实现整个复制过程主. 要由三个线程来完成,其中两个线程(Sql 线程和IO 线程)在Slave 端,另外一个线程(IO 线程)在Master 端.