• MySQL分页查询的性能优化


    MySQL limit分页查询的性能优化

    Mysql的分页查询十分简单,但是当数据量大的时候一般的分页就吃不消了。

    传统分页查询:SELECT c1,c2,cn… FROM table LIMIT n,m

    MySQL的limit工作原理就是先读取前面n条记录,然后抛弃前n条,读后面m条想要的,所以n越大,偏移量越大,性能就越差。

    推荐分页查询方法:

    1、尽量给出查询的大致范围

    1. SELECT c1,c2,cn... FROM table WHERE id>=20000 LIMIT 10;

    2、子查询法

    1. SELECT c1,c2,cn... FROM table WHERE id>=
    2. (
    3. SELECT id FROM table LIMIT 20000,1
    4. )
    5. LIMIT 10;

    3、高性能MySQL一书中提到的只读索引方法

    优化前SQL:

    1. SELECT c1,c2,cn... FROM member ORDER BY last_active LIMIT 50,5

    优化后SQL:

    1. SELECT c1, c2, cn .. .
    2. FROM member
    3. INNER JOIN (SELECT member_id FROM member ORDER BY last_active LIMIT 50, 5)
    4. USING (member_id)

    分别在于,优化前的SQL需要更多I/O浪费,因为先读索引,再读数据,然后抛弃无需的行。而优化后的SQL(子查询那条)只读索引(Cover index)就可以了,然后通过member_id读取需要的列。

    4、第一步用用程序读取出ID,然后再用IN方法读取所需记录

    程序读ID:

    1. SELECT id FROM table LIMIT 20000, 10;
    2. SELECT c1, c2, cn .. . FROM table WHERE id IN (id1, id2, idn.. .)

    ==============

    MySQL的limit用法和分页查询的性能分析及优化

    一、limit用法

    在我们使用查询语句的时候,经常要返回前几条或者中间某几行数据,这个时候怎么办呢?不用担心,mysql已经为我们提供了这样一个功能。

    SELECT * FROM table LIMIT [offset,] rows | `rows OFFSET offset ` 
    (LIMIT offset, `length`)
    SELECT
    *
    FROM table
    where condition1 = 0
    and condition2 = 0
    and condition3 = -1
    and condition4 = -1
    order by id asc
    LIMIT 2000 OFFSET 50000
    

    LIMIT 子句可以被用于强制 SELECT 语句返回指定的记录数。LIMIT 接受一个或两个数字参数。参数必须是一个整数常量。如果给定两个参数,第一个参数指定第一个返回记录行的偏移量第二个参数指定返回记录行的最大数目初始记录行的偏移量是 0(而不是 1): 为了与 PostgreSQL 兼容,MySQL 也支持句法: LIMIT # OFFSET #。

    mysql> SELECT * FROM table LIMIT 5,10; // 检索记录行 6-15 
    

    //为了检索从某一个偏移量到记录集的结束所有的记录行,可以指定第二个参数为 -1:

    mysql> SELECT * FROM table LIMIT 95,-1; // 检索记录行 96-last. 
    

    //如果只给定一个参数,它表示返回最大的记录行数目:
    mysql> SELECT * FROM table LIMIT 5; //检索前 5 个记录行
    //换句话说,LIMIT n 等价于 LIMIT 0,n

    二、Mysql的分页查询语句的性能分析

    MySql分页sql语句,如果和MSSQL的TOP语法相比,那么MySQL的LIMIT语法要显得优雅了许多。使用它来分页是再自然不过的事情了。

    最基本的分页方式:

    SELECT ... FROM ... WHERE ... ORDER BY ... LIMIT ... 
    

    在中小数据量的情况下,这样的SQL足够用了,唯一需要注意的问题就是确保使用了索引:
    举例来说,如果实际SQL类似下面语句,那么在category_id, id两列上建立复合索引比较好:

    SELECT * FROM articles WHERE category_id = 123 ORDER BY id LIMIT 50, 10
    

    子查询的分页方式:

    随着数据量的增加,页数会越来越多,查看后几页的SQL就可能类似:
    SELECT * FROM articles WHERE category_id = 123 ORDER BY id LIMIT 10000, 10

    一言以蔽之,就是越往后分页,LIMIT语句的偏移量就会越大,速度也会明显变慢
    此时,我们可以通过子查询的方式来提高分页效率,大致如下:

    SELECT * FROM articles WHERE  id >=  
    (SELECT id FROM articles  WHERE category_id = 123 ORDER BY id LIMIT 10000, 1) LIMIT 10 
    

    JOIN分页方式

    SELECT * FROM `content` AS t1   
    JOIN (SELECT id FROM `content` ORDER BY id desc LIMIT ".($page-1)*$pagesize.", 1) AS t2   
    WHERE t1.id <= t2.id ORDER BY t1.id desc LIMIT $pagesize; 
    

    经过我的测试,join分页和子查询分页的效率基本在一个等级上,消耗的时间也基本一致。
    explain SQL语句:

    id select_type table type possible_keys key key_len ref rows Extra
    1 PRIMARY <derived2> system NULL NULL NULL NULL 1  
    1 PRIMARY t1 range PRIMARY PRIMARY 4 NULL 6264 Using where
    2 DERIVED content index NULL PRIMARY 4 NULL 27085 Using index
    

    为什么会这样呢?因为子查询是在索引上完成的,而普通的查询时在数据文件上完成的,通常来说,索引文件要比数据文件小得多,所以操作起来也会更有效率。

    实际可以利用类似策略模式的方式去处理分页,比如判断如果是一百页以内,就使用最基本的分页方式,大于一百页,则使用子查询的分页方式。

    三、对于有大数据量的mysql表来说,使用LIMIT分页存在很严重的性能问题。

    查询从第1000000之后的30条记录:

    SQL代码1:平均用时6.6秒 SELECT * FROM `cdb_posts` ORDER BY pid LIMIT 1000000 , 30
    
    SQL代码2:平均用时0.6秒 SELECT * FROM `cdb_posts` WHERE pid >= (SELECT pid FROM  
    `cdb_posts` ORDER BY pid LIMIT 1000000 , 1) LIMIT 30
    

    因为要取出所有字段内容,第一种需要跨越大量数据块并取出,而第二种基本通过直接根据索引字段定位后,才取出相应内容,效率自然大大提升。对limit的优化,不是直接使用limit,而是首先获取到offset的id,然后直接使用limit size来获取数据。

    可以看出,越往后分页,LIMIT语句的偏移量就会越大,两者速度差距也会越明显。

    实际应用中,可以利用类似策略模式的方式去处理分页,比如判断如果是一百页以内,就使用最基本的分页方式,大于一百页,则使用子查询的分页方式。

    优化思想:避免数据量大时扫描过多的记录

    为了保证index索引列连续,可以为每个表加一个自增字段,并且加上索引

    参考:mysql分页offset过大,Sql优化经验

    ========

    MySQL单表百万数据记录分页性能优化

    背景:

    自己的一个网站,由于单表的数据记录高达了一百万条,造成数据访问很慢,Google分析的后台经常报告超时,尤其是页码大的页面更是慢的不行。

    测试环境:

    先让我们熟悉下基本的sql语句,来查看下我们将要测试表的基本信息

    use infomation_schema
    SELECT * FROM TABLES WHERE TABLE_SCHEMA = ‘dbname’ AND TABLE_NAME = ‘product’

    查询结果:

    从上图中我们可以看到表的基本信息:

    表行数:866633
    平均每行的数据长度:5133字节
    单表大小:4448700632字节

    关于行和表大小的单位都是字节,我们经过计算可以知道
    平均行长度:大约5k
    单表总大小:4.1g
    表中字段各种类型都有varchar、datetime、text等,id字段为主键

    测试实验

    1.   直接用limit start, count分页语句, 也是我程序中用的方法:

    select * from product limit start, count
    当起始页较小时,查询没有性能问题,我们分别看下从10, 100, 1000, 10000开始分页的执行时间(每页取20条), 如下:

    select * from product limit 10, 20   0.016秒
    select * from product limit 100, 20   0.016秒
    select * from product limit 1000, 20   0.047秒
    select * from product limit 10000, 20   0.094秒

    我们已经看出随着起始记录的增加,时间也随着增大, 这说明分页语句limit跟起始页码是有很大关系的,那么我们把起始记录改为40w看下(也就是记录的一般左右)                                    select * from product limit 400000, 20   3.229秒

    再看我们取最后一页记录的时间
    select * from product limit 866613, 20   37.44秒

    难怪搜索引擎抓取我们页面的时候经常会报超时,像这种分页最大的页码页显然这种时
    间是无法忍受的。

    从中我们也能总结出两件事情:
    1)limit语句的查询时间与起始记录的位置成正比
    2)mysql的limit语句是很方便,但是对记录很多的表并不适合直接使用。

    2.   对limit分页问题的性能优化方法

    利用表的覆盖索引来加速分页查询
    我们都知道,利用了索引查询的语句中如果只包含了那个索引列(覆盖索引),那么这种情况会查询很快。

    因为利用索引查找有优化算法,且数据就在查询索引上面,不用再去找相关的数据地址了,这样节省了很多时间。另外Mysql中也有相关的索引缓存,在并发高的时候利用缓存就效果更好了。

    在我们的例子中,我们知道id字段是主键,自然就包含了默认的主键索引。现在让我们看看利用覆盖索引的查询效果如何:

    这次我们之间查询最后一页的数据(利用覆盖索引,只包含id列),如下:
    select id from product limit 866613, 20 0.2秒
    相对于查询了所有列的37.44秒,提升了大概100多倍的速度

    那么如果我们也要查询所有列,有两种方法,一种是id>=的形式,另一种就是利用join,看下实际情况:

    SELECT * FROM product WHERE ID > =(select id from product limit 866613, 1) limit 20
    查询时间为0.2秒,简直是一个质的飞跃啊,哈哈

    另一种写法
    SELECT * FROM product a JOIN (select id from product limit 866613, 20) b ON a.ID = b.id
    查询时间也很短,赞!

    其实两者用的都是一个原理嘛,所以效果也差不多

  • 相关阅读:
    并发量,tps,qps
    MYSQL安装和配置
    python 生成随机数的几种方法
    python 判断是字母的多种方法
    python实战,
    linux工作常用命令
    apache http server安装
    .py与.pyc文件区别
    上传本地文件到linux
    ms
  • 原文地址:https://www.cnblogs.com/xiami2046/p/12630374.html
Copyright © 2020-2023  润新知