• MySQL索引优化实践(二)


    准备数据(向表里插入10W条数据)

    # 若存在存储过程则删除
    drop procedure if exists insert_emp;
    delimiter ;;
    
    # 创建存储过程
    create procedure insert_emp()
    begin
        declare i int;
        set i=1;
        while(i<=100000) do
            insert into employees(name,age,position) values(CONCAT('zhuge',i),i,'dev');
            set i=i+1;
        end while;
    end;;
    delimiter ;
    
    # 调用存储过程
    call insert_emp();

    分页查询优化

    很多时候我们业务系统实现分页功能可能会用如下sql实现;

    mysql> select * from employees limit 10000,5;

    分析:从表 employees 中取出从 10001 行开始的 5行记录。看似只查询了 5 条记录,实际这条 SQL 是先读取 10005 条记录,然后抛弃前 10000 条记录,然后读到后面 5 条想要的数据。因此要查询一张大表比较靠后的数据,执行效率是非常低的

    常见的分页查询优化

    看一个根据非主键字段排序的分页查询,SQL 如下

    mysql> select * from employees ORDER BY name limit 90000,5;

     我们使用执行计划分析一下

    EXPLAIN select * from employees ORDER BY name limit 90000,5;

     发现并没有使用到 name 字段的索引;因为扫描整个索引并查找到没索引的行(可能要遍历多个索引树)的成本比扫描全表的成本更高,所以优化器放弃使用索引

    知道不走索引的原因,那么怎么优化呢?
    其实关键是让排序时返回的字段尽可能少,所以可以先让排序和分页操作先查出主键,然后根据主键查到对应的记录,SQL改写如下:

    select * from employees e inner join (select id from employees order by name limit 90000,5) ed on e.id = ed.id;

     从以上的查询结果可以看到,优化前和优化后的查询结构都是一样的,优化后的执行的时间减少了一半以上,我们来对比一下执行计划;

     原 SQL 使用的是 filesort 排序,而优化后的 SQL 使用的是索引排序。 

    分析:先执行 id 为 2 的那一行(子查询),它走了索引,这一行查询到的只查询了 5 条数据,然后再根据主键 id 去关联得到全部的数据。

    Join 关联查询优化

    创建示例表:

    CREATE TABLE `t1` (
    `id` int(11) NOT NULL AUTO_INCREMENT,
    `a` int(11) DEFAULT NULL,
    `b` int(11) DEFAULT NULL,
    PRIMARY KEY (`id`),
    KEY `idx_a` (`a`)
    ) ENGINE=InnoDB AUTO_INCREMENT=10001 DEFAULT CHARSET=utf8;
    
    create table t2 like t1;

    接着向 t1 表中插入1W行记录, t2 表中插入100行记录;

    delimiter ;;
    # 创建存储过程
    create procedure insert_t1()
    begin
        declare i int;
        set i=1;
        while(i<=10000) do
            insert into t1(a,b) values(i,i);
            set i=i+1;
        end while;
    end;;
    delimiter ;
    
    call insert_t1();

    mysql的表关联常见有两种算法

    (1)Nested-Loop Join 算法
    (2)Block Nested-Loop Join 算法

    1、 嵌套循环连接 Nested-Loop Join(NLJ) 算法
    一次一行循环地从第一张表(称为驱动表)中读取行,在这行数据中取到关联字段,根据关联字段在另一张表(被驱动表)里取出满足条件的行,然后取出两张表的结果合集。(小表驱动大表

    EXPLAIN select*from t1 inner join t2 on t1.a= t2.a;
    

    从执行计划中可以看到这些信息:

    • 驱动表是 t2,被驱动表是 t1。先执行的就是驱动表(执行计划结果的id如果一样则按从上到下顺序执行sql);优化器一般会优先选择小表做驱动表。所以使用 inner join 时,排在前面的表并不一定就是驱动表
    • 使用了 NLJ算法。一般 join 语句中,如果执行计划 Extra 中未出现 Using join buffer 则表示使用的 join 算法是 NLJ。

    上面sql的大致流程如下

    1. 从表 t2 中读取一行数据;
    2. 从第 1 步的数据中,取出关联的字段 a,然后到表 t1 中去查找(在 t1 表查询的时候走的索引);
    3. 取出表 t1 中满足条件的行,跟 t2 中获取到的结果合并,作为结果返回给客户端;
    4. 重复上面 3 步。

     整个过程会读取 t2 表的所有数据(扫描100行),然后遍历这每行数据中字段 a 的值,根据 t2 表中 a 的值索引扫描 t1 表中的对应行(扫描100次 t1 表的索引,索引树的的非叶子节点扫描时间可以忽略不计,可以认为t1表索引的1次扫描只扫描 t1 表一行完整的数据,也就是总共 t1 表也扫描了100行)。所以t1表扫描了100行,t2表也扫描了100行,整个过程扫描了 200 行。
     如果被驱动表的关联字段没索引,使用NLJ算法性能会比较低(下面有详细解释),mysql会选择Block Nested-Loop Join算法。

    2、 基于块的嵌套循环连接 Block Nested-Loop Join(BNL)算法

    驱动表的数据读入到 join_buffer 中,然后扫描被驱动表,把被驱动表每一行取出来跟 join_buffer 中的数据做对比;

    mysql>EXPLAIN select*from t1 inner join t2 on t1.b= t2.b;

     Extra 中 的Using join buffer (Block Nested Loop)说明该关联查询使用的是 BNL 算法。

    上面sql的大致流程如下:

    1. 把 t2 的所有数据放入到 join_buffer 中;
    2. 把表 t1 中的一行数据取出来,跟 join_buffer 中的数据做对比;
    3. 返回满足 join 条件的数据;
    4. 重复上面的2、3步骤;

        整个过程对表 t1 和 t2 都做了一次全表扫描,因此扫描的总行数为10000(表 t1 的数据总量) + 100(表 t2 的数据总量) =10100。并且 join_buffer 里的数据是无序的,因此对表 t1 中的每一行,都要做 100 次判断,所以内存中的判断次数是100 * 10000= 100 万次(内存计算了100W次)
        被驱动表的关联字段没索引为什么要选择使用 BNL 算法而不使用 Nested-Loop Join 呢?
        如果上面第二条sql使用 Nested-Loop Join,那么扫描行数为 100 * 10000 = 100万次,这个是磁盘扫描很显然,用 BNL 磁盘扫描次数少很多,相比于磁盘扫描,BNL的内存计算会快得多。
    因此MySQL对于被驱动表的关联字段没索引的关联查询,一般都会使用 BNL 算法。如果有索引一般选择 NLJ 算法,有索引的情况下 NLJ 算法比 BNL算法性能更高;

    对于关联sql的优化

    • 关联字段加索引,让mysql做 join 操作时尽量选择NLJ算法;
    • 小表驱动大表,写多表连接 sql 时如果明确知道哪张表是小表可以用 straight_join 写法固定连接驱动方式,省去mysql优化器自己判断的时间;

    straight_join解释:straight_join 功能同 join 类似,但能让左边的表来驱动右边的表,能改表优化器对于联表查询的执行顺序。

    比如:
    select * from t2 straight_join t1 on t2.a = t1.a; #代表制定 mysql选择 t2 表作为驱动表。
    • straight_join 只适用于inner join,并不适用于left join,right join。(因为 left join,right join已经代表指定了表的执行顺序);
    • 尽可能让优化器去判断,因为大部分情况下mysql优化器是比人要聪明的。使用 straight_join 一定要慎重,因为部分情况下人为指定的执行顺序并不一定会比优化引擎要靠谱;

    in和exsits优化

    原则:小表驱动大表,即小的数据集驱动大的数据集
    in:当B表的数据集小于A表的数据集时,in优于exists

    select * from A where id in (select id from B)
    #等价于:
    for(select id from B){
        select * from A where A.id = B.id
    }

    一般情况, select id from B 先执行;

    当 B 表的数据集少的时候 for 循环就少,性能就越好;

    exists:当A表的数据集小于B表的数据集时,exists优于in
    将主查询A的数据,放到子查询B中做条件验证,根据验证结果(true或false)来决定主查询的数据是否保留;

    select * from A where exists (select * from B where B.id = A.id)
    #一般情况等价于:
    for(select * from A){
        select * from B where B.id = A.id
    }

    #A表与B表的ID字段应建立索引
    一般情况,select * from A 先执行;
    1、EXISTS (subquery)只返回TRUE或FALSE,因此子查询中的SELECT * 也可以用SELECT 1替换,官方说法是实际执行时会
    忽略SELECT清单,因此没有区别;
    2、EXISTS子查询的实际执行过程可能经过了优化而不是我们理解上的逐条对比;
    3、EXISTS子查询往往也可以用JOIN来代替,何种最优需要具体问题具体分析;

    count(*)查询优化
    # 临时关闭mysql查询缓存,为了查看sql多次执行的真实时间
    mysql> set global query_cache_size=0;
    mysql> set global query_cache_type=0; 
    mysql> EXPLAIN select count(1) from employees;
    mysql> EXPLAIN select count(id) from employees;
    mysql> EXPLAIN select count(name) from employees; mysql> EXPLAIN select count(*) from employees;

    四个sql的执行计划一样,说明这四个sql执行效率应该差不多,区别在于根据某个字段count不会统计字段为null值的数据行;

    count(name):name 为非主键索引,扫描的 name 不为 null 的数据;

    若 name、id都为int 类型 ,性能的高低顺序:count(1) > count(name) == count(*)  >  count(id); 

    count 辅助索引的性能高于主键索引,因为主键索引的叶子节点存储的是全部的记录,辅助索引叶子节点只存储了主键值,使用主键索引的时候有较多的数据加载到内存中,相对于辅助索引就会慢;

    5.7版本,推荐使用 count(*);
    为什么mysql最终选择辅助索引而不是主键聚集索引?因为二级索引相对主键索引存储数据更少,检索性能应该更高;

    常见优化方法
    1、查询mysql自己维护的总行数
    对于myisam存储引擎的表做不带where条件的count查询性能是很高的,因为myisam存储引擎的表的总行数会被mysql存储在磁盘上,查询不需要计算 ;

     对于innodb存储引擎的表mysql不会存储表的总记录行数,查询count需要实时计算
    2、show table status
    如果只需要知道表总行数的估计值b不需要知道精确值,可以用如下sql查询,性能很高 ;

    show table STATUS like 'employees';

    3、将总数维护到Redis里
    插入或删除表数据行的时候同时维护redis里的表总行数key的计数值(用 incr或decr命令),但是这种方式可能不准,很难保证表操作和redis操作的事务一致性;
    4、增加计数表
    插入或删除表数据行的时候同时维护计数表,让他们在同一个事务里操作;

     

     

    
    





     

     

  • 相关阅读:
    【Linux】【Services】【SaaS】Docker+kubernetes(11. 构建复杂的高可用网络)
    【Linux】【Services】【SaaS】Docker+kubernetes(10. 利用反向代理实现服务高可用)
    socketserver.py
    Python 字符中文坑
    H3C对接华为S5700s---配置链路聚合
    format使用
    python 登入接口
    python 多级菜单
    Windows 下安装MongoDB
    Gerrit 服务器安装插件
  • 原文地址:https://www.cnblogs.com/yufeng218/p/12544941.html
Copyright © 2020-2023  润新知