慢查询优化

建索引的几大原则

  • 最左前缀匹配原则。MySQL 从左到右遇到范围查询 (>、<、between、like) 后停止匹配。比如 a = 1 and b = 2 and c > 3 and d = 4 查询语句,如果建立 (a, b, c, d) 顺序的索引,d 字段是用不到索引的;如果建立 (a, b, d, c) 顺序的索引,则所有字段都可以用到索引。

  • = 和 in 可以乱序。比如 a = 1 and b = 2 and c = 3 查询语句,建立 (a, b, c) 索引可以任意顺序。MySQL 查询优化器可以优化成索引可以识别的形式。

  • 选择区分度高的列作为索引。区分度的公式是 count(distinct col)/count(*),比例越大,说明重复的值越少,扫描的记录数越少,唯一索引的区分度为 1。对于性别、状态等字段在大数据面前区分度就是 0。使用场景不同,这个值也很难确定,一般需要 join 的字段我们 (原作者) 都要求是 0.1 以上,即平均 1 条扫描 10 条记录。

  • 尽量扩展索引,而不是新建索引。比如表中有 a 字段的索引,新增 (a, b) 的索引,直接修改原来的索引即可。当前修改索引,只能先删除索引再建立索引

慢查询优化基本步骤

  1. 先运行看看是否真的很慢,注意设置 SQL_NO_CACHE
  2. where 条件单表查,锁定最小返回记录表。这句话的意思是把查询语句的 where 都应用到表中返回的记录数最小的表开始查起,单表每个字段分别查询,看哪个字段的区分度最高
  3. explain 查看执行计划,是否与 1 预期一致(从锁定记录较少的表开始查询)
  4. order by limit 形式的 sql 语句让排序的表优先查
  5. 解业务方使用场景
  6. 加索引时参照建索引的几大原则
  7. 观察结果,不符合预期继续从 0 分析

关联查询优化

  • 左连接时,右表/被驱动表要建立索引,因此要根据连接列从右表中获得数据。
  • 内连接时,如果有一个表有索引,那么该表被设置为被驱动表;否则,根据表大小等因素确定驱动与被驱动表。
  • 最好使用小表驱动大表,即对大表的数据建立索引。
  • 大表和小表的定义为,两个表按照各自条件过滤,过滤之后,计算参与 join 连接字段的数据量。数据量小的为小表。
  • straight_join 关键字可以让 MySQL 使用连接顺序进行执行查询。
  • join 字段,数据类型保持绝对一致,否则不走索引。
  • 尽量使用连接查询代替子查询。

子查询优化

子查询效率不高。

  • 执行子查询时,MySQL 需要为内层查询语句的查询结果 建立一个临时表,然后外层查询语句从临时表中查询记录。查询完毕后,再 撤销这些临时表。这样会消耗过多的 CPU 和 IO 资源,产生大量的慢查询。
  • 子查询的结果集存储的临时表,不论是内存临时表还是磁盘临时表都 不会存在索引,所以查询性能会受到一定的影响。
  • 对于返回结果集比较大的子查询,其对查询性能的影响也就越大。

在 MySQL 中,可以使用连接(JOIN)查询来替代子查询。连接查询不需要建立临时表,其速度比子查询要快,如果查询中使用索引的话,性能就会更好。

结论:尽量不要使用 NOT IN 或者 NOT EXISTS,用 LEFT JOIN xxx ON xx WHERE xx IS NULL 替代

排序优化

MySQL 支持两种排序方式,分别是 Filesort 排序和 index 排序。

  • index 排序,索引可以保证数据的有序性,不需要再排序,效率高。
  • Filesort 排序,一般在内存中进行排序,占用 CPU 较多。如果需要排序的结果较多,会产生临时文件 IO 到磁盘中,效率更低。
  1. 在 WHERE 子句中避免全表扫描,在 ORDER BY 子句避免使用 Filesort 排序。
  2. 去掉 Filesort 不一定比没去掉 Filesort 快,需要根据数据量和 MySQL 实际选择判断。
  3. 尽量使用 Index 完成 ORDER BY 排序。如果 WHERE 和 ORDER BY 后面是相同的列就使用单索引列;如果不同就使用联合索引。
  4. 无法使用 Index 时,需要对 Filesort 方式进行调优。
  5. 多个索引同时存在,mysql 自动选择最优的方案。但是,随着数据量的变化,选择的索引也会随之变化的。
  6. 当【范围条件】和【group by 或者 order by】的字段出现二选一时,优先观察条件字段的过滤数量,如果过滤的数据足够多,而需要排序的数据并不多时,优先把索引放在范围字段上。反之,亦然。
CREATE  INDEX idx_age_classid_name ON student (age,classid,NAME);
SELECT  * FROM student ORDER BY age,classid;  # 需要回表,没有 limit 限制,使用 Filesort
SELECT  age,classid,name,id FROM student ORDER BY age,classid;  # 使用索引,直接返回
SELECT  * FROM student ORDER BY age,classid LIMIT 10;  # 使用索引
INDEX a_b_c(a,b,c)
order by 能使用索引最左前缀
- ORDER BY a
- ORDER BY a,b
- ORDER BY a,b,c
- ORDER BY a DESC,b DESC,c DESC
如果WHERE使用索引的最左前缀定义为常量,则 order by 能使用索引
- WHERE a = const ORDER BY b,c
- WHERE a = const AND b = const ORDER BY c
- WHERE a = const ORDER BY b,c
- WHERE a = const AND b > const ORDER BY b,c
不能使用索引进行排序
- ORDER BY a ASC,b DESC,c DESC /* 排序不一致 */
- WHERE g = const ORDER BY b,c /*丢失a索引*/
- WHERE a = const ORDER BY c /*丢失b索引*/
- WHERE a = const ORDER BY a,d /*d不是索引的一部分*/
- WHERE a in (...) ORDER BY b,c /*对于排序来说,多个相等条件也是范围查询*/

EXPLAIN SELECT SQL_NO_CACHE * FROM student WHERE age = 30 AND stuno <101000 ORDER BY NAME;

优化思路:

  • 建立索引来去掉 Filesort,中等。
    CREATE INDEX idx_age_name ON student(age,NAME);
  • 没去掉 Filesort,尽量让 where 的过滤条件和排序使用上索引,最快。
    CREATE INDEX idx_age_stuno_name ON student (age,stuno);
    CREATE INDEX idx_age_stuno_name ON student (age,stuno,NAME);
  • 原因:
    排序是在 where 过滤后执行的。如果条件过滤了大部分数据,剩下的数据使用 Filesort 排序并不消耗性能。索引优化了排序,但是提升的性能有限。这里 stuno 字段数据量较多,建立该字段的索引性价比更高。

Filesort 算法

  • MySQL4.1 前使用 双路排序
    先将 order by 对应的字段加载到内存中,对字段进行排序;排序后,将需要的其他字段加载到内存中。
  • MySQL 当前使用 单路排序
    一次将所有需要的列加载到内存中,按照 order by 列在内存中排序;排序后,直接输出。
    避免了二次读取数据,随机 IO 变成顺序 IO,但是会消耗更多的空间。
    如果 sort_buffer 小于一次加载的容量,那么可能会产生临时文件保存到磁盘,变成多次 IO 操作,得不偿失。

Filesort 算法改进

  1. 尝试提高 sort_buffer_size
    排序时 buffer 的最大容量。
  2. 尝试提高 max_length_for_sort_data
    大于该值,使用双路排序;小于该值,使用单路排序。
  3. order by 时 select * 是一个大忌,最好只查询需要的字段。

GROUP BY 优化

  • group by 使用索引的原则几乎跟 order by 一致,group by 即使没有过滤条件用到索引,也可以直接使用索引。
  • group by 先排序再分组,遵照索引建的最佳左前缀法则。
  • 当无法使用索引列,增大 max_length_for_sort_datasort_buffer_size 参数的设置
  • where 效率高于 having,能写在 where 限定的条件就不要写在 having 中了
  • 减少使用 order by,和业务沟通能不排序就不排序,或将排序放到程序端去做。order bygroup bydistinct 这些语句较为耗费 CPU,数据库的 CPU 资源是极其宝贵的。
  • 包含了 order bygroup bydistinct 这些查询的语句,where 条件过滤出来的结果集请保持在 1000 行以内,否则 SQL 会很慢。
  • MYSQL 8.0 不再进行 groupby 排序。

优化分页查询

当偏移量很大时,如 limit 100000,10 取第 100001-100010 条记录,mysql 会取出 100010 条记录然后将前 100000 条记录丢弃,这无疑是一种巨大的性能浪费。

SELECT * FROM student LIMIT 2000000, 10;

  • 在索引上完成排序分页操作,最后根据主键关联回原表查询所需要的其他列内容。
    EXPLAIN SELECT * FROM student t,(SELECT id FROM student ORDER BY id LIMIT 2000000, 10) a WHERE t.id = a.id;
  • 该方案适用于主键自增的表,可以把 Limit 查询转换成某个位置的查询。
    EXPLAIN SELECT * FROM student WHERE id > 2000000 LIMIT 10;

优先考虑覆盖索引

理解方式一:索引是高效找到行的一个方法,但是一般数据库也能使用索引找到一个列的数据,因此它不必读取整个行。毕竟索引叶子节点存储了它们索引的数据;当能通过读取索引就可以得到想要的数据,那就不需要读取行了。一个索引包含了满足查询结果的数据就叫做覆盖索引。

理解方式二:非聚簇复合索引的一种形式,它包括在查询里的 SELECT、JOIN 和 WHERE 子句用到的所有列(即建索引的字段正好是覆盖查询条件中所涉及的字段)。

简单说就是,索引列+主键包含 SELECT 到 FROM 之间查询的列。 覆盖索引,直接返回,不需要回表:

CREATE  INDEX idx_age_classid_name ON student (age,classid,NAME);
SELECT  age,classid,name,id FROM student ORDER BY age,classid; 
 
CREATE INDEX idx_age_name ON student (age,NAME);
EXPLAIN SELECT age,NAME FROM student WHERE age <> 20;
EXPLAIN SELECT id,age FROM student WHERE NAME LIKE '%abc';
  • 避免 Innodb 表进行索引的二次查询(回表)
  • 可以把随机 IO 变成顺序 IO 加快查询效率
  • 索引字段的维护总是有代价的。因此,在建立冗余索引来支持覆盖索引时就需要权衡考虑了。这是业务 DBA,或者称为业务数据架构师的工作。

覆盖索引的第二个用处,延迟关联:
使用覆盖索引先获得需要查询的主键,之后再在主键索引中查询数据。

索引下推

查询过程
select id from test where k=5;
普通索引查到 k=5 后,继续查找到不满足 k=5 的记录。唯一索引查到 k=5 后,直接停止。但普通索引和唯一性索引的查询,性能差距基本不大。

更新过程
当需要更新一个数据页时,如果数据页在内存中就直接更新,而如果这个数据页还没有在内存中的话,在不影响数据一致性的前提下, InooDB 会将这些更新操作缓存在 change buffer 中,这样就不需要从磁盘中读入这个数据页了。在下次查询需要访问这个数据页的时候,将数据页读入内存,然后执行 change buffer 中与这个页有关的操作。通过这种方式就能保证这个数据逻辑的正确性。

change buffer 中的操作应用到原数据页,得到最新结果的过程称为 merge 。除了访问这个数据页会触发 merge 外,系统有后台线程会定期 merge。在数据库正常关闭(shutdown) 的过程中,也会执行 merge 操作。

如果能够将更新操作先记录在 change buffer,减少读磁盘,语句的执行速度会得到明显的提升。而且,数据读入内存是需要占用 buffer pool 的,所以这种方式还能够避免占用内存,提高内存利用率。

什么条件下可以使用 change buffer 呢?

对于唯一索引来说,所有的更新操作都要先判断这个操作是否违法唯一性约束。比如插入 k=4 的情况,需要将数据页读入内存才能判断。如果都已经读入到内存了,那直接更新内存会更快,就没必要使用 change buffer 了。普通索引可以使用。

change buffer 用的是 buffer pool 里的内存,因此不能无限增大。change buffer 的大小可以通过 innodb_change_buffer_max_size 来动态设置。50 表示 change buffer 的大小最多占用 buffer pool50%

插入新纪录(4, 400)的话,InnoDB 的处理流程

  • 更新的目标页在内存中。
    唯一索引,找到 3-5 的位置,判断冲突,插入数据;
    普通索引,找到 3-5 的位置,插入数据。
  • 更新的目标页不在内存中。
    唯一索引,数据页读入内存中,判断冲突与插入数据;
    普通索引,将更新记录在 change buffer 中。

因此,如果有大量数据插入操作时,将唯一索引更改为普通索引效果会好些,降低了数据页读入内存的 IO 操作。

change buffer 的使用场景

  • 只用于普通索引中,不适用于唯一索引。
  • 对于写多读少情况,change buffer 的效果比较好,一般是账单类、日志类系统。
  • 对于读多情况,由于访问数据页,会立即触发 merge 操作。这样随机 IO 次数不会减少,还需要对 change buffer 进行维护,因此不适合 change buffer,将其关闭。

其他查询优化策略

EXISTIN 的区分

  • A 表数据多,使用 in
    SELECT * FROM A WHERE cc IN (SELECT cc FROM B)
  • A 表数据小,使用 exist
    SELECT * FROM A WHERE EXISTS (SELECT cc FROM B WHERE B.cc=A.cc)

**COUNT(*)COUNT(1) **

  • 两者时间差不多。
  • MyISAM 引擎,O(1) 的复杂度,存在 meta 信息存储了 row_count 值。
  • InnoDB 引擎,O(n) 的复杂度。
  • CONUT(具体字段) 时,InnoDB 引擎最好采用二级索引。因为主键索引是聚集索引,一个数据页中存储的数据较少,需要查看的数据页会较多。
  • COUNT(*)COUNT(1)InnoDB 引擎会自动采用占用空间 key_len 更小的二级索引来统计,没有时才会选择主键索引统计。

**不建议使用 SELECT(*) **

  • MySQL 解析过程中,会通过查询数据字典将 * 转换为所有的列名,耗费资源和时间
  • 无法使用覆盖索引
  • 后续增加数据字段后,SELECT(*) 的结果会不同。

LIMIT 1 对优化的影响
针对的是会扫描全表的 SQL 语句,如果你可以确定结果集只有一条,那么加上 LIMIT 1 的时候,当找到一条结果的时候就不会继续扫描了,这样会加快查询速度。如果数据表已经对字段建立了唯一索引,就不需要了。

慢查询案例

复杂语句写法

select
   distinct cert.emp_id 
from
   cm_log cl 
inner join
   (
      select
         emp.id as emp_id,
         emp_cert.id as cert_id 
      from
         employee emp 
      left join
         emp_certificate emp_cert 
            on emp.id = emp_cert.emp_id 
      where
         emp.is_deleted=0
   ) cert 
      on (
         cl.ref_table='Employee' 
         and cl.ref_oid= cert.emp_id
      ) 
      or (
         cl.ref_table='EmpCertificate' 
         and cl.ref_oid= cert.cert_id
      ) 
where
   cl.last_upd_date >='2013-11-07 15:03:00' 
   and cl.last_upd_date<='2013-11-08 16:00:00';
  1. 先运行一下,53 条记录 1.87 秒,又没有用聚合语句,比较慢
53 rows in set (1.87 sec)

1.explain

+----+-------------+------------+-------+---------------------------------+-----------------------+---------+-------------------+-------+--------------------------------+
| id | select_type | table      | type  | possible_keys                   | key                   | key_len | ref               | rows  | Extra                          |
+----+-------------+------------+-------+---------------------------------+-----------------------+---------+-------------------+-------+--------------------------------+
|  1 | PRIMARY     | cl         | range | cm_log_cls_id,idx_last_upd_date | idx_last_upd_date     | 8       | NULL              |   379 | Using where; Using temporary   |
|  1 | PRIMARY     | <derived2> | ALL   | NULL                            | NULL                  | NULL    | NULL              | 63727 | Using where; Using join buffer |
|  2 | DERIVED     | emp        | ALL   | NULL                            | NULL                  | NULL    | NULL              | 13317 | Using where                    |
|  2 | DERIVED     | emp_cert   | ref   | emp_certificate_empid           | emp_certificate_empid | 4       | meituanorg.emp.id |     1 | Using index                    |
+----+-------------+------------+-------+---------------------------------+-----------------------+---------+-------------------+-------+--------------------------------+

简述一下执行计划,首先 mysql 根据 idx_last_upd_date 索引扫描 cm_log 表获得 379 条记录;然后查表扫描了 63727 条记录,分为两部分,derived 表示构造表,也就是不存在的表,可以简单理解成是一个语句形成的结果集,后面的数字表示语句的 ID。derived2 表示的是 ID = 2 的查询构造了虚拟表,并且返回了 63727 条记录。我们再来看看 ID = 2 的语句究竟做了写什么返回了这么大量的数据,首先全表扫描 employee 表 13317 条记录,然后根据索引 emp_certificate_empid 关联 emp_certificate 表,rows = 1 表示,每个关联都只锁定了一条记录,效率比较高。获得后,再和 cm_log 的 379 条记录根据规则关联。从执行过程上可以看出返回了太多的数据,返回的数据绝大部分 cm_log 都用不到,因为 cm_log 只锁定了 379 条记录。

如何优化呢?可以看到我们在运行完后还是要和 cm_log 做 join, 那么我们能不能之前和 cm_log 做 join 呢?仔细分析语句不难发现,其基本思想是如果 cm_log 的 ref_table 是 EmpCertificate 就关联 emp_certificate 表,如果 ref_table 是 Employee 就关联 employee 表,我们完全可以拆成两部分,并用 union 连接起来,注意这里用 union,而不用 union all 是因为原语句有“distinct”来得到唯一的记录,而 union 恰好具备了这种功能。如果原语句中没有 distinct 不需要去重,我们就可以直接使用 union all 了,因为使用 union 需要去重的动作,会影响 SQL 性能。

优化过的语句如下:

select
   emp.id 
from
   cm_log cl 
inner join
   employee emp 
      on cl.ref_table = 'Employee' 
      and cl.ref_oid = emp.id  
where
   cl.last_upd_date >='2013-11-07 15:03:00' 
   and cl.last_upd_date<='2013-11-08 16:00:00' 
   and emp.is_deleted = 0  
union
select
   emp.id 
from
   cm_log cl 
inner join
   emp_certificate ec 
      on cl.ref_table = 'EmpCertificate' 
      and cl.ref_oid = ec.id  
inner join
   employee emp 
      on emp.id = ec.emp_id  
where
   cl.last_upd_date >='2013-11-07 15:03:00' 
   and cl.last_upd_date<='2013-11-08 16:00:00' 
   and emp.is_deleted = 0
  1. 不需要了解业务场景,只需要改造的语句和改造之前的语句保持结果一致

  2. 现有索引可以满足,不需要建索引

  3. 用改造后的语句实验一下,只需要 10ms 降低了近 200 倍!

+----+--------------+------------+--------+---------------------------------+-------------------+---------+-----------------------+------+-------------+
| id | select_type  | table      | type   | possible_keys                   | key               | key_len | ref                   | rows | Extra       |
+----+--------------+------------+--------+---------------------------------+-------------------+---------+-----------------------+------+-------------+
|  1 | PRIMARY      | cl         | range  | cm_log_cls_id,idx_last_upd_date | idx_last_upd_date | 8       | NULL                  |  379 | Using where |
|  1 | PRIMARY      | emp        | eq_ref | PRIMARY                         | PRIMARY           | 4       | meituanorg.cl.ref_oid |    1 | Using where |
|  2 | UNION        | cl         | range  | cm_log_cls_id,idx_last_upd_date | idx_last_upd_date | 8       | NULL                  |  379 | Using where |
|  2 | UNION        | ec         | eq_ref | PRIMARY,emp_certificate_empid   | PRIMARY           | 4       | meituanorg.cl.ref_oid |    1 |             |
|  2 | UNION        | emp        | eq_ref | PRIMARY                         | PRIMARY           | 4       | meituanorg.ec.emp_id  |    1 | Using where |
| NULL | UNION RESULT | <union1,2> | ALL    | NULL                            | NULL              | NULL    | NULL                  | NULL |             |
+----+--------------+------------+--------+---------------------------------+-------------------+---------+-----------------------+------+-------------+
53 rows in set (0.01 sec)

明确应用场景

举这个例子的目的在于颠覆我们对列的区分度的认知,一般上我们认为区分度越高的列,越容易锁定更少的记录,但在一些特殊的情况下,这种理论是有局限性的。

select
   * 
from
   stage_poi sp 
where
   sp.accurate_result=1 
   and (
      sp.sync_status=0 
      or sp.sync_status=2 
      or sp.sync_status=4
   );
  1. 先看看运行多长时间, 951 条数据 6.22 秒,真的很慢。
951 rows in set (6.22 sec)
  1. 先 explain,rows 达到了 361 万,type = ALL 表明是全表扫描。
+----+-------------+-------+------+---------------+------+---------+------+---------+-------------+
| id | select_type | table | type | possible_keys | key  | key_len | ref  | rows    | Extra       |
+----+-------------+-------+------+---------------+------+---------+------+---------+-------------+
|  1 | SIMPLE      | sp    | ALL  | NULL          | NULL | NULL    | NULL | 3613155 | Using where |
+----+-------------+-------+------+---------------+------+---------+------+---------+-------------+
 
  1. 所有字段都应用查询返回记录数,因为是单表查询 0 已经做过了 951 条。

  2. 让 explain 的 rows 尽量逼近 951。

看一下 accurate_result = 1 的记录数:

select count(*),accurate_result from stage_poi  group by accurate_result;
+----------+-----------------+
| count(*) | accurate_result |
+----------+-----------------+
|     1023 |              -1 |
|  2114655 |               0 |
|   972815 |               1 |
+----------+-----------------+

我们看到 accurate_result 这个字段的区分度非常低,整个表只有-1, 0, 1 三个值,加上索引也无法锁定特别少量的数据。

再看一下 sync_status 字段的情况:

select count(*),sync_status from stage_poi  group by sync_status;
+----------+-------------+
| count(*) | sync_status |
+----------+-------------+
|     3080 |           0 |
|  3085413 |           3 |
+----------+-------------+

同样的区分度也很低,根据理论,也不适合建立索引。

问题分析到这,好像得出了这个表无法优化的结论,两个列的区分度都很低,即便加上索引也只能适应这种情况,很难做普遍性的优化,比如当 sync_status 0、3 分布的很平均,那么锁定记录也是百万级别的。

  1. 找业务方去沟通,看看使用场景。业务方是这么来使用这个 SQL 语句的,每隔五分钟会扫描符合条件的数据,处理完成后把 sync_status 这个字段变成 1, 五分钟符合条件的记录数并不会太多,1000 个左右。了解了业务方的使用场景后,优化这个 SQL 就变得简单了,因为业务方保证了数据的不平衡,如果加上索引可以过滤掉绝大部分不需要的数据。

  2. 根据建立索引规则,使用如下语句建立索引

alter table stage_poi add index idx_acc_status(accurate_result,sync_status);
  1. 观察预期结果, 发现只需要 200ms,快了 30 多倍。
952 rows in set (0.20 sec)

我们再来回顾一下分析问题的过程,单表查询相对来说比较好优化,大部分时候只需要把 where 条件里面的字段依照规则加上索引就好,如果只是这种“无脑”优化的话,显然一些区分度非常低的列,不应该加索引的列也会被加上索引,这样会对插入、更新性能造成严重的影响,同时也有可能影响其它的查询语句。所以我们第 4 步调差 SQL 的使用场景非常关键,我们只有知道这个业务场景,才能更好地辅助我们更好的分析和优化查询语句。

无法优化的语句

select
   c.id,
   c.name,
   c.position,
   c.sex,
   c.phone,
   c.office_phone,
   c.feature_info,
   c.birthday,
   c.creator_id,
   c.is_keyperson,
   c.giveup_reason,
   c.status,
   c.data_source,
   from_unixtime(c.created_time) as created_time,
   from_unixtime(c.last_modified) as last_modified,
   c.last_modified_user_id  
from
   contact c  
inner join
   contact_branch cb 
      on  c.id = cb.contact_id  
inner join
   branch_user bu 
      on  cb.branch_id = bu.branch_id 
      and bu.status in (
         1,
      2)  
   inner join
      org_emp_info oei 
         on  oei.data_id = bu.user_id 
         and oei.node_left >= 2875 
         and oei.node_right <= 10802 
         and oei.org_category = - 1  
   order by
      c.created_time desc  limit 0 ,
      10;

还是几个步骤。

  1. 先看语句运行多长时间,10 条记录用了 13 秒,已经不可忍受。
10 rows in set (13.06 sec)
  1. explain
+----+-------------+-------+--------+-------------------------------------+-------------------------+---------+--------------------------+------+----------------------------------------------+
| id | select_type | table | type   | possible_keys                       | key                     | key_len | ref                      | rows | Extra                                        |
+----+-------------+-------+--------+-------------------------------------+-------------------------+---------+--------------------------+------+----------------------------------------------+
|  1 | SIMPLE      | oei   | ref    | idx_category_left_right,idx_data_id | idx_category_left_right | 5       | const                    | 8849 | Using where; Using temporary; Using Filesort |
|  1 | SIMPLE      | bu    | ref    | PRIMARY,idx_userid_status           | idx_userid_status       | 4       | meituancrm.oei.data_id   |   76 | Using where; Using index                     |
|  1 | SIMPLE      | cb    | ref    | idx_branch_id,idx_contact_branch_id | idx_branch_id           | 4       | meituancrm.bu.branch_id  |    1 |                                              |
|  1 | SIMPLE      | c     | eq_ref | PRIMARY                             | PRIMARY                 | 108     | meituancrm.cb.contact_id |    1 |                                              |
+----+-------------+-------+--------+-------------------------------------+-------------------------+---------+--------------------------+------+----------------------------------------------+

从执行计划上看,mysql 先查 org_emp_info 表扫描 8849 记录,再用索引 idx_userid_status 关联 branch_user 表,再用索引 idx_branch_id 关联 contact_branch 表,最后主键关联 contact 表。

rows 返回的都非常少,看不到有什么异常情况。我们在看一下语句,发现后面有 order by + limit 组合,会不会是排序量太大搞的?于是我们简化 SQL,去掉后面的 order by 和 limit,看看到底用了多少记录来排序。

select
  count(*)
from
   contact c  
inner join
   contact_branch cb 
      on  c.id = cb.contact_id  
inner join
   branch_user bu 
      on  cb.branch_id = bu.branch_id 
      and bu.status in (
         1,
      2)  
   inner join
      org_emp_info oei 
         on  oei.data_id = bu.user_id 
         and oei.node_left >= 2875 
         and oei.node_right <= 10802 
         and oei.org_category = - 1  
+----------+
| count(*) |
+----------+
|   778878 |
+----------+
1 row in set (5.19 sec)

发现排序之前居然锁定了 778878 条记录,如果针对 70 万的结果集排序,将是灾难性的,怪不得这么慢,那我们能不能换个思路,先根据 contact 的 created_time 排序,再来 join 会不会比较快呢?

于是改造成下面的语句,也可以用 straight_join 来优化:

select
   c.id,
   c.name,
   c.position,
   c.sex,
   c.phone,
   c.office_phone,
   c.feature_info,
   c.birthday,
   c.creator_id,
   c.is_keyperson,
   c.giveup_reason,
   c.status,
   c.data_source,
   from_unixtime(c.created_time) as created_time,
   from_unixtime(c.last_modified) as last_modified,
   c.last_modified_user_id   
from
   contact c  
where
   exists (
      select
         1 
      from
         contact_branch cb  
      inner join
         branch_user bu        
            on  cb.branch_id = bu.branch_id        
            and bu.status in (
               1,
            2)      
         inner join
            org_emp_info oei           
               on  oei.data_id = bu.user_id           
               and oei.node_left >= 2875           
               and oei.node_right <= 10802           
               and oei.org_category = - 1      
         where
            c.id = cb.contact_id    
      )    
   order by
      c.created_time desc  limit 0 ,
      10;

验证一下效果预计在 1ms 内,提升了 13000 多倍!

10 rows in set (0.00 sec)

本以为至此大工告成,但我们在前面的分析中漏了一个细节,先排序再 join 和先 join 再排序理论上开销是一样的,为何提升这么多是因为有一个 limit!大致执行过程是:mysql 先按索引排序得到前 10 条记录,然后再去 join 过滤,当发现不够 10 条的时候,再次去 10 条,再次 join,这显然在内层 join 过滤的数据非常多的时候,将是灾难的,极端情况,内层一条数据都找不到,mysql 还傻乎乎的每次取 10 条,几乎遍历了这个数据表!

用不同参数的 SQL 试验下:

select
   sql_no_cache   c.id,
   c.name,
   c.position,
   c.sex,
   c.phone,
   c.office_phone,
   c.feature_info,
   c.birthday,
   c.creator_id,
   c.is_keyperson,
   c.giveup_reason,
   c.status,
   c.data_source,
   from_unixtime(c.created_time) as created_time,
   from_unixtime(c.last_modified) as last_modified,
   c.last_modified_user_id    
from
   contact c   
where
   exists (
      select
         1        
      from
         contact_branch cb         
      inner join
         branch_user bu                     
            on  cb.branch_id = bu.branch_id                     
            and bu.status in (
               1,
            2)                
         inner join
            org_emp_info oei                           
               on  oei.data_id = bu.user_id                           
               and oei.node_left >= 2875                           
               and oei.node_right <= 2875                           
               and oei.org_category = - 1                
         where
            c.id = cb.contact_id           
      )        
   order by
      c.created_time desc  limit 0 ,
      10;
Empty set (2 min 18.99 sec)

2 min 18.99 sec!比之前的情况还糟糕很多。由于 mysql 的 nested loop 机制,遇到这种情况,基本是无法优化的。这条语句最终也只能交给应用系统去优化自己的逻辑了。

通过这个例子我们可以看到,并不是所有语句都能优化,而往往我们优化时,由于 SQL 用例回归时落掉一些极端情况,会造成比原来还严重的后果。所以,第一:不要指望所有语句都能通过 SQL 优化,第二:不要过于自信,只针对具体 case 来优化,而忽略了更复杂的情况。

慢查询的案例就分析到这儿,以上只是一些比较典型的案例。我们在优化过程中遇到过超过 1000 行,涉及到 16 个表 join 的“垃圾 SQL”,也遇到过线上线下数据库差异导致应用直接被慢查询拖死,也遇到过 varchar 等值比较没有写单引号,还遇到过笛卡尔积查询直接把从库搞死。再多的案例其实也只是一些经验的积累,如果我们熟悉查询优化器、索引的内部原理,那么分析这些案例就变得特别简单了。