zoukankan      html  css  js  c++  java
  • 算法的艺术:MySQL order by对各种排序算法的巧用

      这篇文章中,我们介绍了索引树的页面怎么加载到内存中,如何淘汰,等底层细节。这篇文章我们从比较宏观的角度来看MySQL中关键字的原理。本文,我们主要探索order by语句的底层原理。阅读完本文,您将了解到:

      order by语句有哪些排序模式,以及每种排序模式的优缺点;

      order by语句会用到哪些排序算法,在什么场景下会选择哪种排序算法;

      如何查看和分析sql的order by优化手段(执行计划 + OPTIMIZER_TRACE日志);

      如何优化order by语句的执行效率?(思想:减小行大小,尽量走索引,能够走覆盖索引最佳,可适当增加sort buffer内存大小)

      这里我们从数据结构的维度来看数据和索引,也就是都当成B+树的的,我们需要数据的时候再从存储引擎的B+树中读取。

      以下是我们本文作为演示例子的表,假设我们有如下表:

      

      索引如下:

      

      对应的idx_d索引结构如下(这里我们做了一些夸张的手法,让一个页数据变小,为了展现在索引树中的查找流程):

      

      1、如何跟踪执行优化

      为了方便分析sql的执行流程,我们可以在当前session中开启 optimizer_trace:

      SET optimizer_trace='enabled=on';

      然后执行sql,执行完之后,就可以通过以下堆栈信息查看执行详情了:

      SELECT * FROM information_schema.OPTIMIZER_TRACEG;

      以下是

      1select a, b, c, d from t20 force index(idx_abc) where a=3 order by d limit 100,2;

      的执行结果,其中符合a=3的有8457条记录,针对order by重点关注以下属性:

      1"filesort_priority_queue_optimization": { // 是否启用优先级队列 2 "limit": 102, // 排序后需要取的行数,这里为 limit 100,2,也就是100+2=102 3 "rows_estimate": 24576, // 估计参与排序的行数 4 "row_size": 123, // 行大小 5 "memory_available": 32768, // 可用内存大小,即设置的sort buffer大小 6 "chosen": true // 是否启用优先级队列 7}, 8... 9"filesort_summary": {10 "rows": 103, // 排序过程中会持有的行数11 "examined_rows": 8457, // 参与排序的行数,InnoDB层返回的行数12 "number_of_tmp_files": 0, // 外部排序时,使用的临时文件数量13 "sort_buffer_size": 13496, // 内存排序使用的内存大小14 "sort_mode": "sort_key, additional_fields" // 排序模式15}

      1.1、排序模式

      其中 sort_mode有如下几种形式:

      sort_key, rowid:表明排序缓冲区元组包含排序键值和原始表行的行id,排序后需要使用行id进行回表,这种算法也称为original filesort algorithm(回表排序算法);

      sort_key, additional_fields:表明排序缓冲区元组包含排序键值和查询所需要的列,排序后直接从缓冲区元组取数据,无需回表,这种算法也称为modified filesort algorithm(不回表排序);

      sort_key, packed_additional_fields:类似上一种形式,但是附加的列(如varchar类型)紧密地打包在一起,而不是使用固定长度的编码。

      如何选择排序模式

      选择哪种排序模式,与max_length_for_sort_data这个属性有关,这个属性默认值大小为1024字节:

      如果查询列和排序列占用的大小超过这个值,那么会转而使用sort_key, rowid模式;

      如果不超过,那么所有列都会放入sort buffer中,使用sort_key, additional_fields或者sort_key, packed_additional_fields模式;

      如果查询的记录太多,那么会使用sort_key, packed_additional_fields对可变列进行压缩。

      1.2、排序算法

      基于参与排序的数据量的不同,可以选择不同的排序算法:

      如果排序取的结果很小,小于内存,那么会使用优先级队列进行堆排序;

      例如,以下只取了前面10条记录,会通过优先级队列进行排序:

      1select a, b, c, d from t20 force index(idx_abc) where a=3 order by d limit 10;

      如果排序limit n, m,n太大了,也就是说需要取排序很后面的数据,那么会使用sort buffer进行快速排序:

      如下,表中a=1的数据有三条,但是由于需要limit到很后面的记录,MySQL会对比优先级队列排序和快速排序的开销,选择一个比较合适的排序算法,这里最终放弃了优先级队列,转而使用sort buffer进行快速排序:

      1select a, b, c, d from t20 force index(idx_abc) where a=1 order by d limit 300,2;

      如果参与排序的数据sort buffer装不下了,那么我们会一批一批的给sort buffer进行内存快速排序,结果放入排序临时文件,最终使对所有排好序的临时文件进行归并排序,得到最终的结果;

      如下,a=3的记录超过了sort buffer,我们要查找的数据是排序后1000行起,sort buffer装不下1000行数据了,最终MySQL选择使用sort buffer进行分批快排,把最终结果进行归并排序:

      1select a, b, c, d from t20 force index(idx_abc) where a=3 order by d limit 1000,10;

      2、order by走索引避免排序

      执行如下sql:

      1select a, b, c, d from t20 force index(idx_d) where d like 't%' order by d limit 2;

      我们看一下执行计划:

      

      发现Extra列为:Using index condition,也就是这里只走了索引。

      执行流程如下图所示:

      通过idx_d索引进行range_scan查找,扫描到4条记录,然后order by继续走索引,已经排好序,直接取前面两条,然后去聚集索引查询完整记录,返回最终需要的字段作为查询结果。这个过程只需要借助索引。

      

      如何查看和修改sort buffer大小?

      我们看一下当前的sort buffer大小:

      

      可以发现,这里默认配置了sort buffer大小为512k。

      我们可以设置这个属性的大小:

      SET GLOBAL sort_buffer_size = 32*1024;

      或者

      SET sort_buffer_size = 32*1024;

      下面我们统一把sort buffer设置为32k

      1SET sort_buffer_size = 32*1024;

      3、排序算法案例

      3.1、使用优先级队列进行堆排序

      如果排序取的结果很小,并且小于sort buffer,那么会使用优先级队列进行堆排序;

      例如,以下只取了前面10条记录:

      1select a, b, c, d from t20 force index(idx_abc) where a=3 order by d limit 10;

      a=3的总记录数:8520。查看执行计划:

      

      发现这里where条件用到了索引,order by limit用到了排序。我们进一步看看执行的optimizer_trace日志:

      1"filesort_priority_queue_optimization": { 2 "limit": 10, 3 "rows_estimate": 27033, 4 "row_size": 123, 5 "memory_available": 32768, 6 "chosen": true // 使用优先级队列进行排序 7}, 8"filesort_execution": [ 9],10"filesort_summary": {11 "rows": 11,12 "examined_rows": 8520,13 "number_of_tmp_files": 0,14 "sort_buffer_size": 1448,15 "sort_mode": "sort_key, additional_fields"16}

      发现这里是用到了优先级队列进行排序。排序模式是:sort_key, additional_fields,即先回表查询完整记录,把排序需要查找的所有字段都放入sort buffer进行排序。

      所以这个执行流程如下图所示:

      通过where条件a=3扫描到8520条记录;

      回表查找记录;

      把8520条记录中需要的字段放入sort buffer中;

      在sort buffer中进行堆排序;

      在排序好的结果中取limit 10前10条,写入net buffer,准备发送给客户端。

      

      3.2、内部快速排序

      如果排序limit n, m,n太大了,也就是说需要取排序很后面的数据,那么会使用sort buffer进行快速排序。MySQL会对比优先级队列排序和归并排序的开销,选择一个比较合适的排序算法。

      如何衡量究竟是使用优先级队列还是内存快速排序?

      一般来说,快速排序算法效率高于堆排序,但是堆排序实现的优先级队列,无需排序完所有的元素,就可以得到order by limit的结果。

      MySQL源码中声明了快速排序速度是堆排序的3倍,在实际排序的时候,会根据待排序数量大小进行切换算法。如果数据量太大的时候,会转而使用快速排序。

      有如下SQL:

      1select a, b, c, d from t20 force index(idx_abc) where a=1 order by d limit 300,2;

      我们把sort buffer设置为32k:

      1SET sort_buffer_size = 32*1024;

      其中a=1的记录有3条。查看执行计划:

      

      可以发现,这里where条件用到了索引,order by limit 用到了排序。我们进一步看看执行的optimizer_trace日志:

      1"filesort_priority_queue_optimization": { 2 "limit": 302, 3 "rows_estimate": 27033, 4 "row_size": 123, 5 "memory_available": 32768, 6 "strip_additional_fields": { 7 "row_size": 57, 8 "sort_merge_cost": 33783, 9 "priority_queue_cost": 61158,10 "chosen": false // 对比发现快速排序开销成本比优先级队列更低,这里不适用优先级队列11 }12},13"filesort_execution": [14],15"filesort_summary": {16 "rows": 3,17 "examined_rows": 3,18 "number_of_tmp_files": 0,19 "sort_buffer_size": 32720,20 "sort_mode": "<sort_key, packed_additional_fields="">"21}

      可以发现这里最终放弃了优先级队列,转而使用sort buffer进行快速排序。

      所以这个执行流程如下图所示:

      通过where条件a=1扫描到3条记录;

      回表查找记录;

      把3条记录中需要的字段放入sort buffer中;

      在sort buffer中进行快速排序;

      在排序好的结果中取limit 300, 2第300、301条记录,写入net buffer,准备发送给客户端。

      

      3.3、外部归并排序

      当参与排序的数据太多,一次性放不进去sort buffer的时候,那么我们会一批一批的给sort buffer进行内存排序,结果放入排序临时文件,最终使对所有排好序的临时文件进行归并排序,得到最终的结果。

      有如下sql:

      1select a, b, c, d from t20 force index(idx_abc) where a=3 order by d limit 1000,10;

      其中a=3的记录有8520条。执行计划如下:

      

      image-20200614171147989

      可以发现,这里where用到了索引,order by limit用到了排序。进一步查看执行的optimizer_trace日志:

      1"filesort_priority_queue_optimization": { 2 "limit": 1010, 3 "rows_estimate": 27033, 4 "row_size": 123, 5 "memory_available": 32768, 6 "strip_additional_fields": { 7 "row_size": 57, 8 "chosen": false, 9 "cause": "not_enough_space" // sort buffer空间不够,无法使用优先级队列进行排序了10 }11},12"filesort_execution": [13],14"filesort_summary": {15 "rows": 8520,16 "examined_rows": 8520,17 "number_of_tmp_files": 24, // 用到了24个外部文件进行排序18 "sort_buffer_size": 32720,19 "sort_mode": "<sort_key, packed_additional_fields="">"20}

      我们可以看到,由于limit 1000,要返回排序后1000行以后的记录,显然sort buffer已经不能支撑这么大的优先级队列了,所以转而使用sort buffer内存排序,而这里需要在sort buffer中分批执行快速排序,得到多个排序好的外部临时文件,最终执行归并排序。(外部临时文件的位置由tmpdir参数指定)

      其流程如下图所示:

      

      4、排序模式案例

      4.1、sort_key, additional_fields模式

      sort_key, additional_fields,排序缓冲区元组包含排序键值和查询所需要的列(先回表取需要的数据,存入排序缓冲区中),排序后直接从缓冲区元组取数据,无需再次回表。

      上面 2.3.1、2.3.2节的例子都是这种排序模式,就不继续举例了。

      4.2、 模式

      sort_key, packed_additional_fields:类似上一种形式,但是附加的列(如varchar类型)紧密地打包在一起,而不是使用固定长度的编码。

      上面2.3.3节的例子就是这种排序模式,由于参与排序的总记录大小太大了,因此需要对附加列进行紧密地打包操作,以节省内存。

      4.3、 模式

      前面我们提到,选择哪种排序模式,与max_length_for_sort_data[2]这个属性有关,max_length_for_sort_data规定了排序行的最大大小,这个属性默认值大小为1024字节:

      

      也就是说如果查询列和排序列占用的大小小于这个值,这个时候会走sort_key, additional_fields或者sort_key, packed_additional_fields算法,否则,那么会转而使用sort_key, rowid模式。

      现在我们特意把这个值设置小一点,模拟sort_key, rowid模式:

      1SET max_length_for_sort_data = 100;

      这个时候执行sql:

      1select a, b, c, d from t20 force index(idx_abc) where a=3 order by d limit 10;

      这个时候再查看sql执行的optimizer_trace日志:

      1"filesort_priority_queue_optimization": { 2 "limit": 10, 3 "rows_estimate": 27033, 4 "row_size": 49, 5 "memory_available": 32768, 6 "chosen": true 7}, 8"filesort_execution": [ 9],10"filesort_summary": {11 "rows": 11,12 "examined_rows": 8520,13 "number_of_tmp_files": 0,14 "sort_buffer_size": 632,15 "sort_mode": "<sort_key, rowid="">"16}

      可以发现这个时候切换到了sort_key, rowid模式,在这个模式下,执行流程如下:

      where条件a=3扫描到8520条记录;

      回表查找记录;

      找到这8520条记录的id和d字段,放入sort buffer中进行堆排序;

      排序完成后,取前面10条;

      取这10条的id回表查询需要的a,b,c,d字段值;

      依次返回结果给到客户端。

      郑州市哪家医院男科好http://www.dlgcyy.net/

      郑州哪里看男科病好http://www.dlebhyy.cn/

      郑州不孕不育医院http://byby.zztjyy.com/

      

      可以发现,正因为行记录太大了,所以sort buffer中只存了需要排序的字段和主键id,以时间换取空间,最终排序完成,再次从聚集索引中查找到所有需要的字段返回给客户端,很明显,这里多了一次回表操作的磁盘读,整体效率上是稍微低一点的。

      5、order by优化总结

      根据以上的介绍,我们可以总结出以下的order by语句的相关优化手段:

      order by字段尽量使用固定长度的字段类型,因为排序字段不支持压缩;

      order by字段如果需要用可变长度,应尽量控制长度,道理同上;

      查询中尽量不用用select *,避免查询过多,导致order by的时候sort buffer内存不够导致外部排序,或者行大小超过了max_length_for_sort_data导致走了sort_key, rowid排序模式,使得产生了更多的磁盘读,影响性能;

      尝试给排序字段和相关条件加上联合索引,能够用到覆盖索引最佳。

      这篇文章的内容就差不多介绍到这里了,能够阅读到这里的朋友真的是很有耐心,为你点个赞。

      本文为arthinking基于相关技术资料和官方文档撰写而成,确保内容的准确性,如果你发现了有何错漏之处,烦请高抬贵手帮忙指正,万分感激。

      大家可以关注我的博客:itzhai.com 获取更多文章,我将持续更新后端相关技术,涉及JVM、Java基础、架构设计、网络编程、数据结构、数据库、算法、并发编程、分布式系统等相关内容。

      如果您觉得读完本文有所收获的话,可以关注我的账号,或者点个赞吧,码字不易,您的支持就是我写作的最大动力,再次感谢!

      关注我的公众号,及时获取最新的文章。

  • 相关阅读:
    Windows环境安装tesseract-ocr 4.00并配置环境变量
    python问题集
    使用CefSharp在.Net程序中嵌入Chrome浏览器(八)——Cookie
    python虛擬環境和工具
    pycharm使用(持续更新)
    醒过来的都市
    下一个十年计划6-作品
    下一个十年计划5-方向选择
    下一个十年计划4-反向选择
    负逻辑的实际应用
  • 原文地址:https://www.cnblogs.com/sushine1/p/13391748.html
Copyright © 2011-2022 走看看