zoukankan      html  css  js  c++  java
  • 数据库优化举例详解

    数据库优化举例详解

    数据库是所有架构中不可缺少的一环,一旦数据库出现性能问题,那对整个系统都会来带灾难性的后果。并且数据库一旦出现问题,由于数据库天生有状态(分主从)带数据(一般还不小),所以出问题之后的恢复时间一般不太可控,所以,对数据库的优化是需要我们花费很多精力去做的。

    硬件层优化

    这一层最简单,最近几年相信大家对SSD这个名词并不陌生,其超高的IOPS在刚出现在大家视野中的时候就让人惊艳了一把,而随着最近价格的不断下调,已经非常具有性价比,目前微博已经把SSD服务器作为数据库类服务的标配。

    我们来看下我们早些年自己对SSD的OLTP的性能测试:

    14566431644584.jpg

    可以看到OLTP的QPS可以达到2.7w左右,配合1m2s的架构可以支持5w的QPS,在一些简单场景下,甚至可以不必配置Cache层来做缓存。

    PS:硬件测试最好自己进行实测,官方数据仅能作为一个参考值,因为很多时候性能要严重依赖于场景,细化到不同的SQL会得到相差很大的结论,故最好自行测试。

    微博在2012年的时候使用PCIE-FLASH支撑了Feed系统在春晚3.5w的QPS,在初期很好的支撑了业务的发展,为架构优化和改造争取了非常多的时间。

    并且大家可以看到,目前很多的云厂商的物理机基本全都是SSD设备,AWS更是虚机都提供SSD盘来提供IO性能,可以预见未来IO将不会在是数据库遇到的最大瓶颈点。

    经验:如果公司不差钱,最好直接投入SSD or PCIE-FLASH设备,而且投入的时间越早越好。

    系统层优化

    配合SSD硬件之后,系统层原有的一些设计就出现了问题,比如IO scheduler,系统默认的为CFQ,主要针对的是机械硬盘进行的优化,由于机械硬盘需要通过悬臂寻道,所以CFQ是非常适合的。

    Complete Fair Queuing

    该算法为每一个进程分配一个时间窗口,在该时间窗口内,允许进程发出IO请求。通过时间窗口在不同进程间的移动,保证了对于所有进程而言都有公平的发出IO请求的机会。同时CFQ也实现了进程的优先级控制,可保证高优先级进程可以获得更长的时间窗口。

    但是由于SSD盘已经没有了寻道而是基于电子的擦除,所以CFQ算法已经明显的不合适了,一般情况下网上都推荐使用NOOP算法,但是我个人更推荐DEADLINE算法。我们看下这2种算法的特点。

    NOOP算法只拥有一个等待队列,每当来一个新的请求,仅仅是按FIFO的思路将请求插入到等待队列的尾部,默认认为 I/O不会存在性能问题,比较节省CPU资源。

    DEADLINE调度算法通过降低性能而获得更短的等待时间,它使用轮询的调度器,简洁小巧,提供了最小的读取延迟和尚佳的吞吐量,特别适合于读取较多的环境。

    从算法的特点看,NOOP确实更适合SSD介质,非常的简单,但是由于数据库型服务有很多复杂查询,简单的FIFO可能会造成一些事务很难拿到资源从而一直处于等待状态,所以个人更推荐使用DEADLINE。

    PS:更主要的是因为对这2个算法的压测显示性能并没有太明显的区别。

    以下是我们自己在线上业务调整之后的效果:

    14566450476283.jpg

    除了以上这点之外,还有一些小地方也许要调整,虽然收益不会看上去这么明显,但是聚沙成塔,积少成多,还是非常值得优化的。

    • 使用EXT4 or XFS
    • 在mount的时候加上 noatime属性
    • raid卡的读写策略改为write back
    • 使用jemalloc替换现有的Glibc

    经验:重点放在针对IO的优化上,数据库尤其是MySQL是IO密集型服务,解决IO的问题会减少不必要的问题。

    MySQL自身的优化

    我们先说说有那些参数可以带来性能的改变。

    • innodb_max_dirty_pages_pct

    争议比较大,一般来说都是在75-90之间,主要控制BP中的脏数据刷盘的时机,如果太小会频繁刷盘造成IO上升,如果太大会导致MySQL正常关闭的时候需要很长的时间才能normal shutdown,具体需要看实际场景,个人推荐90。

    • innodb_io_capacity

    磁盘IO吞吐,具体为缓冲区落地的时候,可以刷脏页的数量,默认200,由于使用了SSD硬盘,所以推荐设置到3000-5000。

    • innodb_read_io_threads
    • innodb_write_io_threads

    增加后台处理线程的数目,默认为4,推荐改成8。

    • sync_binlog
    • innodb_flush_log_at_trx_commit

    著名的双1参数,对性能影响非常的大。
    sync_binlog控制刷binlog的策略,MySQL在每写N次 二进制日志binary log时,会使用fdatasync()函数将它的写二进制日志binary log同步到磁盘中去。

    innodb_flush_log_at_trx_commit控制log buffer刷log file的策略,设置为0的时候每秒刷新一次,设置为1的时候每次commit都会刷新。

    从上述描述就可以看出如果追求数据的安全性,那么设置双一是最安全的,如果追求性能最大化,那么双0最合适,这中间可以相差至少2倍的性能。

    • innodb_log_file_size

    innodb redo log的size大小,5.5最大4G,5.6最大256G,这个越大可以提升写的性能,大部分时候不需要等待checkpoint覆盖就可以一直write。

    • query_cache_type

    看上去很美的东西,但是在实际生产环境中,多次给我们带来了故障,由于每次表的更新都会清空Buffer,并且对于SQL的匹配是逐个字符效验实际效果很长,大部分时间并没有得到cache的效果,反而得到了很多wait for query cache lock。建议关闭。

    以上,仅针对MySQL 5.5,目前我们还在摸索5.6和5.7由于还没有大规模线上使用,所以还谈不上有什么经验。

    经验:如果有人力可以投入,可以学习BAT针对数据库进行二次开发,通过path的方式获得更高的性能和稳定性。如果没有人力,只要深入了解MySQL自身参数的影响也可以满足业务的需求,不用一味的追源码级别的开发改造。

    业务优化

    所谓的业务优化其实说白了很多时候就是index的优化,我们DBA常说一条慢SQL就能将上面所有的优化都付之一炬,CPU直接打满,RT全都都飙升到500ms甚至1s以上。

    优化慢查有三宝:

    • pt-query-digest
    • explain
    • show profiling

    首先,使用pt-query-digest可以定位到定位影响最中的慢查是哪条。

    14566486247744.jpg

    然后通过explain具体分析慢查晓的问题所在。

    14566489444037.jpg

    重点查看type,rows和extra这三个字段。

    其中type的顺序如下:

    system>const>eq_ref>ref>fulltext>ref_or_null>index_merge>unique_subquery>index_subquery>range>index>ALL
    

    最后,如果问题还是比较严重,可以通过show profiling来定位一下到底是那个环节出现的问题。

    14566494227555.jpg

    可以看到sending data最消耗时间,这时候就需要找到底为什么在sending上消耗了这么多的时间,是结果集太大,还是IO性能不够了,诸如此类。

    以下就是一个复杂语句的优化结果,可以从rows那里明显的看出减少了很多查询的开销。

    14566491533964.jpg

    经验:最好建立慢查询监控系统,每天都花时间在慢查的优化上,避免一条SQL引发的血案之类的事情发生。

    架构优化

    最后,也就是终极手段了,那就是架构优化,其实很多时候,当我们将上面几个方向都做了之后发现还没有很好的效果,那就必须找开发同学一起聊一下了。

    PS:当然找PM同学聊一下人生会更有效果。

    记得有一次,我们找开发聊了一下,最后开发决定将这个功能改掉,这个时候你会突然发现无论什么优化手段都比不上「不做」这个优化手段,简直无敌了。

    根据我个人的经验来说架构层的优化有如下几个普适原则:

    • Cache为王

    热点数据必须使用Redis或者mc之类的Cache抗量,让MySQL抗流量是不明智的。

    • 使用队列消峰

    众所周知MySQL的异步同步机制是单线程的,所有主库上的并发到从库上都是通过io-thread来慢慢做的,即使主库写入速度再快,从库延迟了,整个集群还是不可用,所以最好采用队列来进行一定的写入消峰,使写入维持在一个较为均衡的水平。

    • 适度的过度设计

    很多产品最开始的时候比较小,但是有可能上线之后广受好评一下用活跃度就上来了,这个时候如果数据库出现瓶颈需要拆分需要开发、DBA、架构师等等一起配合来做,而且很有可能没有时间。所以在产品初期进行一定的过度设计会为未来这种情况打好铺垫。最明显的就是拆库拆表,最好在一开始就对业务进行适度的垂直拆分和比较过度的水平拆分,以便应对业务的高速增长。

    举一个栗子:

    14566502684660.jpg

    1. 通过mcq降低对MySQL的写入性能的要求。
    2. 通过mc和Redis来承担用户的实际访问,90%的量依靠cache层承载和屏蔽。
    3. MySQL作为最终的数据落地,存储全量的数据,但是仅支撑部分业务查询,小于10%。

    经验:让合适的软件做适合的事情,不要光从技术层面思考优化方案,也要从需求方面去分解。

    总结中的总结

    转一篇很经典的数据库优化漏斗法则,很多年前就看到过,现在再看依然觉得适用,大家共勉。

    14566505315417.jpg

    唯一不适用的就是最下的增加资源,SSD真是个好东西,谁用谁知道。

    问答

    Q:MySQL缓存你们是如何用调配的?能否用类似Redis的NoSQL进行代替?

    A:我们默认都是关闭qc的,缓存有用mc也有用Redis,一般都是将热数据发在Cache中。

    Q:在开发过程中,进行多表联合查询时有什么好的建议或技巧?比如学生表、班级表、教师表、学生选修课程表,课程信息表。

    A:其实我想说,MySQL对join的优化并不太好,如果可能最好不用,如果要用最好也不要太多表join,而且最好用小结果集去驱动。

    Q:SSD寿命多少呢?

    A:看官方的说明,不过我们最早的用了快4年了,有部分出现了性能问题,但是大部分还都稳定运行。

    Q:MySQL单表支持多少数据量的时候性能最好?

    A:经验值,不要超过3kw行,不要超过30G。

    Q:我想问一下MySQL选型有考虑非官方,如MariaDB吗 ?MySQL集群方案和分库分表比较各有啥特点?

    A:官方和非官方的各有优势,我们是使用社区版本,主要方便交流,对于MariaDB只要有人持续跟进也是很不错的,我周围有很多朋友也在使用。不过对于DBA不充足的公司来说,还是建议社区版本,这样问题可以得到及时的解答。

    Q:这次分享有值鉴作用,对于架构方面,中间件使用的是什么,还是自己开发?主从同步存在的延迟是如何解决的?

    A:中间件我们是自己研发的,不过老实说也不是都用了,还是要看场景。主从延迟说起来都是泪,目前使用5.7的并行复制在解决。

    Q:在开发过程中,经常遇到一个表中字段非常多的情况,针对这种情况如何处理,是否要分表等处理如何去平衡?

    A:字段多不一定非要去分表,主要还是看是否存在性能问题,不过一般字段多会带来建index上的麻烦,所以最好还是进行垂直拆分的好。

    Q:什么阶段适合分库分区?对业务不稳定改动较大的业务数据库需要怎么做?

    A:预计短期内内会影响业务发展的就要做,如果不想对业务造成较大的影响,最好投入一定的服务器成本,先mirror一套集群改造完毕之后在切服务。

    Q:请问使用什么样的策略或者方式保证缓存与数据库中数据的一致性?在使用分库分表,主从复制等情况下。

    A:使用消息系统,或者采用类似异构复制中间件的软件(比如我们自己开发的Databus),先更新MySQL然后在更新Cache。

    Q:第一个问题,请教下上文提到MySQL异步同步机制是单线程的问题,是否考虑过修改为多线程同步来减少延迟,或者升级到5.6版本?第二个问题,除了性能优化,数据库的一致性也很重要这里能否有相关的分享,谢谢。

    A:是的,延迟目前看来最大的问题就是单线程复制导致,所以我们对5.7的并行复制非常的期待,而5.6的并行复制是基于库的,并不会有很大的改善。至于一致性,看场景,如果追求的非常严格,最好上双1以及半同步复制,或者改用PXC。

    Q:经验:重点放在针对IO的优化上,数据库尤其是MySQL是IO密集型服务,解决IO的问题会减少不必要的问题。—–有没有好的定位IO或者是监控IO的工具和好的经验?

    A:监控是很重要的,有能力就根据自己的需要写,如果不想投入开发人力直接使用开源的就好了,比如小米的Open-Falcon,主要就是监控细致一些,自然而然就能发现问题。

    Q:目前NoSQL非常火,基于文档的、基于列的、基于对象等等,前段时间用了用MongoDB,感觉如果数据结构设计和控制得好的话,要比MySQL效率高,你怎么看?

    A:对于数据库的选型我个人是秉着适合场景最优理论的,也就是每个数据库都有一个最适合自己的场景,在这个场景下选择它绝对是对的。目前我也在看MongoDB,AliCloud最近组织的杭州MongoDB用户会就挺火,不过对于MongoDB来说,最大的优势我认为是schema less和sharding,这对于开发和DBA来说都能节省很多的事情,但是最关键的是你还得hold住,否则还是用MySQL比较好。

    如需转载请注明: 转载自26点的博客

    本文链接地址: 数据库优化举例详解

  • 相关阅读:
    NET控件关于Popup Win控件的使用介绍(消息提示控件)[转]
    .net从数据库二进制字段下载附件(文件),解决中文乱码
    测试页面的运行时间
    HashTable 遍历的两种方法
    100款国外xhtml+css模板(免费)
    在SharpDevolop中使用wix3制作中文安装包
    ASP.NET中的Session解析(一)
    兴奋,我的小站GBA365成长中
    泛型集合的序列化和反序列化
    asp.net mvc项目只能运行在iis根目录下吗?
  • 原文地址:https://www.cnblogs.com/clphp/p/5360335.html
Copyright © 2011-2022 走看看