zoukankan      html  css  js  c++  java
  • 使用子查询替代可提升 COUNT DISTINCT 速度 50 倍

    Count distinct是SQL分析时的祸根

    首先:如果你有一个大的且能够容忍不精确的数据集,那像HyperLogLog这样的概率计数器应该是你最好的选择。但对于需要快速、精准答案的查询,一些简单的子查询可以节省你很多时间。

    让我们以我们一直使用的一个简单查询开始:哪个图表的用户访问量最大?

    select
       dashboards.name,
       count(distinct time_on_site_logs.user_id)
    from time_on_site_logs 
    join dashboards on time_on_site_logs.dashboard_id = dashboards.id
    group by name 
    order by count desc

    首先,我们假设user_id和dashboard_id上已经设置了索引,且有比图表和用户数多得多的日志条目。


    一千万行数据时,查询需要48秒。要知道原因让我们看一下SQL解析:


    它慢是因为数据库遍历了所有日志以及所有的图表,然后join它们,再将它们排序,这些都在真正的group和分组和聚合工作之前。


    先聚合,然后Join

    group-聚合后的任何工作代价都要低,因为数据量会更小。group-聚合时我们不需使用dashboards.name,我们也可以先在数据库上做聚集,在join之前:

    select
      dashboards.name,
      log_counts.ct
    from dashboards
    join (
      select
        dashboard_id,
        count(distinct user_id) as ct
      from time_on_site_logs
       group by dashboard_id) as log_counts
     on log_counts.dashboard_id = dashboards.id
    order by log_counts.ct desc 

    现在查询运行了20秒,提升了2.4倍。再次通过解析来看一下原因:

    正如设计的,group-聚合在join之前。而且,额外的我们可以利用time_on_site_logs表里的索引。

     
    首先,缩小数据集
     
    我们可以做的更好。通过在整个日志表上group-聚合,我们处理了数据库中很多不必要的数据。Count distinct为每个group生成一个哈希——在本次环境中为每个dashboard_id——来跟踪哪些bucket中的哪些值已经检查过。
     
    我们可以预先计算差异,而不是处理全部数据,这样只需要一个哈希集合。然后我们在此基础上做一个简单的聚集即可。

    select
      dashboards.name,
      log_counts.ct
     from dashboards
     join (
      select distinct_logs.dashboard_id,
      count(1) as ct
      from (
        select distinct dashboard_id, user_id
        from time_on_site_logs
      ) as distinct_logs
      group by distinct_logs.dashboard_id
    ) as log_counts
     on log_counts.dashboard_id = dashboards.id
    order by log_counts.ct desc 

    我们采取内部的count-distinct-group,然后将数据拆成两部分分成两块。第一块计算distinct (dashboard_id, user_id) 。第二块在它们基础上运行一个简单group-count。跟上面一样,最后再join。

    呵呵,大发现:这样只需要0.7秒!这比上面的查询快28倍,比原来的快了68倍。
     
    通常,数据大小和类型很重要。上面的例子受益于基数中没多少换算。distinct (user_id, dashboard_id)相对于数据总量来说数量也很少。不同的对数越多,用来group和计数的唯一数据就越多——代价便会越来越大。
     
    下一次遇到长时间运行的count distinct时,尝试一些子查询来减负吧。

    QQ:1542385235 (PHP、Java、安卓苹果app制作修改、页面切图、各类模板修改、仿站,数据库修复、WAP制作修改 。我们团队是专门做网站开发的,都是有3年以上工作经验。需要后台系统开发,网页页面制作,app制作,ui设计的请加我qq联系。非诚勿扰!!) 本人qq群也有许多的技术文档,希望可以为你提供一些帮助(非技术的勿加!)。 QQ群: 281442983 (点击链接加入群:http://jq.qq.com/?_wv=1027&k=29LoD19)
  • 相关阅读:
    APICloud联合腾讯云推出“云主机解决方案“,各种福利等你拿
    WiFi模块Demo(新手教程)图文详解模块使用教程
    移动APP 微信支付完整过程(wxPay 方案一)
    APICloud开发者进阶之路 | txLive模块(直播类)试用分享
    解决R语言临时文件目录的问题(tempdir、tempfile)
    CentOS下SparkR安装部署:hadoop2.7.3+spark2.0.0+scale2.11.8+hive2.1.0
    Extending sparklyr to Compute Cost for K-means on YARN Cluster with Spark ML Library
    Running R jobs quickly on many machines(转)
    R语言快速深度学习进行回归预测(转)
    sparklyr包:实现Spark与R的接口
  • 原文地址:https://www.cnblogs.com/piwefei/p/15222727.html
Copyright © 2011-2022 走看看