zoukankan      html  css  js  c++  java
  • 初识Redis的数据类型HyperLogLog

    前提

    未来一段时间开发的项目或者需求会大量使用到Redis,趁着这段时间业务并不太繁忙,抽点时间预习和复习Redis的相关内容。刚好看到博客下面的UVPV统计,想到了最近看书里面提到的HyperLogLog数据类型,于是花点时间分析一下它的使用方式和使用场景(暂时不探究HyperLogLog的实现原理)。RedisHyperLogLog数据类型是Redid 2.8.9引入的,使用的时候确保Redis版本>= 2.8.9

    HyperLogLog简介

    基数计数(cardinality counting),通常用来统计一个集合中不重复的元素个数。一个很常见的例子就是统计某个文章的UVUnique Visitor,独立访客,一般可以理解为客户端IP)。大数据量背景下,要实现基数计数,多数情况下不会选择存储全量的基数集合的元素,因为可以计算出存储的内存成本,假设一个每个被统计的元素的平均大小为32bit,那么如果统计一亿个数据,占用的内存大小为:

    • 32 * 100000000 / 8 / 1024 / 1024 ≈ 381M

    如果有多个集合,并且允许计算多个集合的合并计数结果,那么这个操作带来的复杂度可能是毁灭性的。因此,不会使用BitmapTree或者HashSet等数据结构直接存储计数元素集合的方式进行计数,而是在不追求绝对准确计数结果的前提之下,使用基数计数的概率算法进行计数,目前常见的有概率算法以下三种:

    • Linear Counting(LC)
    • LogLog Counting(LLC)
    • HyperLogLog Counting(HLL)

    所以,HyperLogLog其实是一种基数计数概率算法,并不是Redis特有的,Redis基于C语言实现了HyperLogLog并且提供了相关命令API入口。

    Redis的作者Antirez为了纪念Philippe Flajolet对组合数学和基数计算算法分析的研究,所以在设计HyperLogLog命令的时候使用了Philippe Flajolet姓名的英文首字母PF作为前缀。也就是说,Philippe Flajolet博士是HLL算法的重大贡献者,但是他其实并不是RedisHyperLogLog数据类型的开发者。遗憾的是Philippe Flajolet博士于2011年3月22日因病在巴黎辞世。这个是Philippe Flajolet博士的维基百科照片:

    Redis提供的HyperLogLog数据类型的特征:

    • 基本特征:使用HyperLogLog Counting(HLL)实现,只做基数计算,不会保存元数据
    • 内存占用:HyperLogLog每个KEY最多占用12K的内存空间,可以计算接近2^64个不同元素的基数,它的存储空间采用稀疏矩阵存储,空间占用很小,仅仅在计数基数个数慢慢变大,稀疏矩阵占用空间渐渐超过了阈值时才会一次性转变成稠密矩阵,转变成稠密矩阵之后才会占用12K的内存空间。
    • 计数误差范围:基数计数的结果是一个标准误差(Standard Error)为0.81%的近似值,当数据量不大的时候,得到的结果也可能是一个准确值。

    内存占用小(每个KEY最高占用12K)是HyperLogLog的最大优势,而它存在两个相对明显的限制:

    • 计算结果并不是准确值,存在标准误差,这是由于它本质上是用概率算法导致的。
    • 不保存基数的元数据,这一点对需要使用元数据进行数据分析的场景并不友好。

    HyperLogLog命令使用

    Redis提供的HyperLogLog数据类型一共有三个命令APIPFADDPFCOUNTPFMERGE

    PFADD

    PFADD命令参数如下:

    PFADD key element [element …]
    

    支持此命令的Redis版本是:>= 2.8.9
    时间复杂度:每添加一个元素的复杂度为O(1)

    • 功能:将所有元素参数element添加到键为keyHyperLogLog数据结构中。

    PFADD命令的执行流程如下:

    PFADD命令的使用方式如下:

    127.0.0.1:6379> PFADD food apple fish
    (integer) 1
    127.0.0.1:6379> PFADD food apple
    (integer) 0
    127.0.0.1:6379> PFADD throwable
    (integer) 1
    127.0.0.1:6379> SET name doge
    OK
    127.0.0.1:6379> PFADD name throwable
    (error) WRONGTYPE Key is not a valid HyperLogLog string value.
    

    虽然HyperLogLog数据结构本质是一个字符串,但是不能在String类型的KEY使用HyperLogLog的相关命令。

    PFCOUNT

    PFCOUNT命令参数如下:

    PFCOUNT key [key …]
    

    支持此命令的Redis版本是:>= 2.8.9
    时间复杂度:返回单个HyperLogLog的基数计数值的复杂度为O(1),平均常数时间比较低。当参数为多个key的时候,复杂度为O(N),N为key的个数。

    • PFCOUNT命令使用单个key的时候,返回储存在给定键的HyperLogLog数据结构的近似基数,如果键不存在, 则返回0
    • PFCOUNT命令使用key的时候,返回储存在给定的所有HyperLogLog数据结构的并集的近似基数,也就是会把所有的HyperLogLog数据结构合并到一个临时的HyperLogLog数据结构,然后计算出近似基数。

    PFCOUNT命令的使用方式如下:

    127.0.0.1:6379> PFADD POST:1 ip-1 ip-2
    (integer) 1
    127.0.0.1:6379> PFADD POST:2 ip-2 ip-3 ip-4
    (integer) 1
    127.0.0.1:6379> PFCOUNT POST:1
    (integer) 2
    127.0.0.1:6379> PFCOUNT POST:1 POST:2
    (integer) 4
    127.0.0.1:6379> PFCOUNT NOT_EXIST_KEY
    (integer) 0
    

    PFMERGE

    PFMERGE命令参数如下:

    PFMERGE destkey sourcekey [sourcekey ...]
    

    支持此命令的Redis版本是:>= 2.8.9
    时间复杂度:O(N),其中N为被合并的HyperLogLog数据结构的数量,此命令的常数时间比较高

    • 功能:把多个HyperLogLog数据结构合并为一个新的键为destkeyHyperLogLog数据结构,合并后的HyperLogLog的基数接近于所有输入HyperLogLog的可见集合(Observed Set)的并集的基数。
    • 命令返回值:只会返回字符串OK

    PFMERGE命令的使用方式如下

    127.0.0.1:6379> PFADD POST:1 ip-1 ip-2
    (integer) 1
    127.0.0.1:6379> PFADD POST:2 ip-2 ip-3 ip-4
    (integer) 1
    127.0.0.1:6379> PFMERGE POST:1-2 POST:1 POST:2
    OK
    127.0.0.1:6379> PFCOUNT POST:1-2
    (integer) 4
    

    使用HyperLogLog统计UV的案例

    假设现在有个简单的场景,就是统计博客文章的UV,要求UV的计数不需要准确,也不需要保存客户端的IP数据。下面就这个场景,使用HyperLogLog做一个简单的方案和编码实施。

    这个流程可能步骤的先后顺序可能会有所调整,但是要做的操作是基本不变的。先简单假设,文章的内容和统计数据都是后台服务返回的,两个接口是分开设计。引入Redis的高级客户端Lettuce依赖:

    <dependency>
        <groupId>io.lettuce</groupId>
        <artifactId>lettuce-core</artifactId>
        <version>5.2.1.RELEASE</version>
    </dependency>
    

    编码如下:

    public class UvTest {
    
        private static RedisCommands<String, String> COMMANDS;
    
        @BeforeClass
        public static void beforeClass() throws Exception {
            // 初始化Redis客户端
            RedisURI uri = RedisURI.builder().withHost("localhost").withPort(6379).build();
            RedisClient redisClient = RedisClient.create(uri);
            StatefulRedisConnection<String, String> connect = redisClient.connect();
            COMMANDS = connect.sync();
        }
    
        @Data
        public static class PostDetail {
    
            private Long id;
            private String content;
        }
    
        private PostDetail selectPostDetail(Long id) {
            PostDetail detail = new PostDetail();
            detail.setContent("content");
            detail.setId(id);
            return detail;
        }
    
        private PostDetail getPostDetail(String clientIp, Long postId) {
            PostDetail detail = selectPostDetail(postId);
            String key = "puv:" + postId;
            COMMANDS.pfadd(key, clientIp);
            return detail;
        }
    
        private Long getPostUv(Long postId) {
            String key = "puv:" + postId;
            return COMMANDS.pfcount(key);
        }
    
        @Test
        public void testViewPost() throws Exception {
            Long postId = 1L;
            getPostDetail("111.111.111.111", postId);
            getPostDetail("111.111.111.222", postId);
            getPostDetail("111.111.111.333", postId);
            getPostDetail("111.111.111.444", postId);
            System.out.println(String.format("The uv count of post [%d] is %d", postId, getPostUv(postId)));
        }
    }
    

    输出结果:

    The uv count of post [1] is 4
    

    可以适当使用更多数量的不同客户端IP调用getPostDetail(),然后统计一下误差。

    题外话-如何准确地统计UV

    如果想要准确统计UV,则需要注意几个点:

    • 内存或者磁盘容量需要准备充足,因为就目前的基数计数算法来看,没有任何算法可以在不保存元数据的前提下进行准确计数。
    • 如果需要做用户行为分析,那么元数据最终需要持久化,这一点应该依托于大数据体系,在这一方面笔者没有经验,所以暂时不多说。

    假设在不考虑内存成本的前提下,我们依然可以使用Redis做准确和实时的UV统计,简单就可以使用Set数据类型,增加UV只需要使用SADD命令,统计UV只需要使用SCARD命令(时间复杂度为O(1),可以放心使用)。举例:

    127.0.0.1:6379> SADD puv:1 ip-1 ip-2
    (integer) 2
    127.0.0.1:6379> SADD puv:1 ip-3 ip-4
    (integer) 2
    127.0.0.1:6379> SCARD puv:1
    (integer) 4
    

    如果这些统计数据仅仅是用户端展示,那么可以采用异步设计:

    在体量小的时候,上面的所有应用的功能可以在同一个服务中完成,消息队列可以用线程池的异步方案替代。

    小结

    这篇文章只是简单介绍了HyperLogLog的使用和统计UV的使用场景。总的来说就是:在(1)原始数据量巨大,(2)内存占用要求尽可能小,(3)允许计数存在一定误差并且(4)不要求存放元数据的场景下,可以优先考虑使用HyperLogLog进行计数。

    参考资料:

    (本文完 c-3-d e-a-20191117)

    技术公众号(《Throwable文摘》),不定期推送笔者原创技术文章(绝不抄袭或者转载):

  • 相关阅读:
    PS的使用[未完待续]
    Navicat破解方法【很靠谱】
    some blogs
    Linux curl命令详解
    api_automation_mysql
    linux 笔记
    pytest 笔记
    sel+python 基础
    postman 断言
    homebrew note
  • 原文地址:https://www.cnblogs.com/throwable/p/13138554.html
Copyright © 2011-2022 走看看