zoukankan      html  css  js  c++  java
  • Memcached全面剖析–4. memcached的分布式算法

    作者:长野雅广(Masahiro Nagano) 
    原文链接:http://gihyo.jp/dev/feature/01/memcached/0004

    我是Mixi的长野。 第2次、 第3次 由前坂介绍了memcached的内部情况。

    本次不再介绍memcached的内部结构。 開始介绍memcached的分布式。

    memcached的分布式

    正如第1次中介绍的那样, memcached尽管称为“分布式”缓存server,但server端并没有“分布式”功能。 server端仅包含 第2次、 第3次 前坂介绍的内存存储功能,事实上现很easy。 至于memcached的分布式,则是全然由client程序库实现的。

    这样的分布式是memcached的最大特点。

    memcached的分布式是什么意思?

    这里多次使用了“分布式”这个词,但并未做详解。 如今開始简单地介绍一下其原理。各个client的实现基本同样。

    以下如果memcachedserver有node1~node3三台。 应用程序要保存键名为“tokyo”“kanagawa”“chiba”“saitama”“gunma” 的数据。


    图1 分布式简单介绍:准备

    首先向memcached中加入“tokyo”。将“tokyo”传给client程序库后, client实现的算法就会依据“键”来决定保存数据的memcachedserver。

    server选定后,即命令它保存“tokyo”及其值。


    图2 分布式简单介绍:加入时

    相同,“kanagawa”“chiba”“saitama”“gunma”都是先选择server再保存。

    接下来获取保存的数据。获取时也要将要获取的键“tokyo”传递给函数库。

    函数库通过与数据保存时同样的算法,依据“键”选择server。 使用的算法同样,就能选中与保存时同样的server,然后发送get命令。

    仅仅要数据没有由于某些原因被删除,就能获得保存的值。


    图3 分布式简单介绍:获取时

    这样。将不同的键保存到不同的server上。就实现了memcached的分布式。

    memcachedserver增多后。键就会分散,即使一台memcachedserver发生问题 无法连接,也不会影响其它的缓存,系统依旧能继续执行。

    接下来介绍第1次 中提到的Perlclient函数库Cache::Memcached实现的分布式方法。

    Cache::Memcached的分布式方法

    Perl的memcachedclient函数库Cache::Memcached是 memcached的作者Brad Fitzpatrick的作品。能够说是原装的函数库了。

    该函数库实现了分布式功能,是memcached标准的分布式方法。

    依据余数计算分散

    Cache::Memcached的分布式方法简单来说,就是“依据server台数的余数进行分散”。 求得键的整数哈希值。再除以server台数,依据其余数来选择server。

    以下将Cache::Memcached简化成以下的Perl脚本来进行说明。

    use strict;
    use warnings;
    use String::CRC32;

    my @nodes = ('node1','node2','node3');
    my @keys = ('tokyo', 'kanagawa', 'chiba', 'saitama', 'gunma');

    foreach my $key (@keys) {
    my $crc = crc32($key); # CRC値
    my $mod = $crc % ( $#nodes + 1 );
    my $server = $nodes[ $mod ]; # 依据余数选择服务器
    printf "%s => %s ", $key, $server;
    }

    Cache::Memcached在求哈希值时使用了CRC。

    首先求得字符串的CRC值。依据该值除以server节点数目得到的余数决定server。

    上面的代码运行后输入下面结果:

    tokyo       => node2
    kanagawa => node3
    chiba => node2
    saitama => node1
    gunma => node1

    依据该结果,“tokyo”分散到node2。“kanagawa”分散到node3等。 多说一句,当选择的server无法连接时,Cache::Memcached会将连接次数 加入到键之后。再次计算哈希值并尝试连接。这个动作称为rehash。 不希望rehash时能够在生成Cache::Memcached对象时指定“rehash => 0”选项。

    依据余数计算分散的缺点

    余数计算的方法简单。数据的分散性也相当优秀,但也有其缺点。 那就是当加入或移除server时。缓存重组的代价相当巨大。

    加入server后,余数就会产生巨变,这样就无法获取与保存时同样的server, 从而影响缓存的命中率。

    用Perl写段代码来验证其代价。

    use strict;
    use warnings;
    use String::CRC32;

    my @nodes = @ARGV;
    my @keys = ('a'..'z');
    my %nodes;

    foreach my $key ( @keys ) {
    my $hash = crc32($key);
    my $mod = $hash % ( $#nodes + 1 );
    my $server = $nodes[ $mod ];
    push @{ $nodes{ $server } }, $key;
    }

    foreach my $node ( sort keys %nodes ) {
    printf "%s: %s ", $node, join ",", @{ $nodes{$node} };
    }

    这段Perl脚本演示了将“a”到“z”的键保存到memcached并訪问的情况。

    将其保存为mod.pl并运行。

    首先,当server仅仅有三台时:

    $ mod.pl node1 node2 nod3
    node1: a,c,d,e,h,j,n,u,w,x
    node2: g,i,k,l,p,r,s,y
    node3: b,f,m,o,q,t,v,z

    结果如上,node1保存a、c、d、e……,node2保存g、i、k……。 每台server都保存了8个到10个数据。

    接下来添加一台memcachedserver。

    $ mod.pl node1 node2 node3 node4
    node1: d,f,m,o,t,v
    node2: b,i,k,p,r,y
    node3: e,g,l,n,u,w
    node4: a,c,h,j,q,s,x,z

    加入了node4。

    可见。仅仅有d、i、k、p、r、y命中了。像这样。加入节点后 键分散到的server会发生巨大变化。26个键中仅仅有六个在訪问原来的server, 其它的全都移到了其它server。命中率减少到23%。

    在Web应用程序中使用memcached时, 在加入memcachedserver的瞬间缓存效率会大幅度下降。负载会集中到数据库server上, 有可能会发生无法提供正常服务的情况。

    mixi的Web应用程序运用中也有这个问题,导致无法加入memcachedserver。 但因为使用了新的分布式方法,如今能够轻而易举地加入memcachedserver了。 这样的分布式方法称为 Consistent Hashing。

    Consistent Hashing

    关于Consistent Hashing的思想,mixi株式会社的开发blog等很多地方都介绍过。 这里仅仅简单地说明一下。

    Consistent Hashing的简单说明

    Consistent Hashing例如以下所看到的:首先求出memcachedserver(节点)的哈希值, 并将其配置到0~232的圆(continuum)上。 然后用相同的方法求出存储数据的键的哈希值,并映射到圆上。 然后从数据映射到的位置開始顺时针查找,将数据保存到找到的第一个server上。 假设超过232仍然找不到server,就会保存到第一台memcachedserver上。


    图4 Consistent Hashing:基本原理

    从上图的状态中加入一台memcachedserver。余数分布式算法因为保存键的server会发生巨大变化 而影响缓存的命中率,但Consistent Hashing中。仅仅有在continuum上添加server的地点逆时针方向的 第一台server上的键会受到影响。


    图5 Consistent Hashing:加入server

    因此,Consistent Hashing最大限度地抑制了键的又一次分布。 并且。有的Consistent Hashing的实现方法还採用了虚拟节点的思想。 使用一般的hash函数的话。server的映射地点的分布很不均匀。 因此,使用虚拟节点的思想。为每一个物理节点(server) 在continuum上分配100~200个点。这样就能抑制分布不均匀, 最大限度地减小server增减时的缓存又一次分布。

    通过下文中介绍的使用Consistent Hashing算法的memcachedclient函数库进行測试的结果是, 由server台数(n)和添加的server台数(m)计算添加server后的命中率计算公式例如以下:

    (1 - n/(n+m)) * 100

    支持Consistent Hashing的函数库

    本连载中多次介绍的Cache::Memcached尽管不支持Consistent Hashing, 但已有几个client函数库支持了这样的新的分布式算法。 第一个支持Consistent Hashing和虚拟节点的memcachedclient函数库是 名为libketama的PHP库。由last.fm开发。

    至于Perlclient,连载的第1次 中介绍过的Cache::Memcached::Fast和Cache::Memcached::libmemcached支持 Consistent Hashing。

    两者的接口都与Cache::Memcached差点儿同样。假设正在使用Cache::Memcached。 那么就能够方便地替换过来。Cache::Memcached::Fast又一次实现了libketama。 使用Consistent Hashing创建对象时能够指定ketama_points选项。

    my $memcached = Cache::Memcached::Fast->new({
    servers => ["192.168.0.1:11211","192.168.0.2:11211"],
    ketama_points => 150
    });

    另外,Cache::Memcached::libmemcached 是一个使用了Brain Aker开发的C函数库libmemcached的Perl模块。 libmemcached本身支持几种分布式算法,也支持Consistent Hashing, 其Perl绑定也支持Consistent Hashing。

    总结

    本次介绍了memcached的分布式算法,主要有memcached的分布式是由client函数库实现, 以及高效率地分散数据的Consistent Hashing算法。

    下次将介绍mixi在memcached应用方面的一些经验, 和相关的兼容应用程序。

  • 相关阅读:
    蹉跎之印
    [转]cypress EZ-USB 68013在WIN7 64位下驱动识别方法 && 64位WIN7中禁用驱动程序签名强制
    cnki搜索候选
    [转]和机器学习和计算机视觉相关的数学
    [链接]SPSS 19 最新版破解版及教程下载
    fvtool函数
    [转]html中submit和button的区别(总结)
    [转]SAR与SIGMA DELTA的区别
    LINKAXES matlab plot
    Labview 自动清空前面板显示控件
  • 原文地址:https://www.cnblogs.com/blfshiye/p/5080571.html
Copyright © 2011-2022 走看看