zoukankan      html  css  js  c++  java
  • 【redis】1.redis-windows安装+配置介绍

    1.下载windows版本redis

    官方下载地址:http://redis.io/download,不过官方没有64位的Windows下的可执行程序,目前有个开源的托管在github上, 地址:https://github.com/ServiceStack/redis-windows 

    2.解压

    3.文件介绍

    文件名 简要
    redis-benchmark.exe 基准测试  redis-benchmark为redis性能测试工具
    redis-check-aof.exe aof         AOF是AppendOnly File的缩写,是Redis系统提供了一种记录Redis操作的持久化方案
    redischeck-dump.exe dump      redis的备份和还原,借助了第三方的工具,redis-dump
    redis-cli.exe 客户端
    redis-server.exe 服务器
    redis.windows.conf 配置文件

    4.redis.windows.conf文件中设置redis密码

     5.点击redis-server.exe  启动redis服务器端

    如下,启动成功

    6.将redis注册为系统服务

    cmd进入dos窗口

    首先cd进入到redis目录下,然后注册为系统服务

    命令行:

    redis-server.exe --service-install redis.windows.conf --loglevel verbose
    
    redis-server --service-start

    7.卸载服务, 可以保存为 uninstall-service.bat 文件

    redis-server --service-stop
    
    redis-server --service-uninstall

    -------------------------------------------------------------------------------------------------------------至此,redis-windows版本安装完成---------------------------------------------------------------------------------------------------

    1.redis.windows.conf各项配置参数介绍

      1 # 默认情况下,redis不是在后台模式运行的,如果需要在后台进程运行,把该项的值更改为yes,默认为no
      2 
      3 daemonize:是否以后台daemon方式运行
      4 
      5 # 如redis服务以后台进程运行的时候,Redis默认会把pid写入/run/redis.pid文件组,你可以配置到其他文件路径。
      6 
      7 # 当运行多个redis服务时,需要指定不同的pid文件和端口
      8 
      9 pidfile:pid文件位置
     10 
     11 # 指定redis监听端口,默认为6379
     12 
     13 # 如果端口设置为0,Redis就不会监听TCP套接字。
     14 
     15 port:监听的端口号
     16 
     17 # 指定redis只接收来自于该IP地址的请求,如果不进行设置,默认将处理所有请求,
     18 
     19 # 在生产环境中最好设置该项
     20 
     21 bind 127.0.0.1
     22 
     23 # 设置客户端连接时的超时时间,单位为秒。当客户端在这段时间内没有发出任何指令,那么关闭该连接
     24 
     25 # 默认值:0代表禁用,永不关闭
     26 
     27 timeout:请求超时时间
     28 
     29 # 指定用来监听连接的unxi套接字的路径。这个没有默认值,所以如果不指定的话,Redis就不会通过unix套接字来监听。
     30 
     31 # unixsocket /tmp/redis.sock
     32 
     33 # unixsocketperm 755
     34 
     35 # 指定日志记录级别
     36 
     37 # Redis总共支持四个级别:debug、verbose、notice、warning,默认为verbose
     38 
     39 # debug 记录很多信息,用于开发和测试
     40 
     41 # varbose 很多精简的有用信息,不像debug会记录那么多
     42 
     43 # notice 普通的verbose,常用于生产环境
     44 
     45 # warning 只有非常重要或者严重的信息会记录到日志
     46 
     47 loglevel:log信息级别
     48 
     49 # 配置log文件名称和全路径地址
     50 
     51 # 默认值为stdout,使用“标准输出”,默认后台模式会输出到/dev/null
     52 
     53 logfile:log文件位置
     54 
     55 # 可用数据库数,默认值为16,默认数据库存储在DB 0号ID库中,无特殊需求,建议仅设置一个数据库 databases 1
     56 
     57 # 查询数据库使用 SELECT <dbid>
     58 
     59 # dbid介于 0 到 'databases'-1 之间
     60 
     61 databases:开启数据库的数量
     62 
     63 save * *:保存快照的频率,第一个*表示多长时间,第三个*表示执行多少次写操作。在一定时间内执行一定数量的写操作时,自动保存快照。可设置多个条件。
     64 
     65 rdbcompression:是否使用压缩
     66 
     67 dbfilename:数据快照文件名(只是文件名,不包括目录)
     68 
     69 dir:数据快照的保存目录(这个是目录)
     70 
     71 appendonly:是否开启appendonlylog,开启的话每次写操作会记一条log,这会提高数据抗风险能力,但影响效率。
     72 
     73 appendfsync:appendonlylog如何同步到磁盘(三个选项,分别是每次写都强制调用fsync、每秒启用一次fsync、不调用fsync等待系统自己同步)
     74 
     75 ########## REPLICATION 同步 ##########
     76 
     77 #
     78 
     79 # 主从同步。通过 slaveof 配置来实现Redis实例的备份。
     80 
     81 # 注意,这里是本地从远端复制数据。也就是说,本地可以有不同的数据库文件、绑定不同的IP、监听不同的端口。
     82 
     83 # 当本机为从服务时,设置主服务的IP及端口,在Redis启动时,它会自动从主服务进行数据同步
     84 
     85 # slaveof <masterip> <masterport>
     86 
     87 # 如果主服务master设置了密码(通过下面的 "requirepass" 选项来配置),slave服务连接master的密码,那么slave在开始同步之前必须进行身份验证,否则它的同步请求会被拒绝。
     88 
     89 #当本机为从服务时,设置主服务的连接密码
     90 
     91 # masterauth <master-password>
     92 
     93 # 当一个slave失去和master的连接,或者同步正在进行中,slave的行为有两种可能:
     94 
     95 # 1) 如果 slave-serve-stale-data 设置为 "yes" (默认值),slave会继续响应客户端请求,可能是正常数据,也可能是还没获得值的空数据。
     96 
     97 # 2) 如果 slave-serve-stale-data 设置为 "no",slave会回复"正在从master同步(SYNC with master in progress)"来处理各种请求,除了 INFO 和 SLAVEOF 命令。
     98 
     99 slave-serve-stale-data yes
    100 
    101 # slave根据指定的时间间隔向服务器发送ping请求。
    102 
    103 # 时间间隔可以通过 repl_ping_slave_period 来设置。
    104 
    105 # 默认10秒
    106 
    107 # repl-ping-slave-period 10
    108 
    109 # 下面的选项设置了大块数据I/O、向master请求数据和ping响应的过期时间。
    110 
    111 # 默认值60秒。
    112 
    113 # 一个很重要的事情是:确保这个值比 repl-ping-slave-period 大,否则master和slave之间的传输过期时间比预想的要短。
    114 
    115 # repl-timeout 60
    116 
    117 ########## SECURITY 安全 ##########
    118 
    119 # 要求客户端在处理任何命令时都要验证身份和设置密码。
    120 
    121 # 如果你不相信请求者,这个功能很有用。
    122 
    123 # 为了向后兼容的话,这段应该注释掉。而且大多数人不需要身份验证(例如:它们运行在自己的服务器上。)
    124 
    125 # 警告:外部使用者可以每秒尝试150k的密码来试图破解密码,这意味着你需要一个高强度的密码,否则破解太容易了。
    126 
    127 # 设置连接密码
    128 
    129 # requirepass foobared
    130 
    131 # 命令重命名,可设置多个
    132 
    133 # 在共享环境下,可以为危险命令改变名字。比如,你可以为 CONFIG 改个其他不太容易猜到的名字,这样你自己仍然可以使用,而别人却没法知道它。
    134 
    135 # 例如:
    136 
    137 # rename-command CONFIG b840fc02d524045429941cc15f59e41cb7be6c52
    138 
    139 # rename-command info info_biran
    140 
    141 # rename-command set set_biran
    142 
    143 # 甚至也可以通过给命令赋值一个空字符串来完全禁用这条命令:
    144 
    145 # rename-command CONFIG ""
    146 
    147 ########## LIMITS 限制 ##########
    148 
    149 # 设置最大同时连接客户端数量。
    150 
    151 # 默认没有限制,这个关系到Redis进程能够打开的文件描述符数量。
    152 
    153 # 特殊值"0"表示没有限制。
    154 
    155 # 一旦达到这个限制,Redis会关闭所有新连接并发送错误"达到最大用户数上限(max number of clients reached)"
    156 
    157 # maxclients 128
    158 
    159 # 不要用比设置的上限更多的内存。一旦内存使用达到上限,Redis会根据选定的回收策略(参见:maxmemmory-policy:内存策略设置)删除key。
    160 
    161 # 如果因为删除策略问题Redis无法删除key,或者策略设置为 "noeviction",Redis会回复需要更多内存的错误信息给命令。
    162 
    163 # 例如,SET,LPUSH等等。但是会继续合理响应只读命令,比如:GET。
    164 
    165 # 在使用Redis作为LRU缓存,或者为实例设置了硬性内存限制的时候(使用 "noeviction" 策略)的时候,这个选项还是满有用的。
    166 
    167 # 警告:当一堆slave连上达到内存上限的实例的时候,响应slave需要的输出缓存所需内存不计算在使用内存当中。
    168 
    169 # 这样当请求一个删除掉的key的时候就不会触发网络问题/重新同步的事件,然后slave就会收到一堆删除指令,直到数据库空了为止。
    170 
    171 # 简而言之,如果你有slave连上一个master的话,那建议你把master内存限制设小点儿,确保有足够的系统内存用作输出缓存。
    172 
    173 # (如果策略设置为"noeviction"的话就不无所谓了)
    174 
    175 # 设置最大内存,达到最大内存设置后,Redis会先尝试清除已到期或即将到期的Key,当此方法处理后,任到达最大内存设置,将无法再进行写入操作。
    176 
    177 # maxmemory 256000000分配256M内存
    178 
    179 # maxmemory <bytes>
    180 
    181 # 内存策略:如果达到内存限制了,Redis如何删除key。你可以在下面五个策略里面选:
    182 
    183 #
    184 
    185 # volatile-lru -> 根据LRU算法生成的过期时间来删除。
    186 
    187 # allkeys-lru -> 根据LRU算法删除任何key。
    188 
    189 # volatile-random -> 根据过期设置来随机删除key。
    190 
    191 # allkeys->random -> 无差别随机删。
    192 
    193 # volatile-ttl -> 根据最近过期时间来删除(辅以TTL)
    194 
    195 # noeviction -> 谁也不删,直接在写操作时返回错误。
    196 
    197 #
    198 
    199 # 注意:对所有策略来说,如果Redis找不到合适的可以删除的key都会在写操作时返回一个错误。
    200 
    201 #
    202 
    203 # 这里涉及的命令:set setnx setex append
    204 
    205 # incr decr rpush lpush rpushx lpushx linsert lset rpoplpush sadd
    206 
    207 # sinter sinterstore sunion sunionstore sdiff sdiffstore zadd zincrby
    208 
    209 # zunionstore zinterstore hset hsetnx hmset hincrby incrby decrby
    210 
    211 # getset mset msetnx exec sort
    212 
    213 #
    214 
    215 # 默认值如下:
    216 
    217 # maxmemory-policy volatile-lru
    218 
    219 # LRU和最小TTL算法的实现都不是很精确,但是很接近(为了省内存),所以你可以用样例做测试。
    220 
    221 # 例如:默认Redis会检查三个key然后取最旧的那个,你可以通过下面的配置项来设置样本的个数。
    222 
    223 # maxmemory-samples 3
    224 
    225 ########## APPEND ONLY MODE 纯累加模式 ##########
    226 
    227 # 默认情况下,Redis是异步的把数据导出到磁盘上。因为redis本身同步数据文件是按上面save条件来同步的,所以有的数据会在一段时间内只存在于内存中,这种情况下,当Redis宕机的时候,最新的数据就丢了。
    228 
    229 # 如果不希望丢掉任何一条数据的话就该用纯累加模式:一旦开启这个模式,Redis会把每次写入的数据在接收后都写入 appendonly.aof 文件。
    230 
    231 # 每次启动时Redis都会把这个文件的数据读入内存里。
    232 
    233 #
    234 
    235 # 注意,异步导出的数据库文件和纯累加文件可以并存(此时需要把上面所有"save"设置都注释掉,关掉导出机制)。
    236 
    237 # 如果纯累加模式开启了,那么Redis会在启动时载入日志文件而忽略导出的 dump.rdb 文件。
    238 
    239 #
    240 
    241 # 重要:查看 BGREWRITEAOF 来了解当累加日志文件太大了之后,怎么在后台重新处理这个日志文件。
    242 
    243 # 设置:yes为纯累加模式
    244 
    245 appendonly no
    246 
    247 # 设置纯累加文件名字及保存路径,默认:"appendonly.aof"
    248 
    249 # appendfilename appendonly.aof
    250 
    251 # fsync() 请求操作系统马上把数据写到磁盘上,不要再等了。
    252 
    253 # 有些操作系统会真的把数据马上刷到磁盘上;有些则要磨蹭一下,但是会尽快去做。
    254 
    255 # Redis支持三种不同的模式:
    256 
    257 #
    258 
    259 # no:不要立刻刷,只有在操作系统需要刷的时候再刷。比较快。
    260 
    261 # always:每次写操作都立刻写入到aof文件。慢,但是最安全。
    262 
    263 # everysec:每秒写一次。折衷方案。
    264 
    265 # 默认的 "everysec" 通常来说能在速度和数据安全性之间取得比较好的平衡。
    266 
    267 # 如果你真的理解了这个意味着什么,那么设置"no"可以获得更好的性能表现(如果丢数据的话,则只能拿到一个不是很新的快照);
    268 
    269 # 或者相反的,你选择 "always" 来牺牲速度确保数据安全、完整。
    270 
    271 #
    272 
    273 # 如果不确定这些模式的使用,建议使用 "everysec"
    274 
    275 #
    276 
    277 # appendfsync always
    278 
    279 appendfsync everysec
    280 
    281 # appendfsync no
    282 
    283 # 如果AOF的同步策略设置成 "always" 或者 "everysec",那么后台的存储进程(后台存储或写入AOF日志)会产生很多磁盘I/O开销。
    284 
    285 # 某些Linux的配置下会使Redis因为 fsync() 而阻塞很久。
    286 
    287 # 注意,目前对这个情况还没有完美修正,甚至不同线程的 fsync() 会阻塞我们的 write(2) 请求。
    288 
    289 #
    290 
    291 # 为了缓解这个问题,可以用下面这个选项。它可以在 BGSAVE 或 BGREWRITEAOF 处理时阻止 fsync()。
    292 
    293 #
    294 
    295 # 这就意味着如果有子进程在进行保存操作,那么Redis就处于"不可同步"的状态。
    296 
    297 # 这实际上是说,在最差的情况下可能会丢掉30秒钟的日志数据。(默认Linux设定)
    298 
    299 #
    300 
    301 # 如果你有延迟的问题那就把这个设为 "yes",否则就保持 "no",这是保存持久数据的最安全的方式。
    302 
    303 no-appendfsync-on-rewrite no
    304 
    305 # 自动重写AOF文件
    306 
    307 # 如果AOF日志文件大到指定百分比,Redis能够通过 BGREWRITEAOF 自动重写AOF日志文件。
    308 
    309 #
    310 
    311 # 工作原理:Redis记住上次重写时AOF日志的大小(或者重启后没有写操作的话,那就直接用此时的AOF文件),
    312 
    313 # 基准尺寸和当前尺寸做比较。如果当前尺寸超过指定比例,就会触发重写操作。
    314 
    315 #
    316 
    317 # 你还需要指定被重写日志的最小尺寸,这样避免了达到约定百分比但尺寸仍然很小的情况还要重写。
    318 
    319 #
    320 
    321 # 指定百分比为0会禁用AOF自动重写特性。
    322 
    323 auto-aof-rewrite-percentage 100
    324 
    325 auto-aof-rewrite-min-size 64mb
    326 
    327 ########## SLOW LOG 慢查询日志 ##########
    328 
    329 # Redis慢查询日志可以记录超过指定时间的查询。运行时间不包括各种I/O时间。
    330 
    331 # 例如:连接客户端,发送响应数据等。只计算命令运行的实际时间(这是唯一一种命令运行线程阻塞而无法同时为其他请求服务的场景)
    332 
    333 #
    334 
    335 # 你可以为慢查询日志配置两个参数:一个是超标时间,单位为微妙,记录超过个时间的命令。
    336 
    337 # 另一个是慢查询日志长度。当一个新的命令被写进日志的时候,最老的那个记录会被删掉。
    338 
    339 #
    340 
    341 # 下面的时间单位是微秒,所以1000000就是1秒。注意,负数时间会禁用慢查询日志,而0则会强制记录所有命令。
    342 
    343 slowlog-log-slower-than 10000
    344 
    345 # 这个长度没有限制。只要有足够的内存就行。你可以通过 SLOWLOG RESET 来释放内存。
    346 
    347 slowlog-max-len 128
    348 
    349 ########## VIRTUAL MEMORY 虚拟内存 ##########
    350 
    351 ### 警告!虚拟内存在Redis 2.4是反对的,因性能问题,2.4版本 VM机制彻底废弃,不建议使用此配置!!!!!!!!!!!
    352 
    353 # 虚拟内存可以使Redis在内存不够的情况下仍然可以将所有数据序列保存在内存里。
    354 
    355 # 为了做到这一点,高频key会调到内存里,而低频key会转到交换文件里,就像操作系统使用内存页一样。
    356 
    357 # 要使用虚拟内存,只要把 "vm-enabled" 设置为 "yes",并根据需要设置下面三个虚拟内存参数就可以了。
    358 
    359 vm-enabled no
    360 
    361 # 这是交换文件的路径。估计你猜到了,交换文件不能在多个Redis实例之间共享,所以确保每个Redis实例使用一个独立交换文件。
    362 
    363 # 最好的保存交换文件(被随机访问)的介质是固态硬盘(SSD)。
    364 
    365 # *** 警告 *** 如果你使用共享主机,那么默认的交换文件放到 /tmp 下是不安全的。
    366 
    367 # 创建一个Redis用户可写的目录,并配置Redis在这里创建交换文件。
    368 
    369 vm-swap-file /tmp/redis.swap
    370 
    371 # "vm-max-memory" 配置虚拟内存可用的最大内存容量。
    372 
    373 # 如果交换文件还有空间的话,所有超标部分都会放到交换文件里。
    374 
    375 # "vm-max-memory" 设置为0表示系统会用掉所有可用内存,建议设置为剩余内存的60%-80%376 
    377 # 将所有大于vm-max-memory的数据存入虚拟内存,无论vm-max-memory设置多小,所有索引数据都是内存存储的(Redis的索引数据就是keys),也就是说,当vm-max-memory设置为0的时候,其实是所有value都存在于磁盘。默认值为0。
    378 
    379 vm-max-memory 0
    380 
    381 # Redis交换文件是分成多个数据页的。
    382 
    383 # 一个可存储对象可以被保存在多个连续页里,但是一个数据页无法被多个对象共享。
    384 
    385 # 所以,如果你的数据页太大,那么小对象就会浪费掉很多空间。
    386 
    387 # 如果数据页太小,那用于存储的交换空间就会更少(假定你设置相同的数据页数量)
    388 
    389 # 如果你使用很多小对象,建议分页尺寸为64或32个字节。
    390 
    391 # 如果你使用很多大对象,那就用大一些的尺寸。
    392 
    393 # 如果不确定,那就用默认值 :)
    394 
    395 vm-page-size 32
    396 
    397 # 交换文件里数据页总数。
    398 
    399 # 根据内存中分页表(已用/未用的数据页分布情况),磁盘上每8个数据页会消耗内存里1个字节。
    400 
    401 # 交换区容量 = vm-page-size * vm-pages
    402 
    403 # 根据默认的32字节的数据页尺寸和134217728的数据页数来算,Redis的数据页文件会占4GB,而内存里的分页表会消耗16MB内存。
    404 
    405 # 为你的应验程序设置最小且够用的数字比较好,下面这个默认值在大多数情况下都是偏大的。
    406 
    407 vm-pages 134217728
    408 
    409 # 同时可运行的虚拟内存I/O线程数,即访问swap文件的线程数。
    410 
    411 # 这些线程可以完成从交换文件进行数据读写的操作,也可以处理数据在内存与磁盘间的交互和编码/解码处理。
    412 
    413 # 多一些线程可以一定程度上提高处理效率,虽然I/O操作本身依赖于物理设备的限制,不会因为更多的线程而提高单次读写操作的效率。
    414 
    415 # 特殊值0会关闭线程级I/O,并会开启阻塞虚拟内存机制。
    416 
    417 # 设置最好不要超过机器的核数,如果设置为0,那么所有对swap文件的操作都是串行的.可能会造成比较长时间的延迟,但是对数据完整性有很好的保证.
    418 
    419 vm-max-threads 4
    420 
    421 ########## ADVANCED CONFIG 高级配置 ##########
    422 
    423 # 当有大量数据时,适合用哈希编码(这会需要更多的内存),元素数量上限不能超过给定限制。
    424 
    425 # Redis Hash是value内部为一个HashMap,如果该Map的成员数比较少,则会采用类似一维线性的紧凑格式来存储该Map, 即省去了大量指针的内存开销,如下2个条件任意一个条件超过设置值都会转换成真正的HashMap,
    426 
    427 # 当value这个Map内部不超过多少个成员时会采用线性紧凑格式存储,默认是64,即value内部有64个以下的成员就是使用线性紧凑存储,超过该值自动转成真正的HashMap。
    428 
    429 hash-max-zipmap-entries 512
    430 
    431 # 当 value这个Map内部的每个成员值长度不超过多少字节就会采用线性紧凑存储来节省空间。
    432 
    433 hash-max-zipmap-value 64
    434 
    435 # 与hash-max-zipmap-entries哈希相类似,数据元素较少的情况下,可以用另一种方式来编码从而节省大量空间。
    436 
    437 # list数据类型多少节点以下会采用去指针的紧凑存储格式
    438 
    439 list-max-ziplist-entries 512
    440 
    441 # list数据类型节点值大小小于多少字节会采用紧凑存储格式
    442 
    443 list-max-ziplist-value 64
    444 
    445 # 还有这样一种特殊编码的情况:数据全是64位无符号整型数字构成的字符串。
    446 
    447 # 下面这个配置项就是用来限制这种情况下使用这种编码的最大上限的。
    448 
    449 set-max-intset-entries 512
    450 
    451 # 与第一、第二种情况相似,有序序列也可以用一种特别的编码方式来处理,可节省大量空间。
    452 
    453 # 这种编码只适合长度和元素都符合下面限制的有序序列:
    454 
    455 zset-max-ziplist-entries 128
    456 
    457 zset-max-ziplist-value 64
    458 
    459 # 哈希刷新,每100个CPU毫秒会拿出1个毫秒来刷新Redis的主哈希表(顶级键值映射表)。
    460 
    461 # redis所用的哈希表实现(见dict.c)采用延迟哈希刷新机制:你对一个哈希表操作越多,哈希刷新操作就越频繁;
    462 
    463 # 反之,如果服务器非常不活跃那么也就是用点内存保存哈希表而已。
    464 
    465 # 默认是每秒钟进行10次哈希表刷新,用来刷新字典,然后尽快释放内存。
    466 
    467 # 建议:
    468 
    469 # 如果你对延迟比较在意的话就用 "activerehashing no",每个请求延迟2毫秒不太好嘛。
    470 
    471 # 如果你不太在意延迟而希望尽快释放内存的话就设置 "activerehashing yes"472 
    473 activerehashing yes
    474 
    475 ########## INCLUDES 包含 ##########
    476 
    477 # 包含一个或多个其他配置文件。
    478 
    479 # 这在你有标准配置模板但是每个redis服务器又需要个性设置的时候很有用。
    480 
    481 # 包含文件特性允许你引人其他配置文件,所以好好利用吧。
    482 
    483 # include /path/to/local.conf
    484 
    485 # include /path/to/other.conf
    View Code

    修改配置后,如果配置文件涉及到中文内容记得将文件存为UTF-8编码。

    2.redis-cli.exe 客户端使用

    点击redis-cli.exe

    测试服务器启动连接情况

    127.0.0.1:6379> ping
    
    PONG

    查看服务器级别信息(测试服务器)

    127.0.0.1:6379> info
    # Server
    redis_version:3.0.503
    redis_git_sha1:00000000
    redis_git_dirty:0
    redis_build_id:d14575c6134f877
    redis_mode:standalone
    os:Windows
    arch_bits:64
    multiplexing_api:WinSock_IOCP
    process_id:6500
    run_id:f2663d82395dfda794e1a2369bca791e4297f8d3
    tcp_port:6379
    uptime_in_seconds:13748
    uptime_in_days:0
    hz:10
    lru_clock:7276575
    config_file:
    
    # Clients
    connected_clients:1
    client_longest_output_list:0
    client_biggest_input_buf:0
    blocked_clients:0
    
    # Memory
    used_memory:692888
    used_memory_human:676.65K
    used_memory_rss:655240
    used_memory_peak:692888
    used_memory_peak_human:676.65K
    used_memory_lua:36864
    mem_fragmentation_ratio:0.95
    mem_allocator:jemalloc-3.6.0
    
    # Persistence
    loading:0
    rdb_changes_since_last_save:0
    rdb_bgsave_in_progress:0
    rdb_last_save_time:1500435051
    rdb_last_bgsave_status:ok
    rdb_last_bgsave_time_sec:-1
    rdb_current_bgsave_time_sec:-1
    aof_enabled:0
    aof_rewrite_in_progress:0
    aof_rewrite_scheduled:0
    aof_last_rewrite_time_sec:-1
    aof_current_rewrite_time_sec:-1
    aof_last_bgrewrite_status:ok
    aof_last_write_status:ok
    
    # Stats
    total_connections_received:1
    total_commands_processed:1
    instantaneous_ops_per_sec:0
    total_net_input_bytes:28
    total_net_output_bytes:7
    instantaneous_input_kbps:0.00
    instantaneous_output_kbps:0.00
    rejected_connections:0
    sync_full:0
    sync_partial_ok:0
    sync_partial_err:0
    expired_keys:0
    evicted_keys:0
    keyspace_hits:0
    keyspace_misses:0
    pubsub_channels:0
    pubsub_patterns:0
    latest_fork_usec:0
    migrate_cached_sockets:0
    
    # Replication
    role:master
    connected_slaves:0
    master_repl_offset:0
    repl_backlog_active:0
    repl_backlog_size:1048576
    repl_backlog_first_byte_offset:0
    repl_backlog_histlen:0
    
    # CPU
    used_cpu_sys:0.02
    used_cpu_user:0.02
    used_cpu_sys_children:0.00
    used_cpu_user_children:0.00
    
    # Cluster
    cluster_enabled:0
    
    # Keyspace
    View Code

    3.redis-benchmark 性能测试工具

    默认双击打开是按照默认的测试参数进行测试,而且它自己测试跑完之后,就会自动关闭DOS窗口了。

    输入如下命令后会看到如下信息,表明同时并发10个连接,总共100次操作。通俗易懂的说就是10个用户同时操作,总共每人操作10次的意思

    100 requests completed in 0.01 seconds (100个请求完成于0.01秒)
    
    10 parallel clients (10个客户端并发)
    
    3 bytes payload (每次写入3个字节)
    
    keep alive: 1 (保存一个链接数)
    
    100.00% <= 1 milliseconds (100%的操作小于1秒完成)
    
    16666.67 requests per second (每秒完成16666.67次查询)

    命令参数说明

    redis-benchmark [-h <host>] [-p <port>] [-c <clients>] [-n <requests]> [-k <boolean>]
    
    -h <hostname> 主机名 (默认 127.0.0.1)
    
    -p <port> 主机端口 (默认 6379)
    
    -s <socket> 主机套接字 (覆盖主机和端口)
    
    -c <clients> 并发连接的数量 (默认 50)
    
    -n <requests> 请求总数 (默认 10000)
    
    -d <size> SET/GET数据的字节大小(默认 2)
    
    -k <boolean> 1=keep alive 0=reconnect (默认 1)
    
    -r <keyspacelen> SET/GET/INCR使用随机产生的key, SADD使用随机值使用这个选项 get/set keys时会用mykey_rand:000000012456代替常量key, <keyspacelen>参数决定了随机数产生的最大值,比如,设置参数为10,那么产生的随机数范围是rand:000000000000 -rand:000000000009
    
    -P <numreq> Pipeline请求的数量. 默认 1 (不使用pipeline).
    
    -q 展示query/sec值
    
    --csv 以CSV格式输出
    
    -l 本地循环. 一直运行测试
    
    -t <tests> 在运行逗号分割列表的测试. 测试的名字与产生输出的名字一样。
    
    -I 空闲模式. 打开 N 个空闲连接,然后等待.

    运行示例

    对指定服务器、端口进行20个同时并发操作,总共操作100000次
    
    redis-benchmark -h 192.168.1.136 -p 6379 -n 100000 -c 20
    
    测试set写入操作1000000次,随机数范围在100000000
    
    redis-benchmark -t set -n 1000000 -r 100000000
    
    测试ping、set、get操作100000次,结果输出用csv格式
    
    redis-benchmark -t ping,set,get -n 100000 –-csv
    
    redis-benchmark -r 10000 -n 10000 lpush mylist ele:rand:000000000000

    4.redis-check-aof 基本用法

    检查本地日志信息,加--fix参数为修复log文件

    redis-check-aof.exe log.aof

    5.redis-check-dump 检查数据库文件

    redis-check-dump.exe dump.rdb 会输出该文件大小、使用情况。

    --------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

    参考:http://www.cnblogs.com/hoojo/p/4466024.html

  • 相关阅读:
    pgspider 一些ppt 截图
    postgres cassandra_fdw 扩展试用
    使用 postgres s3 fdw + cube.js 分析 csv 数据
    cube.js 集成s3 的一种方法
    postgres s3 fdw 试用
    cube.js 集成 elasticsearch 的一种变通方法
    使用postgres_fdw 串接elasticsearch fdw
    postgres elasticsearch fdw 学习
    使用vcpkg 管理c&&c++ 包
    postgres pg_cron 扩展连接远程pg server
  • 原文地址:https://www.cnblogs.com/sxdcgaq8080/p/7204878.html
Copyright © 2011-2022 走看看