一 .redis+python操作
1.redis
redis.windows.conf各项配置参数介绍 win版 https://www.cnblogs.com/xuchunlin/p/7097729.html
https://www.cnblogs.com/zhaohuhu/p/9140673.html#_label0_0
https://www.runoob.com/redis/redis-sorted-sets.html
https://www.cnblogs.com/wupeiqi/articles/5132791.html
Redis是一个开源(BSD许可),内存数据结构存储,用作数据库,缓存和消息代理。
它支持数据结构,如 字符串,散列,列表,集合,带有范围查询的排序集,位图,超级日志和带有半径查询的地理空间索引。
Redis具有内置复制,Lua脚本,LRU驱逐,事务和不同级别的磁盘持久性,并通过Redis Sentinel提供高可用性和Redis
Cluster自动分区。
用于操作内存的软件
可以做持久化
AOF
RDB
-相当于一个大字典
单进程单线程
redis常见性能问题和解决方案:
(1) Master最好不要做任何持久化工作,如RDB内存快照和AOF日志文件 (2) 如果数据比较重要,某个Slave开启AOF备份数据,策略设置为每秒同步一次 (3) 为了主从复制的速度和连接的稳定性,Master和Slave最好在同一个局域网内 (4) 尽量避免在压力很大的主库上增加从库 (5) 主从复制不要用图状结构,用单向链表结构更为稳定,即:Master <- Slave1 <- Slave2 <- Slave3... 这样的结构方便解决单点故障问题,实现Slave对Master的替换。如果Master挂了,可以立刻启用Slave1做Master,其他不变。
2. resis+python
1. 连接池
redis-py使用connection pool来管理对一个redis server的所有连接,避免每次建立、释放连接的开销。默认,
每个Redis实例都会维护一个自己的连接池。可以直接建立一个连接池,然后作为参数Redis,这样就可以实现多个Redis实例
共享一个连接池。
使用连接池
本质 维护一个已经和服务器连接成功了的socket
以后再发送数据时 直接获取一个sockect 直接send数据
import redis pool = redis.ConnectionPool(host='192.168.18.11', port=6379) r = redis.Redis(connection_pool=pool) r.set('foo', 'Bar') print (r.get('foo')) #是一个字节 b'Bar'
2. redis字典操作(注意:redis操作时 只有第一层value支持 list dict..)
https://www.cnblogs.com/xuchunlin/p/7064860.html
redis支持五大数据类型,只支持第一层,也就说字典的value值,必须是字符串
如果value值想存字典,必须用json转换一下,转成字符串
import redis pool = redis.ConnectionPool(host='localhost', port=6379) conn= redis.Redis(connection_pool=pool) # 字典操作 """resds={ k1:{ username:nice, age:18 } }""" # 设置值 conn.hset("k1","username","nice") conn.hset("k1","age",18)
redis hash字典操作
reids:{ k1:'dafdadfasf', m1:{ 'key2':value2, 'key1':value1, } }
hset(name, key, value),插入值
# name对应的hash中设置一个键值对(不存在,则创建;否则,修改) # 参数: # name,redis的name # key,name对应的hash中的key # value,name对应的hash中的value # 注: # hsetnx(name, key, value),当name对应的hash中不存在当前key时则创建(相当于添加) # 设置值 # conn.hset('m1','cao','曹蕊')
hmset(name, mapping),批量插入值
# 在name对应的hash中批量设置键值对 # 参数: # name,redis的name # mapping,字典,如:{'k1':'v1', 'k2': 'v2'} # 如: # r.hmset('xx', {'k1':'v1', 'k2': 'v2'}) # 批量插入设置值 # conn.hmset('m2', {'cao': 100, 'bai': 101})
hget(name,key),取值
# 在name对应的hash中获取根据key获取value # 取值,根据大字典的key,再去查key print(conn.hget('m2','cao'))
hmget(name, keys, *args) 批量取值
# 在name对应的hash中获取多个key的值 # 参数: # name,reids对应的name # keys,要获取key集合,如:['k1', 'k2', 'k3'] # *args,要获取的key,如:k1,k2,k3 # 如: # r.mget('xx', ['k1', 'k2']) # 或 # print r.hmget('xx', 'k1', 'k2') print(conn.hmget('m2','cao','bai')) print(conn.hmget('m2',['cao','bai']))
hlen(name)
# 获取name对应的hash中键值对的个数 # print(conn.hlen('m2'))
hkeys(name)
# 获取name对应的hash中所有的key的值 # print(conn.hkeys('m2'))
hvals(name)
# 获取name对应的hash中所有的value的值 # print(conn.hvals('m2'))
hexists(name, key)
# 检查name对应的hash是否存在当前传入的key # print(conn.hexists('m2','cao'))
hdel(name,*keys)
# 将name对应的hash中指定key的键值对删除 print(re.hdel('xxx','sex','name')) # conn.hdel('m2','key1','key2') # 这样可以 # conn.hdel('m2',*['key1','key2']) # 这样不行 # conn.hdel('m2',['key1','ke
hincrby用来统计一个东西的数量的频繁增加(name, key, amount=1) 计数器
hincrby应用场景: 统计文章阅读数:key是文章id,value是文章阅读数,有一个阅读者,数字加一,固定一个时间,将数据同步到数据库,
一定要写日志,避免出错,还能查找到 # 自增name对应的hash中的指定key的值,不存在则创建key=amount # 参数: # name,redis中的name # key, hash对应的key # amount,自增数(整数) conn.hincrby('m1','key3')
hincrbyfloat(name, key, amount=1.0)
# 自增name对应的hash中的指定key的值,不存在则创建key=amount # 参数: # name,redis中的name # key, hash对应的key # amount,自增数(浮点数) # 自增name对应的hash中的指定key的值,不存在则创建key=amount
hgetall(name)——慎用,一次性取出数据前需要先hlen看下长度
# 获取name对应hash的所有键值 print(re.hgetall('xxx').get(b'name')) # 根据key把所有的值取出来 # print(conn.hgetall('m2'))
hscan_iter(name, match=None, count=None),增量迭代取值
# 利用yield封装hscan创建生成器,实现分批去redis中获取数据 # 参数: # match,匹配指定key,默认None 表示所有的key # count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数 # 如: # for item in r.hscan_iter('xx'): # print item 应用场景: 比如我redis中字典有10000w条数据,全部都打印出来 hscan——指定游标,然后取多少值 for i in range(1000): conn.hset('m2','key%s'%i,'value%s'%i) 指定每次取10条,直到取完 ret=conn.hscan_iter('m2',count=100) 不要用这种方式,一下全部取出,redis可能会被撑爆,或者先用len查看下长度再决定使用getall或者其他 ret=conn.hgetall('m2')
hscan(name, cursor=0, match=None, count=None)——指定游标,然后取多少数据
# 增量式迭代获取,对于数据大的数据非常有用,hscan可以实现分片的获取数据,并非一次性将数据全部获取完,从而防止内存被撑爆 # 参数: # name,redis的name # cursor,游标(基于游标分批取获取数据) # match,匹配指定key,默认None 表示所有的key # count,每次分片最少获取个数,默认None表示采用Redis的默认分片个数 # 如: # 第一次:cursor1, data1 = r.hscan('xx', cursor=0, match=None, count=None) # 第二次:cursor2, data1 = r.hscan('xx', cursor=cursor1, match=None, count=None) # ... # 直到返回值cursor的值为0时,表示数据已经通过分片获取完毕
3. redis列表操作(队列:先进先出 栈:后进先出)
https://www.cnblogs.com/zl1991/p/10552160.html
import redis pool = redis.ConnectionPool(host='localhost', port=6379) conn= redis.Redis(connection_pool=pool) """ redis = { k1:[1,2,3,43,45] } """ conn.lpush('k1',1111)
lpush(name,values) # 在name对应的list中添加元素,每个新的元素都添加到列表的最左边 # 如: # r.lpush('oo', 11,22,33) # 保存顺序为: 33,22,11 # 扩展: # rpush(name, values) 表示从右向左操作 lpushx(name,value) # 在name对应的list中添加元素,只有name已经存在时,值添加到列表的最左边 # 更多: # rpushx(name, value) 表示从右向左操作 llen(name) # name对应的list元素的个数 linsert(name, where, refvalue, value)) # 在name对应的列表的某一个值前或后插入一个新值 # 参数: # name,redis的name # where,BEFORE或AFTER # refvalue,标杆值,即:在它前后插入数据 # value,要插入的数据 r.lset(name, index, value) # 对name对应的list中的某一个索引位置重新赋值 # 参数: # name,redis的name # index,list的索引位置 # value,要设置的值 r.lrem(name, value, num) # 在name对应的list中删除指定的值 # 参数: # name,redis的name # value,要删除的值 # num, num=0,删除列表中所有的指定值; # num=2,从前到后,删除2个; # num=-2,从后向前,删除2个 lpop(name) # 在name对应的列表的左侧获取第一个元素并在列表中移除,返回值则是第一个元素 # 更多: # rpop(name) 表示从右向左操作 lindex(name, index) 在name对应的列表中根据索引获取列表元素 lrange(name, start, end) # 在name对应的列表分片获取数据 # 参数: # name,redis的name # start,索引的起始位置 # end,索引结束位置 ltrim(name, start, end) # 在name对应的列表中移除没有在start-end索引之间的值 # 参数: # name,redis的name # start,索引的起始位置 # end,索引结束位置 rpoplpush(src, dst) # 从一个列表取出最右边的元素,同时将其添加至另一个列表的最左边 # 参数: # src,要取数据的列表的name # dst,要添加数据的列表的name
blpop(keys, timeout) # 将多个列表排列,按照从左到右去pop对应列表的元素 # 参数: # keys,redis的name的集合 # timeout,超时时间,当元素所有列表的元素获取完之后,阻塞等待列表内有数据的时间(秒), 0 表示永远阻塞 # 更多: # r.brpop(keys, timeout),从右向左获取数据
brpoplpush(src, dst, timeout=0) # 从一个列表的右侧移除一个元素并将其添加到另一个列表的左侧 # 参数: # src,取出并要移除元素的列表对应的name # dst,要插入元素的列表对应的name # timeout,当src对应的列表中没有数据时,阻塞等待其有数据的超时时间(秒),0 表示永远阻塞
自定义增量迭代 (- 通过yield创建一个生成器完成一点一点获取 通过字典操作的源码来的灵感)
由于redis类库中没有提供对列表元素的增量迭代,如果想要循环name对应的列表的所有元素,那么就需要:
# 1、获取name对应的所有列表
# 2、循环列表
# 但是,如果列表非常大,那么就有可能在第一步时就将程序的内容撑爆,所有有必要自定义一个增量迭代的功能:
import redis conn = redis.Redis(host='47.94.172.250',port=6379,) def list_iter(key,count=100):
自定义redis列表增量迭代
:param name: redis中的name,即:迭代name对应的列表
:return: yield 返回 列表元素
index = 0 while True: data_list = conn.lrange('k1', index, index+count-1) if not data_list: return index += count for item in data_list: yield item print(conn.lrange('k1',0,101))
使用 for item in list_iter('k1',count=3): print(item)
- 事务+一次发送多个命令
conn = redis.Redis(host='47.94.172.250',port=6379) pipe = conn.pipeline(transaction=True) pipe.multi() pipe.set('k2','123') pipe.hset('k3','n1',666) pipe.lpush('k4','laonanhai') pipe.execute()