redis

第1章 NOSQL

1.1 RDBMS与NOSQL

3、RDBMS与NOSQL        ----熟悉

    3.1 RDBMS和NoSQL基本特点  

    3.2 产品介绍(熟悉) 

        RDBMS:Oracle、mysql、mssql(SQL Server)、PG(postgresql)

               数据安全性要求较高的应用场景

        NoSQL:redis、mongodb、memcache、Hbase、neo4j

               针对性能要求较高,数据安全性要求不是太高的场景,一般是配合RDBMS使用的产品

1.2 NoSQL——缓存数据库Redis & Memcached(KV存储数据)

-----配合RDBMS来使用的----

 

Linux自带的内存管理机制

Slab Allocater:slab分配器

buddy system:内存管理伙伴系统   

------------- 

memcached :更加适合多线程连接,少量读写。多核的处理模式  

redis:更加适合于单线程,多次读写,所以说他更加适合时候多实例环境。单核的处理模式。  

 

1.3 redis安全控制参数

1、redis安全控制参数

 

bind 10.0.0.51 127.0.0.1

requirepass 123

redis-cli -h IP -p port -a

auth

 

2、redis持久化的方式,简单说说特点

RDB:快照方式

save  

有可能会有数据丢失 

 

AOF:追加形式

数据量较大

3、redis事务和mysql区别

队列         

乐观锁       

4、redis数据类型有哪些,简单说说特点

 

string 字符串

hash   字典  

list   列表  

set    集合  

sort set 有序集合

 

消息队列系统

kafka

rebbitMQ

metaQ

1.4 redis主从复制

原理:

1、在开启主从复制的时候,使用的是RDB方式的,同步主从数据的

2、同步开始之后,通过主库命令传播的方式,主动的复制方式实现

3、2.8以后实现PSYNC的机制,实现断线重连

 

主从数据一致性保证:

 

min-slaves-to-write <number of slaves>

min-slaves-max-lag <number of seconds>

 

 

这个特性的运作原理:

从服务器以每秒一次的频率 PING 主服务器一次, 并报告复制流的处理情况。

主服务器会记录各个从服务器最后一次向它发送 PING 的时间。

用户可以通过配置, 指定网络延迟的最大值 min-slaves-max-lag ,

以及执行写操作所需的至少从服务器数量 min-slaves-to-write 。

如果至少有 min-slaves-to-write 个从服务器, 并且这些服务器的延迟值都少于 min-slaves-max-lag秒,

那么主服务器就会执行客户端请求的写操作。

你可以将这个特性看作 CAP 理论中的 C 的条件放宽版本: 尽管不能保证写操作的持久性, 但起码丢失数据的窗口会被严格限制在指定的秒数中。

另一方面, 如果条件达不到 min-slaves-to-write 和 min-slaves-max-lag 所指定的条件, 那么写操作就不会被执行,主服务器会向请求执行写操作的客户端返回一个错误。

1.5 主从复制实现:

1、环境:

准备两个或两个以上redis实例

 

mkdir /data/638{0..2}

 redis有密码的时候需要在从配置文件里面加上masterauth   ***

配置文件示例:

vim   /data/6380/redis.conf

port 6380

daemonize yes

pidfile /data/6380/redis.pid

loglevel notice

logfile "/data/6380/redis.log"

dbfilename dump.rdb

dir /data/6380

protected-mode no

 

 

vim   /data/6381/redis.conf

port 6381

daemonize yes

pidfile /data/6381/redis.pid

loglevel notice

logfile "/data/6381/redis.log"

dbfilename dump.rdb

dir /data/6381

protected-mode no

 

 

vim   /data/6382/redis.conf

port 6382

daemonize yes

pidfile /data/6382/redis.pid

loglevel notice

logfile "/data/6382/redis.log"

dbfilename dump.rdb

dir /data/6382

protected-mode no

 

启动:

redis-server /data/6380/redis.conf

redis-server /data/6381/redis.conf

redis-server /data/6382/redis.conf

 

 

主节点:6380

从节点:6381、6382

 

 

2、开启主从:

6381/6382命令行:

 

redis-cli -p 6381

SLAVEOF 127.0.0.1 6380

 

redis-cli -p 6381

SLAVEOF 127.0.0.1 6380

 

 

3、查询主从状态

 

从库:

127.0.0.1:6382> info replication

 

主库:

127.0.0.1:6380> info replication

 

 

4、从库切为主库

 

slaveof no one

1.6 redis-sentinel(哨兵)26830

1、监控

2、自动选主,切换(6381 slaveof no one)

3、2号从库(6382)指向新主库(6381)

1.7 sentinel搭建过程

mkdir /data/26380

cd /data/26380

 

vim sentinel.conf

port 26380

dir "/data/26380"

sentinel monitor mymaster 127.0.0.1 6380 1

sentinel down-after-milliseconds mymaster 5000

 

启动:

redis-sentinel /data/26380/sentinel.conf

 

 

停主库测试:

 

 

[root@db01 ~]# redis-cli -p 6380

shutdown

 

[root@db01 ~]# redis-cli -p 6381

info replication

 

启动源主库(6380),看状态。

 

 

Sentinel管理命令:

PING :返回 PONG 。

SENTINEL masters :列出所有被监视的主服务器

SENTINEL slaves <master name>

SENTINEL get-master-addr-by-name <master name> : 返回给定名字的主服务器的 IP 地址和端口号。

SENTINEL reset <pattern> : 重置所有名字和给定模式 pattern 相匹配的主服务器。

SENTINEL failover <master name> : 当主服务器失效时, 在不询问其他 Sentinel 意见的情况下, 强制开始一次自动故障迁移。

1.8 redis cluster高性能:高可用:

 

高性能:

 

1、在多分片节点中,将16384个槽位,均匀分布到多个分片节点中

2、存数据时,将key做crc16(key),然后和16384进行取模,得出槽位值(0-16383之间)

3、根据计算得出的槽位值,找到相对应的分片节点的主节点,存储到相应槽位上

4、如果客户端当时连接的节点不是将来要存储的分片节点,分片集群会将客户端连接切换至真正存储节点进行数据存储

 

高可用:

在搭建集群时,会为每一个分片的主节点,对应一个从节点,实现slaveof的功能,同时当主节点down,实现类似于sentinel的自动failover的功能。

 

 

 

规划、搭建过程:

 

6个redis实例,一般会放到3台硬件服务器

注:在企业规划中,一个分片的两个分到不同的物理机,防止硬件主机宕机造成的整个分片数据丢失。

 

端口号:7000-7005

1.8.1 安装集群插件

EPEL源安装ruby支持

yum install ruby rubygems -y

 

使用国内源

gem sources -l

gem sources -a http://mirrors.aliyun.com/rubygems/

gem sources  --remove http://rubygems.org/

gem install redis -v 3.3.3

gem sources -l

 

或者:

gem sources -a http://mirrors.aliyun.com/rubygems/  --remove http://rubygems.org/

1.8.2 集群节点准备

mkdir /data/700{0..5}

 

vim /data/7000/redis.conf

port 7000

daemonize yes

pidfile /data/7000/redis.pid

loglevel notice

logfile "/data/7000/redis.log"

dbfilename dump.rdb

dir /data/7000

protected-mode no

cluster-enabled yes

cluster-config-file nodes.conf

cluster-node-timeout 5000

appendonly yes

 

 

vim /data/7001/redis.conf

port 7001

daemonize yes

pidfile /data/7001/redis.pid

loglevel notice

logfile "/data/7001/redis.log"

dbfilename dump.rdb

dir /data/7001

protected-mode no

cluster-enabled yes

cluster-config-file nodes.conf

cluster-node-timeout 5000

appendonly yes

 

 

vim /data/7002/redis.conf

port 7002

daemonize yes

pidfile /data/7002/redis.pid

loglevel notice

logfile "/data/7002/redis.log"

dbfilename dump.rdb

dir /data/7002

protected-mode no

cluster-enabled yes

cluster-config-file nodes.conf

cluster-node-timeout 5000

appendonly yes

 

 

 

vim /data/7003/redis.conf

port 7003

daemonize yes

pidfile /data/7003/redis.pid

loglevel notice

logfile "/data/7003/redis.log"

dbfilename dump.rdb

dir /data/7003

protected-mode no

cluster-enabled yes

cluster-config-file nodes.conf

cluster-node-timeout 5000

appendonly yes

 

 

 

vim /data/7004/redis.conf

port 7004

daemonize yes

pidfile /data/7004/redis.pid

loglevel notice

logfile "/data/7004/redis.log"

dbfilename dump.rdb

dir /data/7004

protected-mode no

cluster-enabled yes

cluster-config-file nodes.conf

cluster-node-timeout 5000

appendonly yes

 

 

vim /data/7005/redis.conf

port 7005

daemonize yes

pidfile /data/7005/redis.pid

loglevel notice

logfile "/data/7005/redis.log"

dbfilename dump.rdb

dir /data/7005

protected-mode no

cluster-enabled yes

cluster-config-file nodes.conf

cluster-node-timeout 5000

appendonly yes

 

 

启动节点:

 

redis-server /data/7000/redis.conf

redis-server /data/7001/redis.conf

redis-server /data/7002/redis.conf

redis-server /data/7003/redis.conf

redis-server /data/7004/redis.conf

redis-server /data/7005/redis.conf

 

 

 

[root@db01 ~]# ps -ef |grep redis

root       8854      1  0 03:56 ?        00:00:00 redis-server *:7000 [cluster]    

root       8858      1  0 03:56 ?        00:00:00 redis-server *:7001 [cluster]    

root       8860      1  0 03:56 ?        00:00:00 redis-server *:7002 [cluster]    

root       8864      1  0 03:56 ?        00:00:00 redis-server *:7003 [cluster]    

root       8866      1  0 03:56 ?        00:00:00 redis-server *:7004 [cluster]    

root       8874      1  0 03:56 ?        00:00:00 redis-server *:7005 [cluster] 

1.8.3 将节点加入集群管理

redis-trib.rb create --replicas 1 127.0.0.1:7000 127.0.0.1:7001

127.0.0.1:7002 127.0.0.1:7003 127.0.0.1:7004 127.0.0.1:7005      

1.8.4 集群状态查看

集群主节点状态

redis-cli -p 7000 cluster nodes | grep master

集群从节点状态

redis-cli -p 7000 cluster nodes | grep slave

1.8.5 集群节点管理

1.8.5.1  增加新的节点

 

[root@db01 ~]# mkdir /data/7006

[root@db01 ~]# mkdir /data/7007

 

 

vim /data/7006/redis.conf

port 7006

daemonize yes

pidfile /data/7006/redis.pid

loglevel notice

logfile "/data/7006/redis.log"

dbfilename dump.rdb

dir /data/7006

protected-mode no

cluster-enabled yes

cluster-config-file nodes.conf

cluster-node-timeout 5000

appendonly yes

 

 

vim /data/7007/redis.conf

port 7007

daemonize yes

pidfile /data/7007/redis.pid

loglevel notice

logfile "/data/7007/redis.log"

dbfilename dump.rdb

dir /data/7007

protected-mode no

cluster-enabled yes

cluster-config-file nodes.conf

cluster-node-timeout 5000

appendonly yes

 

 

redis-server /data/7006/redis.conf

redis-server /data/7007/redis.conf

 

1.8.5.2  添加主节点:

redis-trib.rb add-node 127.0.0.1:7006 127.0.0.1:7000

 

1.8.5.3  转移slot(重新分片)

redis-trib.rb reshard 127.0.0.1:7000

1.8.5.4  添加从节点

redis-trib.rb? add-node? 127.0.0.1:7007?   127.0.0.1:7000??--slave? --master-id ?b77423779117b16d30243009bb3d4dbcb49b2704

 

 

1.8.5.5  添加一个从节点

redis-trib.rb add-node --slave --master-id b77423779117b16d30243009bb3d4dbcb49b2704 127.0.0.1:7007 127.0.0.1:7000

1.8.6 删除节点

6.1 将需要删除节点slot移动走

 

redis-trib.rb reshard 127.0.0.1:7000

 

 

删除一个节点

redis-trib.rb ?del-node ?ip:port? '<node-id>'?

删除master节点之前首先要使用reshard移除master的全部slot,然后再删除当前节点

redis-trib.rb ?del-node  127.0.0.1:7002 40fe08a37ca1cc354b3637514e83f0991056317c

redis-trib.rb del-node 127.0.0.1:7005 87bea54145abdeea833113ebc4e99d5d8bdc7ffe

1.9 redis的多API支持

python为例

 

 tar xf Python-3.5.2.tar.xz

cd  Python-3.5.2

./configure

make && make install

 

 

 

https://redis.io/clients

 

下载redis-py-master.zip

unzip redis-py-master.zip

cd redis-py-master

 

python3 setup.py install

 

 

安装redis-cluser的客户端程序

cd redis-py-cluster-unstable

python3 setup.py install

1.9.1 对redis的单实例进行连接操作

python3

>>>import redis

>>>r = redis.StrictRedis(host='localhost', port=6379, db=0,password='123')

>>>r.set('foo', 'bar')

True

>>>r.get('foo')

'bar'

1.9.2 sentinel集群连接并操作

[root@db01 ~]# redis-server /data/6380/redis.conf

[root@db01 ~]# redis-server /data/6381/redis.conf

[root@db01 ~]# redis-server /data/6382/redis.conf

[root@db01 ~]# redis-sentinel /data/26380/sentinel.conf &

 

 

 

--------------------------------

## 导入redis sentinel包

>>> from redis.sentinel import Sentinel 

##指定sentinel的地址和端口号

>>> sentinel = Sentinel([('localhost', 26380)], socket_timeout=0.1) 

##测试,获取以下主库和从库的信息

>>> sentinel.discover_master('mymaster') 

>>> sentinel.discover_slaves('mymaster') 

##配置读写分离

#写节点

>>> master = sentinel.master_for('mymaster', socket_timeout=0.1) 

#读节点

>>> slave = sentinel.slave_for('mymaster', socket_timeout=0.1) 

###读写分离测试   key    

>>> master.set('oldboy', '123') 

>>> slave.get('oldboy') 

'123'

 

 

----------------------

redis cluster的连接并操作(python2.7.2以上版本才支持redis cluster,我们选择的是3.5)

https://github.com/Grokzen/redis-py-cluster

1.9.3 python连接rediscluster集群测试

使用

 

python3

>>> from rediscluster import StrictRedisCluster 

>>> startup_nodes = [{"host": "127.0.0.1", "port": "7000"}] 

### Note: decode_responses must be set to True when used with python3 

>>> rc = StrictRedisCluster(startup_nodes=startup_nodes, decode_responses=True) 

>>> rc.set("foo", "bar") 

True 

>>> print(rc.get("foo")) 

'bar'

----------------------

1.10 redis安装配置:

下载:

wget http://download.redis.io/releases/redis-3.2.10.tar.gz

解压:

上传至/usr/local

tar xzf redis-3.2.10.tar.gz

mv redis-3.2.10 redis

安装:

cd redis

make

启动:

src/redis-server &

 

连接测试:

src/redis-cli

 

环境变量配置:

vim /root/.bash_profile

export PATH=/usr/local/redis/src:$PATH

source /root/.bash_profile

 

连接测试:

redis-cli

1.11 基础配置文件介绍

mkdir /data/6379

vim /data/6379/redis.conf

daemonize yes

port 6379

logfile /data/6379/redis.log

dir /data/6379

dbfilename dump.rdb

 

 

127.0.0.1:6379> shutdown

not connected> exit

[root@db01 6379]# redis-server /data/6379/redis.conf

 

 

redis.conf

是否后台运行:

daemonize yes

默认端口:

port 6379

日志文件位置

logfile /var/log/redis.log

持久化文件存储位置

dir /data/6379

RDB持久化数据文件:

dbfilename dump.rdb

 

 

redis-cli

CONFIG GET logfile

1.12 redis安全配置

Bind

 

指定IP进行监听 bind 10.0.0.51  127.0.0.1

 

禁止protected-mode

protected-mode yes/no (保护模式,是否只允许本地访问)

增加requirepass  {password}

requirepass root

在redis-cli中使用

auth {password} 进行认证

 

--------------

 

配置安全验证

vim  /data/6379/redis.conf   ---添加以下内容

bind 10.0.0.51  127.0.0.1

requirepass 123

 

重启redis生效

127.0.0.1:6379> shutdown

not connected> exit

[root@db01 6379]# redis-server /data/6379/redis.conf

 

连接测试:

redis-cli -h 10.0.0.51 -p 6379 -a 123

或者

redis-cli -h 10.0.0.51 -p 6379

auth 123

 

在线查看和修改配置

 

CONFIG GET *

CONFIG GET requirepass

CONFIG SET requirepass 123456

1.13 redis持久化(内存数据保存到磁盘)

redis持久化(内存数据保存到磁盘)

 

RDB 持久化

    可以在指定的时间间隔内生成数据集的时间点快照(point-in-time snapshot)。

    优点:速度快,适合于用做备份。

    缺点:会有数据丢失

----------

rdb持久化配置:

 

dir /data/6379

dbfilename dump.rdb

save 900 1

save 300 10

save 60 10000

 

配置分别表示:

900秒(15分钟)内有1个更改

300秒(5分钟)内有10个更改

60秒内有10000个更改

   

   

----------   

AOF 持久化

    记录服务器执行的所有写操作命令,并在服务器启动时,通过重新执行这些命令来还原数据集。

    AOF 文件中的命令全部以 Redis 协议的格式来保存,新命令会被追加到文件的末尾。

    优点:可以最大程度保证数据不丢

    缺点:日志记录量级比较大

-------------

AOF持久化配置

 

appendonly yes

appendfsync always   

 

appendfsync everysec   每秒追加一次

appendfsync no

 

是否打开aof日志功能

每1个命令,都立即同步到aof

每秒写1次

写入工作交给操作系统,由操作系统判断缓冲区大小,统一写入到aof.

-----------------------

1.13.1 Redis数据类:

String :字符类型

Hash:   字典类型

List:   列表

Set:    集合

Sorted set:有序集合   音乐排行榜例子

----------------------------

KEYS *                      查看KEY支持通配符

DEL                         删除给定的一个或多个key

EXISTS                      检查是否存在

RENAME                      变更KEY名

TYPE                        返回键所存储值的类型

EXPIRE PEXPIRE             以秒毫秒设定生存时间

TTL PTTL                   以秒毫秒为单位返回生存时间

PERSIST                     取消生存实现设置

--------------------------

 

strings

----------

应用场景

常规计数:微博数,粉丝数等。

 

----------

set mykey "test"            为键设置新值,并覆盖原有值

getset mycounter 0              设置值,取值同时进行

setex mykey 10 "hello"          设置指定 Key 的过期时间为10秒,在存活时间可以获取value

setnx mykey "hello"             若该键不存在,则为键设置新值

mset key3  "zyx"  key4 "xyz"    批量设置键

 

del mykey                   删除已有键

 

append mykey "hello"            若该键并不存在,返回当前 Value 的长度

                            该键已经存在,返回追加后 Value的长度

incr mykey                  值增加1,若该key不存在,创建key,初始值设为0,增加后结果为1

decrby  mykey  5            值减少5

setrange mykey 20 dd            把第21和22个字节,替换为dd, 超过value长度,自动补0

 

查 

exists mykey                    判断该键是否存在,存在返回 1,否则返回0

get mykey                   获取Key对应的value

strlen mykey                获取指定 Key 的字符长度

ttl mykey                   查看一下指定 Key 的剩余存活时间(秒数)

getrange mykey 1 20             获取第2到第20个字节,若20超过value长度,则截取第2个和后面所有的

mget key3 key4                  批量获取键

---------------------------

hash类型

应用场景:

存储部分变更的数据,如用户信息等。

------

hset myhash field1 "s"   

若字段field1不存在,创建该键及与其关联的Hashes, Hashes中,key为field1 ,并设value为s ,若存在会覆盖原value

hsetnx myhash field1 s   

若字段field1不存在,创建该键及与其关联的Hashes, Hashes中,key为field1 ,并设value为s, 若字段field1存在,则无效

hmset myhash field1 "hello" field2 "world       一次性设置多个字段

hdel myhash field1                      删除 myhash 键中字段名为 field1 的字段

del myhash                              删除键

改 

hincrby myhash field 1                  给field的值加1

 

hget myhash field1                      获取键值为 myhash,字段为 field1 的值

hlen myhash                             获取myhash键的字段数量

hexists myhash field1                   判断 myhash 键中是否存在字段名为 field1 的字段

hmget myhash field1 field2 field3       一次性获取多个字段

hgetall myhash                          返回 myhash 键的所有字段及其值

hkeys myhash                            获取myhash 键中所有字段的名字

hvals myhash                            获取 myhash 键中所有字段的值

---------------

LIST(列表)

应用场景

消息队列系统

比如sina微博:?在Redis中我们的最新微博ID使用了常驻缓存,这是一直更新的。

但是做了限制不能超过5000个ID,因此获取ID的函数会一直询问Redis。

只有在start/count参数超出了这个范围的时候,才需要去访问数据库。?

系统不会像传统方式那样“刷新”缓存,Redis实例中的信息永远是一致的。

SQL数据库(或是硬盘上的其他类型数据库)只是在用户需要获取“很远”的数据时才会被触发,

而主页或第一个评论页是不会麻烦到硬盘上的数据库了。

-----------------

lpush mykey a b             若key不存在,创建该键及与其关联的List,依次插入a ,b, 若List类型的key存在,则插入value中

lpushx mykey2 e             若key不存在,此命令无效, 若key存在,则插入value中

linsert mykey before a a1  在 a 的前面插入新元素 a1

linsert mykey after e e2   在e 的后面插入新元素 e2

rpush mykey a b             在链表尾部先插入b,在插入a

rpushx mykey e              若key存在,在尾部插入e, 若key不存在,则无效

rpoplpush mykey mykey2      将mykey的尾部元素弹出,再插入到mykey2 的头部(原子性的操作)

del mykey                   删除已有键

lrem mykey 2 a              从头部开始找,按先后顺序,值为a的元素,删除数量为2个,若存在第3个,则不删除

ltrim mykey 0 2             从头开始,索引为0,1,2的3个元素,其余全部删除

lset mykey 1 e              从头开始, 将索引为1的元素值,设置为新值 e,若索引越界,则返回错误信息

rpoplpush mykey mykey       将 mykey 中的尾部元素移到其头部

lrange mykey 0 -1           取链表中的全部元素,其中0表示第一个元素,-1表示最后一个元素。

lrange mykey 0 2            从头开始,取索引为0,1,2的元素

lrange mykey 0 0            从头开始,取第一个元素,从第0个开始,到第0个结束

lpop mykey                  获取头部元素,并且弹出头部元素,出栈

lindex mykey 6              从头开始,获取索引为6的元素 若下标越界,则返回nil

------------

SET 集合类型(join union)

 

1.14 应用场景:

案例:?在微博应用中,可以将一个用户所有的关注人存在一个集合中,将其所有粉丝存在一个集合。

Redis还为集合提供了求交集、并集、差集等操作,可以非常方便的实现如共同关注、共同喜好、二度好友等功能,

对上面的所有集合操作,你还可以使用不同的命令选择将结果返回给客户端还是存集到一个新的集合中。

-------

 

 

sadd myset a b c 

若key不存在,创建该键及与其关联的set,依次插入a ,b,若key存在,则插入value中,若a 在myset中已经存在,则插入了 d 和 e 两个新成员。

spop myset              尾部的b被移出,事实上b并不是之前插入的第一个或最后一个成员

srem myset a d f        若f不存在, 移出 a、d ,并返回2

smove myset myset2 a        将a从 myset 移到 myset2,

sismember myset a           判断 a 是否已经存在,返回值为 1 表示存在。

smembers myset          查看set中的内容

scard myset             获取Set 集合中元素的数量

srandmember myset       随机的返回某一成员

sdiff myset1 myset2 myset3      1和2得到一个结果,拿这个集合和3比较,获得每个独有的值

sdiffstore diffkey myset myset2 myset3      3个集和比较,获取独有的元素,并存入diffkey 关联的Set中

sinter myset myset2 myset3              获得3个集合中都有的元素

sinterstore interkey myset myset2 myset3  把交集存入interkey 关联的Set中

sunion myset myset2 myset3              获取3个集合中的成员的并集

sunionstore unionkey myset myset2 myset3  把并集存入unionkey 关联的Set中

1.15 SortedSet(有序集合)

应用场景:

排行榜应用,取TOP N操作?

这个需求与上面需求的不同之处在于,前面操作以时间为权重,这个是以某个条件为权重,比如按顶的次数排序,

这时候就需要我们的sorted set出马了,将你要排序的值设置成sorted set的score,将具体的数据设置成相应的value,

每次只需要执行一条ZADD命令即可。

 

zadd myzset 2 "two" 3 "three"       添加两个分数分别是 2 和 3 的两个成员

zrem myzset one two                 删除多个成员变量,返回删除的数量

zincrby myzset 2 one                将成员 one 的分数增加 2,并返回该成员更新后的分数

zrange myzset 0 -1 WITHSCORES       返回所有成员和分数,不加WITHSCORES,只返回成员

zrank myzset one                    获取成员one在Sorted-Set中的位置索引值。0表示第一个位置

zcard myzset                        获取 myzset 键中成员的数量

zcount myzset 1 2                   获取分数满足表达式 1 <= score <= 2 的成员的数量

zscore myzset three                 获取成员 three 的分数

zrangebyscore myzset  1 2               获取分数满足表达式 1 < score <= 2 的成员

#-inf 表示第一个成员,+inf最后一个成员

#limit限制关键字

#2  3  是索引号

zrangebyscore myzset -inf +inf limit 2 3  返回索引是2和3的成员

zremrangebyscore myzset 1 2         删除分数 1<= score <= 2 的成员,并返回实际删除的数量

zremrangebyrank myzset 0 1              删除位置索引满足表达式 0 <= rank <= 1 的成员

zrevrange myzset 0 -1 WITHSCORES        按位置索引从高到低,获取所有成员和分数

#原始成员:位置索引从小到大

      one  0 

      two  1

#执行顺序:把索引反转

      位置索引:从大到小

      one 1

      two 0

#输出结果: two 

       one

zrevrange myzset 1 3                获取位置索引,为1,2,3的成员

#相反的顺序:从高到低的顺序

zrevrangebyscore myzset 3 0             获取分数 3>=score>=0的成员并以相反的顺序输出

zrevrangebyscore myzset 4 0 limit 1 2    获取索引是1和2的成员,并反转位置索引

1.16 发布订阅

[悲观锁] [乐观锁] 

举例:我正在买票

Ticket -1 , money -100

而票只有1张, 如果在我multi之后,和exec之前, 票被别人买了---即ticket变成0了.

我该如何观察这种情景,并不再提交

悲观的想法:

世界充满危险,肯定有人和我抢, 给 ticket上锁, 只有我能操作. [悲观锁]

乐观的想法:

没有那么人和我抢,因此,我只需要注意,

--有没有人更改ticket的值就可以了 [乐观锁]

Redis的事务中,启用的是乐观锁,只负责监测key没有被改动.

 

 

PUBLISH channel msg

    将信息 message 发送到指定的频道 channel?

SUBSCRIBE channel [channel ...]

    订阅频道,可以同时订阅多个频道

UNSUBSCRIBE [channel ...]

    取消订阅指定的频道, 如果不指定频道,则会取消订阅所有频道

PSUBSCRIBE pattern [pattern ...]

    订阅一个或多个符合给定模式的频道,每个模式以 * 作为匹配符,比如 it* 匹配所  有以 it 开头的频道( it.news 、 it.blog 、 it.tweets 等等), news.* 匹配所有   以 news. 开头的频道( news.it 、 news.global.today 等等),诸如此类

PUNSUBSCRIBE [pattern [pattern ...]]

    退订指定的规则, 如果没有参数则会退订所有规则

PUBSUB subcommand [argument [argument ...]]

    查看订阅与发布系统状态

注意:使用发布订阅模式实现的消息队列,当有客户端订阅channel后只能收到后续发布到该频道的消息,之前发送的不会缓存,必须Provider和Consumer同时在线。

 

---------------

 

 

1.17 sentinel搭建过程

sentinel搭建过程

 

mkdir /data/26380

cd /data/26380

 

vim sentinel.conf

port 26380

dir "/data/26380"

sentinel monitor mymaster 127.0.0.1 6380 1

sentinel down-after-milliseconds mymaster 5000

 

启动:

redis-sentinel /data/26380/sentinel.conf

1.18 Sentinel管理命令:

Sentinel管理命令:

PING :返回 PONG 。

SENTINEL masters :列出所有被监视的主服务器

SENTINEL slaves <master name>

SENTINEL get-master-addr-by-name <master name> : 返回给定名字的主服务器的 IP 地址和端口号。

SENTINEL reset <pattern> : 重置所有名字和给定模式 pattern 相匹配的主服务器。

SENTINEL failover <master name> : 当主服务器失效时, 在不询问其他 Sentinel 意见的情况下, 强制开始一次自动故障迁移。

原文地址:https://www.cnblogs.com/xy51/p/10027411.html