一、为啥需要集群
1、容量不够,redis如何进行扩容?
2、并发写操作, redis如何分摊?
3、另外,主从模式,薪火相传模式,主机宕机,导致ip地址发生变化,应用程序中配置需要修改对应的主机地址、端口等信息,导致我们操作时变得复杂。
redis3.0之前通过代理主机来解决,但是redis3.0中提供了解决方案,就是无中心化集群配置。
二、集群介绍
1、Redis 集群实现了对Redis的水平扩容,即启动N个redis节点,将整个数据库分布存储在这N个节点中,每个节点存储总数据的1/N。
2、Redis 集群通过分区(partition)来提供一定程度的可用性(availability): 即使集群中有一部分节点失效或者无法进行通讯, 集群也可以继续处理命令请求。
三、配置集群步骤(Docker版(无配置文件版))
3.1、redis.conf配置文件写法
1、cluster-enabled yes 打开集群模式
2、cluster-config-file nodes-6379.conf 设定节点配置文件名
3、cluster-node-timeout 15000 设定节点失联时间,超过该时间(毫秒),集群自动进行主从切换。
include /home/bigdata/redis.conf
port 6379
pidfile "/var/run/redis_6379.pid"
dbfilename "dump6379.rdb"
dir "/home/bigdata/redis_cluster"
logfile "/home/bigdata/redis_cluster/redis_err_6379.log"
cluster-enabled yes
cluster-config-file nodes-6379.conf
cluster-node-timeout 15000
我们在启动配置redis时,使用这个配置文件即可启动集群版本的redis服务器。
3.2、创建6个集群版本的redis容器
docker create --name redis-node1 --net host -v /data/redis-data/node1:/data redis --cluster-enabled yes --cluster-config-file nodes-node-1.conf --port 6379
docker create --name redis-node2 --net host -v /data/redis-data/node2:/data redis --cluster-enabled yes --cluster-config-file nodes-node-2.conf --port 6380
docker create --name redis-node3 --net host -v /data/redis-data/node3:/data redis --cluster-enabled yes --cluster-config-file nodes-node-3.conf --port 6381
docker create --name redis-node4 --net host -v /data/redis-data/node4:/data redis --cluster-enabled yes --cluster-config-file nodes-node-4.conf --port 6382
docker create --name redis-node5 --net host -v /data/redis-data/node5:/data redis --cluster-enabled yes --cluster-config-file nodes-node-5.conf --port 6383
docker create --name redis-node6 --net host -v /data/redis-data/node6:/data redis --cluster-enabled yes --cluster-config-file nodes-node-6.conf --port 6384
参数解释
- create 只创建我们的容器,不运行我们的容器
- ‘- -name redis-node1’ ,指定容器的名字为redis-node1
- ‘- -net host’ 指定使用网络host
- ‘-v /data/redis-data/node1:/data’ 挂载一个容器卷,同步数据
- ‘–cluster-enabled’:是否启动集群,选值:yes 、no
- ‘–cluster-config-file’ 配置文件.conf :指定节点信息,自动生成,就是指定我们配置文件的名字
- ‘–cluster-node-timeout’ 毫秒值: 配置节点连接超时时间,自动切换从机为主机的断联时间
- ‘–appendonly’:是否开启持久化,选值:yes、no
- redis 基于镜像redis最新版
3.3、启动我们六个redis容器
# 启动我们的六个容器
docker start redis-node1 redis-node2 redis-node3 redis-node4 redis-node5 redis-node6
3.4、组建我们的redis集群
1、首先随便进入一个我们已经启动的集群版本的redis容器
# 这里以 redis-node1 实例为例
docker exec -it redis-node1 /bin/bash
2、执行组建集群的命令
redis-cli --cluster create redis服务器Ip1 端口 。。。。。–cluster-replicas 1(或者其他数字,对应一个主机对应几个从机,我们需要准备对应数量的redis服务器)
redis-cli --cluster create 192.168.115.128:6379 192.168.115.128:6380 192.168.115.128:6381 192.168.115.128:6382 192.168.115.128:6383 192.168.115.128:6384 --cluster-replicas 1
3、查看我们集群组件的信息
随便连接上一个redis服务器
指定指令 cluster nodes 就会打印集群相关的信息
3.5、集群版连接redis
当我们使用普通方式(redis-cli)连接我们的redis是,进行key的操作时,会爆出MOVE重定向操作错误,我们需要使用集群版的登录(redis-cli -c)表示登录集群,当我们操作的key在其他节点上时,就会转换到对应节点操作(-c 采用集群策略连接,设置数据会自动切换到相应的写主机)
3.6、redis cluster 如何分配这六个节点?
一个集群至少要有三个主节点。
选项 --cluster-replicas 1 表示我们希望为集群中的每个主节点创建一个从节点。
分配原则尽量保证每个主数据库运行在不同的IP地址,每个从库和主库不在一个IP地址上。避免一个服务挂了就导致所有服务挂了
3.7、slots(插槽)
1、介绍
[OK] All 16384 slots covered.
一个 Redis 集群包含 16384 个插槽(hash slot), 数据库中的每个键都属于这 16384 个插槽的其中一个, 集群使用公式 CRC16(key) % 16384 来计算键 key 属于哪个槽, 其中 CRC16(key) 语句用于计算键 key 的 CRC16 校验和 。
集群中的每个节点负责处理一部分插槽(印证开头每个几点存储集群1/N的key)。 举个例子, 如果一个集群可以有主节点, 其中:
节点 A 负责处理 0 号至 5460 号插槽。
节点 B 负责处理 5461 号至 10922 号插槽。
节点 C 负责处理 10923 号至 16383 号插槽。
2、在集群中录入值
在redis-cli每次录入、查询键值,redis都会计算出该key应该送往的插槽,如果不是该客户端对应服务器的插槽,redis会报错,并告知应前往的redis实例地址和端口。
redis-cli客户端提供了 –c 参数实现自动重定向。
如 redis-cli -c –p 6379 登入后,再录入、查询键值对可以自动重定向。
不在一个slot下的键值,是不能使用mget,mset等多键操作。
可以通过{}来定义组的概念,从而使key中{}内相同内容的键值对放到一个slot中去。
3、查询集群中的值
CLUSTER GETKEYSINSLOT 返回 count 个 slot 槽中的键。
4、故障恢复
如果主节点下线?从节点能否自动升为主节点?注意:15秒超时
主节点恢复后,主从关系会如何?主节点回来变成从机。
如果所有某一段插槽的主从节点都宕掉,redis服务是否还能继续?
如果某一段插槽的主从都挂掉,而cluster-require-full-coverage 为yes ,那么 ,整个集群都挂掉
如果某一段插槽的主从都挂掉,而cluster-require-full-coverage 为no ,那么,该插槽数据全都不能使用,也无法存储。
redis.conf中的参数 cluster-require-full-coverage
3.8、Redis集群好处
实现扩容
分摊压力
无中心配置相对简单
3.9、Redis集群的不足
多键操作是不被支持的
多键的Redis事务是不被支持的。lua脚本不被支持
由于集群方案出现较晚,很多公司已经采用了其他的集群方案,而代理或者客户端分片的方案想要迁移至redis cluster,需要整体迁移而不是逐步过渡,复杂度较大。