节点间的内部通信机制
基础通信原理
redis cluster 节点间采取 gossip 协议进行通信
gossip:互相之间不断通信,保持整个集群所有节点的数据是完整的
而集中式是将集群元数据(节点信息,故障,等等)集中存储在某个节点上;
经典的集中式中间件 zookeeper
他们基本上都用于维护集群的元数据
集中式:
-
优点:数据更新及时,时效好
元数据的更新和读取,时效性非常好,一旦元数据出现了变更,立即就更新到集中式的存储中,其他节点读取的时候立即就可以感知到;
-
缺点:数据更新压力集中
所有的元数据的跟新压力全部集中在一个地方,可能会导致元数据的存储有压力
gossip:
-
优点:数据更新压力分散
元数据的更新比较分散,不是集中在一个地方,更新请求会陆陆续续,打到所有节点上去更新,有一定的延时,降低了压力;
-
缺点:数据更新延迟
元数据更新有延时,可能导致集群的一些操作会有一些滞后
可见 集中式 与 gossip 的优缺点是相互的。
gossip 的延迟在我们上一章节中迁移 slots 时(reshard),去做另外一个操作,会发现 configuration error,需要等待一会才能达成一致,配置数据才能同步成功
10000 端口
每个节点都有一个专门用于节点间通信的端口,就是自己提供服务的端口号 + 10000,比如 7001,那么用于节点间通信的就是 17001 端口
每个节点每隔一段时间都会往另外几个节点发送 ping 消息,同时其他几点接收到 ping 之后返回 pong
交换的信息
交换的信息有:故障信息、节点的增加和移除、hash slot 信息,等等
gossip 协议
gossip 协议包含多种消息,包括 ping、pong、meet、fail,等等
-
meet:
某个节点发送 meet 给新加入的节点,让新节点加入集群中,然后新节点就会开始与其他节点进行通信
redis-trib.rb add-node
其实内部就是发送了一个 gossip meet 消息,给新加入的节点,通知那个节点去加入我们的集群
-
ping:
每个节点都会频繁给其他节点发送 ping,其中包含自己的状态还有自己维护的集群元数据,互相通过 ping 交换元数据
每个节点每秒都会频繁发送 ping 给其他的集群,ping,频繁的互相之间交换数据,互相进行元数据的更新
-
pong:
返回 ping 和 meet,包含自己的状态和其他信息,也可以用于信息广播和更新
-
fail:
某个节点判断另一个节点 fail 之后,就发送 fail 给其他节点,通知其他节点,指定的节点宕机了
ping 消息深入
ping 很频繁,而且要携带一些元数据,所以可能会加重网络负担
每个节点每秒会执行 10 次 ping,每次会选择 5 个最久没有通信的其他节点
当然如果发现某个节点通信延时达到了 cluster_node_timeout / 2,那么立即发送 ping,避免数据交换延时过长,落后的时间太长了
比如说,两个节点之间都 10 分钟没有交换数据了,那么整个集群处于严重的元数据不一致的情况,就会有问题
所以 cluster_node_timeout 可以调节,如果调节比较大,那么会降低发送的频率
每次 ping,一个是带上自己节点的信息,还有就是带上 1/10 其他节点的信息,发送出去,进行数据交换
至少包含 3 个其他节点的信息,最多包含总节点 -2 个其他节点的信息
面向集群的 jedis 内部实现原理
后面会使用 jedis,它是 redis 的 java client 客户端,支持 redis cluster
这里会讲解 jedis cluster api 与 redis cluster 集群交互的一些基本原理
基于重定向的客户端
redis-cli -c,可以提供自动重定的功能,那么对于 jedis 来说,下面是他的实现原理
请求重定向
客户端可能会挑选任意一个 redis 实例去发送命令,每个 redis 实例接收到命令,都会计算 key 对应的 hash slot
如果在本地就在本地处理,否则返回 moved 给客户端,让客户端进行重定向
cluster keyslot mykey,可以查看一个 key 对应的 hash slot 是什么
Copy[root@eshop-cache01 ~]# redis-cli -h 192.168.99.170 -p 7001
192.168.99.170:7001> cluster keyslot myke1
(integer) 12435
192.168.99.170:7001> cluster keyslot myke2
(integer) 240
用 redis-cli 的时候,可以加入 -c 参数,支持自动的请求重定向,redis-cli 接收到 moved 之后,会自动重定向到对应的节点执行命令
但是这样会有一个问题,可能会出现大部分命令都会接受到 moved 响应,也就是说可能一次写入会有两次请求,这个就很浪费性能
计算 hash slot
计算 hash slot 的算法,就是根据 key 计算 CRC16 值,然后对 16384 取模,拿到对应的 hash slot
用 hash tag 可以手动指定 key 对应的 slot,同一个 hash tag 下的 key,都会在一个 hash slot 中,比如 set mykey1:{100} 和 set mykey2:{100}
Copy192.168.99.170:7001> set mykey1:{100} 1
OK
192.168.99.170:7001> set mykey2:{100} 2
OK
192.168.99.170:7001> set mykey1 1
OK
192.168.99.170:7001> set mykey2 2
(error) MOVED 14119 192.168.99.172:7005
192.168.99.170:7001> get mykey2
(error) MOVED 14119 192.168.99.172:7005
192.168.99.170:7001> get mykey2:{100}
"2"
可以看到,这个 tag 相当于你手动指定这个 key 路由到哪一个 solt 上去,那么只要手动了,以后查询也需要手动指定才行,所以这里需要先计算出 hash slot 的值,相当于在 redis 服务端的工作挪动到客户端来做了,这样减少了大量的 moved 请求
hash slot 查找
节点间通过 gossip 协议进行数据交换,就知道每个 hash slot 在哪个节点上
smart jedis
什么是 smart jedis
基于重定向的客户端,很消耗网络 IO,因为大部分情况下,可能都会出现一次请求重定向,才能找到正确的节点
所以大部分的客户端,比如 java redis 客户端(jedis),就是 smart 的
本地维护一份 hashslot -> node 的映射表,缓存起来,大部分情况下,直接走本地缓存就可以找到 hashslot -> node,不需要通过节点进行 moved 重定向
JedisCluster 的工作原理
-
在 JedisCluster 初始化的时候,就会随机选择一个 node,初始化 hashslot -> node 映射表,同时为每个节点创建一个 JedisPool 连接池
-
每次基于 JedisCluster 执行操作,首先 JedisCluster 都会在本地计算 key的 hashslot,然后在本地映射表找到对应的节点
-
如果那个 node 正好还是持有那个 hashslot,那么就 ok; 如果说进行了 reshard 这样的操作,可能 hashslot 已经不在那个 node 上了,就会返回 moved
-
如果 JedisCluter API 发现对应的节点返回 moved,那么利用该节点的元数据,更新本地的 hashslot -> node 映射表缓存
重复上面几个步骤,直到找到对应的节点,如果重试超过 5 次,那么就报错 JedisClusterMaxRedirectionException
jedis 老版本,可能会出现在集群某个节点故障还没完成自动切换恢复时,频繁更新 hash slot,频繁 ping 节点检查活跃,导致大量网络 IO 开销
jedis 最新版本,对于这些过度的 hash slot 更新和 ping,都进行了优化,避免了类似问题
hashslot 迁移和 ask 重定向
如果 hash slot 正在迁移,那么会返回 ask 重定向给 jedis
jedis 接收到 ask 重定向之后,会重新定位到目标节点去执行,但是因为 ask 发生在 hash slot 迁移过程中,所以 JedisCluster API 收到 ask 是不会更新 hashslot 本地缓存
已经可以确定 hashslot 已经迁移完了,访问会返回 moved, 那么是会更新本地 hashslot->node 映射表缓存的
高可用性与主备切换原理
redis cluster 的高可用的原理,几乎跟哨兵是类似的
-
判断节点宕机
如果一个节点认为另外一个节点宕机,那么就是 pfail,主观宕机
如果多个节点都认为另外一个节点宕机了,那么就是 fail,客观宕机,跟哨兵的原理几乎一样,sdown、odown
在 cluster-node-timeout 内,某个节点一直没有返回 pong,那么就被认为 pfail
如果一个节点认为某个节点 pfail 了,那么会在 gossip ping 消息中,ping 给其他节点,如果超过半数的节点都认为 pfail 了,那么就会变成 fail
-
从节点过滤
对宕机的 master node,从其所有的 slave node 中,选择一个切换成 master node
检查每个 slave node 与 master node 断开连接的时间,如果超过了 cluster-node-timeout * cluster-slave-validity-factor,那么就没有资格切换成 master
这个也是跟哨兵是一样的,从节点超时过滤的步骤
-
从节点选举
哨兵:对所有从节点进行排序,slave priority,offset,run id
每个从节点,都根据自己对 master 复制数据的 offset,来设置一个选举时间,offset 越大(复制数据越多)的从节点,选举时间越靠前,优先进行选举
所有的 master node 开始 slave 选举投票,给要进行选举的 slave 进行投票,如果大部分 master node(N/2 + 1)都投票给了某个从节点,那么选举通过,那个从节点可以切换成 master
从节点执行主备切换,从节点切换为主节点
与哨兵比较
整个流程跟哨兵相比,非常类似,所以说,redis cluster 功能强大,直接集成了 replication 和 sentinal 的功能
没有办法去给大家深入讲解 redis 底层的设计的细节,核心原理和设计的细节,那个除非单独开一门课,redis 底层原理深度剖析,redis 源码
对于咱们这个架构课来说,主要关注的是架构,不是底层的细节,对于架构来说,核心的原理的基本思路,是要梳理清晰的