一、redis集群特点
数据 在多个Redis节点之间自动分片
sentinel特点:
它的主要功能有以下几点 不时地监控redis是否按照预期良好地运行;
如果发现某个redis节点运行出现状况,能够通知另外一个进程(例如它的客户端);
能够进行自动切换。当一个master节点不可用时,能够选举出master的多个slave(如果有超过一个slave的话)中的一个来作为新的master,其它的slave节点会将它所追随的master的地址改为被提升为master的slave的新地址。
sentinel配置文件详解
参考:https://segmentfault.com/a/1190000002680804
主节点down了,从节点选举机制如下:
https://blog.csdn.net/tr1912/article/details/81265007
二、redis端口
对于每个节点,要使Redis群集正常工作,您需要:
为客户端提供服务的普通Redis TCP端口,例如6379
集群总线例如:(客户端端口+ )
三、安装
3.1 多台机器 创建pv且大于60g,pv.yaml(ps:不能在一台机器运行所有,因为每个pod都有podAntiAffinity:实现每台机器只能有一个redis)
apiVersion: v1
kind: PersistentVolume
metadata:
name: data
labels:
app: redis-ha #pv和pvc测试过,不需要name和labels识别,调度器会为pvc自动选择合适容量的pv
spec:
capacity:
storage: 60Gi
accessModes:
- ReadWriteOnce
hostPath:
path: /opt/data
kubectl create -f pv.yaml
安装启动redis集群
#修改本机path路径,授权用户(1000)具备创建目录权限
helm install --set hostPath.path=/opt --name=redis-ha stable/redis-ha
3.2 单机实现redis集群,需要取消affinity
redis-ha-values-custom.yaml
affinity: {}
启动
helm install --set hostPath.path=/opt --name=redis-ha -f ./redis-ha-values-custom.yaml stable/redis-ha #通过取消affinity单机实现redis集群
看看service文件,每个redis通过本svc识别其他redis
apiVersion: v1
kind: Service
metadata:
labels:
app: redis-ha
chart: redis-ha-3.3.
name: redis-ha-announce-0
namespace: default
spec:
clusterIP: 10.102.130.11
ports:
- name: server
port:
protocol: TCP
targetPort: redis
- name: sentinel
port: 26379
protocol: TCP
targetPort: sentinel
type: ClusterIP
selector:
app: redis-ha
release: redis-ha
statefulset.kubernetes.io/pod-name: redis-ha-server-0
四、测试
kubectl get svc |grep redis,如下
redis-ha ClusterIP None <none> 6379/TCP,26379/TCP 37m
redis-ha-announce-0 ClusterIP 10.102.130.11 <none> 6379/TCP,26379/TCP 37m #默认这个为redis主
redis-ha-announce-1 ClusterIP 10.105.223.197 <none> 6379/TCP,26379/TCP 37m
redis-ha-announce-2 ClusterIP 10.106.29.241 <none> 6379/TCP,26379/TCP 37m
kubectl get pod -o wide|grep redis,如下
redis-ha-server-0 2/2 Running 0 41m 10.244.0.11 hostname-test
redis-ha-server-1 2/2 Running 0 37m 10.244.0.12 hostname-test
redis-ha-server-2 2/2 Running 0 35m 10.244.0.13 hostname-test
进入pod为redis-ha-server-1,容器为sentinel
kubectl exec -it redis-ha-server- -c sentinel sh
容器里面$ redis-cli -h redis-ha-announce-0 -p 26379
容器里面$ redis-cli -h redis-ha-announce- -p 6379
故障转移实验
停止主redis:
#、在主上故障转移测试,使主down掉
redis-cli -h redis-ha-announce- -p debug segfault #、然后进入redis容器或sentinel容器
kubectl exec -it redis-ha-server- -c redis sh
kubectl exec -it redis-ha-server- -c sentinel sh #、容器里面使用redis客户端连接redis服务端
redis-cli -h redis-ha-announce- -p
redis-cli -h redis-ha-announce- -p
#容器里面使用redis客户端连接Sentinel服务端
redis-cli -h redis-ha-announce- -p #、redis查看主从状态
info replication
#sentinel查看状态
INFO Sentinel #5、查看日志
kubectl logs -f redis-ha-server- -c redis
kubectl logs -f redis-ha-server- -c redis
kubectl logs -f redis-ha-server- -c redis
#主前任主上查看redis主从状态如下,10.106.29.241是第三台redis的ip,说转换成功了
#测试添加一台redis实验,如下:
1、修改文件redis-ha-values-upgrade.yaml
replicas:
affinity: {}
hostPath:
path:/opt
2、创建pv4
apiVersion: v1
kind: PersistentVolume
metadata:
name: data03
spec:
capacity:
storage: 10Gi
accessModes:
- ReadWriteOnce
hostPath:
path: /opt/data03
ps:如果单机部署集群,每个redis的pv的路径不能相同,否则会报错
3、升级
helm upgrade -f redis-ha-values-upgrade.yaml redis-ha stable/redis-ha
4、报错可以回滚
helm rollback redis-ha
五、删除
helm ls --all
helm del --purge redis-ha