Redis集群战法整理

单机及集群搭建

http://www.codeceo.com/article/distributed-caching-redis-server.html

主从复制设置

Redis服务器复制(主—从配置)

Redis支持主从同步,即,每次主服务器修改,从服务器得到通知,并自动同步。大多复制用于读取(但不能写)扩展和数据冗余和服务器故障转移。设置两个Redis实例(在相同或不同服务器上的两个服务),然后配置其中之一作为从站。为了让Redis服务器实例是另一台服务器的从属,可以这样更改配置文件:

找到以下代码:

# slaveof <masterip> <masterport>

替换为:

slaveof 192.168.1.1 6379

(可以自定义指定主服务器的真实IP和端口)。如果主服务器配置为需要密码(验证),可以如下所示改变redis.conf,找到这一行代码:

# masterauth <master-password>

删除开头的#符号,用主服务器的密码替换<master-password>,即:

masterauth mastpassword

现在这个Redis实例可以被用来作为主服务器的只读同步副本。

集群安装部署:http://blog.csdn.net/jthink_/article/details/50373959

将下载的tar包解压,修改redis-3.0.6下的redis.conf,主要修改下面几项:
daemonize yes                                                # redis默认不是后台启动,这里修改成后台启动
cluster-enabled yes                                        # 允许redis支持集群模式
cluster-config-file nodes.conf                        # 节点配置文件
cluster-node-timeout 15000                          # 节点超时毫秒
appendonly yes
注意:6个节点下的redis.conf都需要修改,可以修改一个之后拷贝过去。
然后6个节点执行
make
make install

启动实例
在6个节点分别执行redis-server redis.conf,在6个节点上启动6个redis的实例

搭建redis集群(在其中一个节点操作就可以了)
依赖于ruby环境,首先安装ruby
sudo apt-get install ruby
sudo apt-get install rubygem
接下去需要安装ruby的redis api,gem install redis,这个地方试过各种方法(切换为taobao的镜像源)都不可以,所以我们这边去官网下载一个,然后手动安装。
wegt https://rubygems.global.ssl.fastly.net/gems/redis-3.2.2.gem
sudo gem install -l ./redis-3.2.2.gem
接下去启动集群
cd src
./redis-trib.rb create --replicas 1 xxx.xxx.xx.140:6379 xxx.xxx.xx.141:6379 xxx.xxx.xx.143:6379 xxx.xxx.xx.145:6379 xxx.xxx.xx.147:6379 xxx.xxx.xx.148:6379
注意ip修改成自己的~~
--replicas 1 表示我们希望为集群中的每个主节点创建一个从节点,由于redis的集群最少需要3个主节点,如果我们每个主节点需要一个从节点,那么最少需要6台机器(或者说6个实例)。145、147、148这3个将成为主节点,140、141、143将依次称为主节点的从节点,我们看命令执行之后的结果:

集群相关的搭建、管理参见:http://blog.csdn.net/zalion/article/details/45192507

测试集群
redis-cli -c
其他操作类似

转载请注明出处:http://hot66hot.iteye.com/admin/blogs/2050676

最近研究redis-cluster,正好搭建了一个环境,遇到了很多坑,系统的总结下,等到redis3 release出来后,换掉memCache 集群. 转载请注明出处哈:http://hot66hot.iteye.com/admin/blogs/2050676

一:关于redis cluster

1:redis cluster的现状

reids-cluster计划在redis3.0中推出,可以看作者antirez的声明:http://antirez.com/news/49 (ps:跳票了好久,今年貌似加快速度了),目前的最新版本见:https://raw.githubusercontent.com/antirez/redis/3.0/00-RELEASENOTES

作者的目标:Redis Cluster will support up to ~1000 nodes. 赞...

目前redis支持的cluster特性(已测试):

1):节点自动发现

2):slave->master 选举,集群容错

3):Hot resharding:在线分片

4):集群管理:cluster xxx

5):基于配置(nodes-port.conf)的集群管理

6):ASK 转向/MOVED 转向机制.

2:redis cluster 架构

1)redis-cluster架构图

Redis集群战法整理

架构细节:

(1)所有的redis节点彼此互联(PING-PONG机制),内部使用二进制协议优化传输速度和带宽.

(2)节点的fail是通过集群中超过半数的master节点检测失效时才生效.

(3)客户端与redis节点直连,不需要中间proxy层.客户端不需要连接集群所有节点,连接集群中任何一个可用节点即可

(4)redis-cluster把所有的物理节点映射到[0-16383]slot上,cluster 负责维护node<->slot<->key

2) redis-cluster选举:容错

Redis集群战法整理

(1)领着选举过程是集群中所有master参与,如果半数以上master节点与master节点通信超过(cluster-node-timeout),认为当前master节点挂掉.

(2):什么时候整个集群不可用(cluster_state:fail)?

a:如果集群任意master挂掉,且当前master没有slave.集群进入fail状态,也可以理解成集群的slot映射[0-16383]不完成时进入fail状态. ps : redis-3.0.0.rc1加入cluster-require-full-coverage参数,默认关闭,打开集群兼容部分失败.

b:如果集群超过半数以上master挂掉,无论是否有slave集群进入fail状态.

ps:当集群不可用时,所有对集群的操作做都不可用,收到((error) CLUSTERDOWN The cluster is down)错误

二:redis cluster的使用

1:安装redis cluster

1):安装redis-cluster依赖:redis-cluster的依赖库在使用时有兼容问题,在reshard时会遇到各种错误,请按指定版本安装.

(1)确保系统安装zlib,否则gem install会报(no such file to load -- zlib)
  1. #download:zlib-1.2.6.tar
  2. ./configure
  3. make
  4. make install
(2)安装ruby:version(1.9.2)
  1. # ruby1.9.2
  2. cd /path/ruby
  3. ./configure -prefix=/usr/local/ruby
  4. make
  5. make install
  6. sudo cp ruby /usr/local/bin
(3)安装rubygem:version(1.8.16)
  1. # rubygems-1.8.16.tgz
  2. cd /path/gem
  3. sudo ruby setup.rb
  4. sudo cp bin/gem /usr/local/bin
(4)安装gem-redis:version(3.0.0)
  1. gem install redis --version 3.0.0
  2. #由于源的原因,可能下载失败,就手动下载下来安装
  3. #download地址:http://rubygems.org/gems/redis/versions/3.0.0
  4. gem install -l /data/soft/redis-3.0.0.gem
(5)安装redis-cluster
  1. cd /path/redis
  2. make
  3. sudo cp /opt/redis/src/redis-server /usr/local/bin
  4. sudo cp /opt/redis/src/redis-cli /usr/local/bin
  5. sudo cp /opt/redis/src/redis-trib.rb /usr/local/bin

2:配置redis cluster

1)redis配置文件结构:

Redis集群战法整理
 使用包含(include)把通用配置和特殊配置分离,方便维护.

2)redis通用配置.

  1. #GENERAL
  2. daemonize no
  3. tcp-backlog 511
  4. timeout 0
  5. tcp-keepalive 0
  6. loglevel notice
  7. databases 16
  8. dir /opt/redis/data
  9. slave-serve-stale-data yes
  10. #slave只读
  11. slave-read-only yes
  12. #not use default
  13. repl-disable-tcp-nodelay yes
  14. slave-priority 100
  15. #打开aof持久化
  16. appendonly yes
  17. #每秒一次aof写
  18. appendfsync everysec
  19. #关闭在aof rewrite的时候对新的写操作进行fsync
  20. no-appendfsync-on-rewrite yes
  21. auto-aof-rewrite-min-size 64mb
  22. lua-time-limit 5000
  23. #打开redis集群
  24. cluster-enabled yes
  25. #节点互连超时的阀值
  26. cluster-node-timeout 15000
  27. cluster-migration-barrier 1
  28. slowlog-log-slower-than 10000
  29. slowlog-max-len 128
  30. notify-keyspace-events ""
  31. hash-max-ziplist-entries 512
  32. hash-max-ziplist-value 64
  33. list-max-ziplist-entries 512
  34. list-max-ziplist-value 64
  35. set-max-intset-entries 512
  36. zset-max-ziplist-entries 128
  37. zset-max-ziplist-value 64
  38. activerehashing yes
  39. client-output-buffer-limit normal 0 0 0
  40. client-output-buffer-limit slave 256mb 64mb 60
  41. client-output-buffer-limit pubsub 32mb 8mb 60
  42. hz 10
  43. aof-rewrite-incremental-fsync yes

3)redis特殊配置.

  1. #包含通用配置
  2. include /opt/redis/redis-common.conf
  3. #监听tcp端口
  4. port 6379
  5. #最大可用内存
  6. maxmemory 100m
  7. #内存耗尽时采用的淘汰策略:
  8. # volatile-lru -> remove the key with an expire set using an LRU algorithm
  9. # allkeys-lru -> remove any key accordingly to the LRU algorithm
  10. # volatile-random -> remove a random key with an expire set
  11. # allkeys-random -> remove a random key, any key
  12. # volatile-ttl -> remove the key with the nearest expire time (minor TTL)
  13. # noeviction -> don't expire at all, just return an error on write operations
  14. maxmemory-policy allkeys-lru
  15. #aof存储文件
  16. appendfilename "appendonly-6379.aof"
  17. #不开启rdb存储,只用于添加slave过程
  18. dbfilename dump-6379.rdb
  19. #cluster配置文件(启动自动生成)
  20. cluster-config-file nodes-6379.conf
  21. #部署在同一机器的redis实例,把auto-aof-rewrite搓开,因为cluster环境下内存占用基本一致.
  22. #防止同意机器下瞬间fork所有redis进程做aof rewrite,占用大量内存(ps:cluster必须开启aof)
  23. auto-aof-rewrite-percentage 80-100

3:cluster 操作

cluster集群相关命令,更多redis相关命令见文档:http://redis.readthedocs.org/en/latest/

  1. 集群
  2. CLUSTER INFO 打印集群的信息
  3. CLUSTER NODES 列出集群当前已知的所有节点(node),以及这些节点的相关信息。
  4. 节点
  5. CLUSTER MEET <ip> <port> 将 ip 和 port 所指定的节点添加到集群当中,让它成为集群的一份子。
  6. CLUSTER FORGET <node_id> 从集群中移除 node_id 指定的节点。
  7. CLUSTER REPLICATE <node_id> 将当前节点设置为 node_id 指定的节点的从节点。
  8. CLUSTER SAVECONFIG 将节点的配置文件保存到硬盘里面。
  9. 槽(slot)
  10. CLUSTER ADDSLOTS <slot> [slot ...] 将一个或多个槽(slot)指派(assign)给当前节点。
  11. CLUSTER DELSLOTS <slot> [slot ...] 移除一个或多个槽对当前节点的指派。
  12. CLUSTER FLUSHSLOTS 移除指派给当前节点的所有槽,让当前节点变成一个没有指派任何槽的节点。
  13. CLUSTER SETSLOT <slot> NODE <node_id> 将槽 slot 指派给 node_id 指定的节点,如果槽已经指派给另一个节点,那么先让另一个节点删除该槽>,然后再进行指派。
  14. CLUSTER SETSLOT <slot> MIGRATING <node_id> 将本节点的槽 slot 迁移到 node_id 指定的节点中。
  15. CLUSTER SETSLOT <slot> IMPORTING <node_id> 从 node_id 指定的节点中导入槽 slot 到本节点。
  16. CLUSTER SETSLOT <slot> STABLE 取消对槽 slot 的导入(import)或者迁移(migrate)。
  17. CLUSTER KEYSLOT <key> 计算键 key 应该被放置在哪个槽上。
  18. CLUSTER COUNTKEYSINSLOT <slot> 返回槽 slot 目前包含的键值对数量。
  19. CLUSTER GETKEYSINSLOT <slot> <count> 返回 count 个 slot 槽中的键。

4:redis cluster 运维操作

1)初始化并构建集群

(1)启动集群相关节点(必须是空节点,beta3后可以是有数据的节点),指定配置文件和输出日志

  1. redis-server /opt/redis/conf/redis-6380.conf > /opt/redis/logs/redis-6380.log 2>&1 &
  2. redis-server /opt/redis/conf/redis-6381.conf > /opt/redis/logs/redis-6381.log 2>&1 &
  3. redis-server /opt/redis/conf/redis-6382.conf > /opt/redis/logs/redis-6382.log 2>&1 &
  4. redis-server /opt/redis/conf/redis-7380.conf > /opt/redis/logs/redis-7380.log 2>&1 &
  5. redis-server /opt/redis/conf/redis-7381.conf > /opt/redis/logs/redis-7381.log 2>&1 &
  6. redis-server /opt/redis/conf/redis-7382.conf > /opt/redis/logs/redis-7382.log 2>&1 &

(2):使用自带的ruby工具(redis-trib.rb)构建集群

  1. #redis-trib.rb的create子命令构建
  2. #--replicas 则指定了为Redis Cluster中的每个Master节点配备几个Slave节点
  3. #节点角色由顺序决定,先master之后是slave(为方便辨认,slave的端口比master大1000)
  4. redis-trib.rb create --replicas 1 10.10.34.14:6380 10.10.34.14:6381 10.10.34.14:6382 10.10.34.14:7380 10.10.34.14:7381 10.10.34.14:7382

(3):检查集群状态

  1. #redis-trib.rb的check子命令构建
  2. #ip:port可以是集群的任意节点
  3. redis-trib.rb check 10.10.34.14:6380

最后输出如下信息,没有任何警告或错误,表示集群启动成功并处于ok状态

  1. [OK] All nodes agree about slots configuration.
  2. >>> Check for open slots...
  3. >>> Check slots coverage...
  4. [OK] All 16384 slots covered.

2):添加新master节点

(1)添加一个master节点:创建一个空节点(empty node),然后将某些slot移动到这个空节点上,这个过程目前需要人工干预

a):根据端口生成配置文件(ps:establish_config.sh是我自己写的输出配置脚本)

  1. sh establish_config.sh 6386 > conf/redis-6386.conf

b):启动节点

  1. redis-server /opt/redis/conf/redis-6386.conf > /opt/redis/logs/redis-6386.log 2>&1 &

c):加入空节点到集群
add-node  将一个节点添加到集群里面, 第一个是新节点ip:port, 第二个是任意一个已存在节点ip:port

  1. redis-trib.rb add-node 10.10.34.14:6386 10.10.34.14:6381

node:新节点没有包含任何数据, 因为它没有包含任何slot。新加入的加点是一个主节点, 当集群需要将某个从节点升级为新的主节点时, 这个新节点不会被选中,同时新的主节点因为没有包含任何slot,不参加选举和failover。

d):为新节点分配slot

  1. redis-trib.rb reshard 10.10.34.14:6386
  2. #根据提示选择要迁移的slot数量(ps:这里选择500)
  3. How many slots do you want to move (from 1 to 16384)? 500
  4. #选择要接受这些slot的node-id
  5. What is the receiving node ID? f51e26b5d5ff74f85341f06f28f125b7254e61bf
  6. #选择slot来源:
  7. #all表示从所有的master重新分配,
  8. #或者数据要提取slot的master节点id,最后用done结束
  9. Please enter all the source node IDs.
  10. Type 'all' to use all the nodes as source nodes for the hash slots.
  11. Type 'done' once you entered all the source nodes IDs.
  12. Source node #1:all
  13. #打印被移动的slot后,输入yes开始移动slot以及对应的数据.
  14. #Do you want to proceed with the proposed reshard plan (yes/no)? yes
  15. #结束

3):添加新的slave节点

a):前三步操作同添加master一样

b)第四步:redis-cli连接上新节点shell,输入命令:cluster replicate 对应master的node-id

  1. cluster replicate 2b9ebcbd627ff0fd7a7bbcc5332fb09e72788835

注意:在线添加slave 时,需要bgsave整个master数据,并传递到slave,再由 slave加载rdb文件到内存,rdb生成和传输的过程中消耗Master大量内存和网络IO,以此不建议单实例内存过大,线上小心操作。

例如本次添加slave操作产生的rdb文件

  1. -rw-r--r-- 1 root root  34946 Apr 17 18:23 dump-6386.rdb
  2. -rw-r--r-- 1 root root  34946 Apr 17 18:23 dump-7386.rdb

4):在线reshard 数据:

对于负载/数据不均匀的情况,可以在线reshard slot来解决,方法与添加新master的reshard一样,只是需要reshard的master节点是已存在的老节点.

5):删除一个slave节点

  1. #redis-trib del-node ip:port '<node-id>'
  2. redis-trib.rb del-node 10.10.34.14:7386 'c7ee2fca17cb79fe3c9822ced1d4f6c5e169e378'

6):删除一个master节点

a):删除master节点之前首先要使用reshard移除master的全部slot,然后再删除当前节点

(目前redis-trib.rb只能把被删除master的slot对应的数据迁移到一个节点上)

  1. #把10.10.34.14:6386当前master迁移到10.10.34.14:6380上
  2. redis-trib.rb reshard 10.10.34.14:6380
  3. #根据提示选择要迁移的slot数量(ps:这里选择500)
  4. How many slots do you want to move (from 1 to 16384)? 500(被删除master的所有slot数量)
  5. #选择要接受这些slot的node-id(10.10.34.14:6380)
  6. What is the receiving node ID? c4a31c852f81686f6ed8bcd6d1b13accdc947fd2 (ps:10.10.34.14:6380的node-id)
  7. Please enter all the source node IDs.
  8. Type 'all' to use all the nodes as source nodes for the hash slots.
  9. Type 'done' once you entered all the source nodes IDs.
  10. Source node #1:f51e26b5d5ff74f85341f06f28f125b7254e61bf(被删除master的node-id)
  11. Source node #2:done
  12. #打印被移动的slot后,输入yes开始移动slot以及对应的数据.
  13. #Do you want to proceed with the proposed reshard plan (yes/no)? yes

b):删除空master节点

  1. redis-trib.rb del-node 10.10.34.14:6386 'f51e26b5d5ff74f85341f06f28f125b7254e61bf'
三:redis cluster 客户端(Jedis)

1:客户端基本操作使用

  1. <span style="font-size: 16px;"> private static BinaryJedisCluster jc;
  2. static {
  3. //只给集群里一个实例就可以
  4. Set<HostAndPort> jedisClusterNodes = new HashSet<HostAndPort>();
  5. jedisClusterNodes.add(new HostAndPort("10.10.34.14", 6380));
  6. jedisClusterNodes.add(new HostAndPort("10.10.34.14", 6381));
  7. jedisClusterNodes.add(new HostAndPort("10.10.34.14", 6382));
  8. jedisClusterNodes.add(new HostAndPort("10.10.34.14", 6383));
  9. jedisClusterNodes.add(new HostAndPort("10.10.34.14", 6384));
  10. jedisClusterNodes.add(new HostAndPort("10.10.34.14", 7380));
  11. jedisClusterNodes.add(new HostAndPort("10.10.34.14", 7381));
  12. jedisClusterNodes.add(new HostAndPort("10.10.34.14", 7382));
  13. jedisClusterNodes.add(new HostAndPort("10.10.34.14", 7383));
  14. jedisClusterNodes.add(new HostAndPort("10.10.34.14", 7384));
  15. jc = new BinaryJedisCluster(jedisClusterNodes);
  16. }
  17. @Test
  18. public void testBenchRedisSet() throws Exception {
  19. final Stopwatch stopwatch = new Stopwatch();
  20. List list = buildBlogVideos();
  21. for (int i = 0; i < 1000; i++) {
  22. String key = "key:" + i;
  23. stopwatch.start();
  24. byte[] bytes1 = protostuffSerializer.serialize(list);
  25. jc.setex(key, 60 * 60, bytes1);
  26. stopwatch.stop();
  27. }
  28. System.out.println("time=" + stopwatch.toString());
  29. }</span>

2:redis-cluster客户端的一些坑.

1)cluster环境下slave默认不接受任何读写操作,在slave执行readonly命令后,可执行读操作

2)client端不支持多key操作(mget,mset等),但当keys集合对应的slot相同时支持mget操作见:hash_tag

3)不支持多数据库,只有一个db,select 0。

4)JedisCluster 没有针对byte[]的API,需要自己扩展(附件是我加的基于byte[]的BinaryJedisCluster  api)

目前"Jedis-3.0.0-SNAPSHOT"已支持BinaryJedisCluster和基于hash_tag的mget操作.

参考文档:

http://redis.io/topics/cluster-spec

http://redis.io/topics/cluster-tutorial

 
上一篇:Android学习二_八:Animation的使用(一) (转)


下一篇:css absolute与relative的区别