MongoDB 3.6.9 集群搭建 - 切片+副本集

1. 环境准备

在Mongo的官网下载Linux版本安装包,然后解压到对应的目录下;由于资源有限,我们采用Replica Sets + Sharding方式来配置高可用。结构图如下所示:

MongoDB 3.6.9 集群搭建 - 切片+副本集

这里我说明下这个图所表达的意思:

Shard服务器:使用Replica Sets确保每个数据节点都具有备份、自动容错转移、自动恢复的能力。

  • 配置服务器:使用3个配置服务器确保元数据完整性。
  • 路由进程:使用3个路由进程实现平衡,提高客户端接入性能
  • 副本集1:Shard11,Shard12,Shard13组成一个副本集,提供Sharding中shard1的功能;
  • 副本集2:Shard21,Shard22,Shard23组成一个副本集,提供Sharding中shard2的功能;
  • 副本集3:Shard31,Shard32,Shard33组成一个副本集,提供Sharding中shard3的功能;
  • 3个配置服务器进程和3个路由器进程。
  • Arbiter仲裁者,是副本集中的一个MongoDB实例, 它并不保存数据。仲裁节点使用最小的资源并且不要求硬件设备。为了确保复制集中有奇数的投票成员(包括primary),需要添加仲裁节点作为投票,否则primary不能运行时不会自动切换primary。

构建一个mongoDB Sharding Cluster需要三种角色:shard服务器(ShardServer)、配置服务器(config Server)、路由进程(Route Process)

Shard 服务器

Shard服务器即存储实际数据的分片,每个shard可以是一个mongod实例,也可以是一组mongod实例构成的Replica Sets。为了实现每个Shard内部的故障自动转换,MongoDB官方建议每个shard为一组Replica Sets。

配置服务器

为了将一个特定的collection存储在多个shard中,需要为该collection指定一个shard key,决定该条记录属于哪个chunk,配置服务器可以存储以下信息,每个shard节点的配置信息,每个chunk的shard key范围,chunk在各shard的分布情况,集群中所有DB和collection的sharding配置信息。

路由进程

它是一个前段路由,客户端由此接入,首先询问配置服务器需要到哪个shard上查询或保存记录,然后连接相应的shard执行操作,最后将结果返回给客户端,客户端只需要将原本发给mongod的查询或更新请求原封不动地发给路由进程,而不必关心所操作的记录存储在哪个shard上。

按照架构图,理论上是需要15台机器的,由于资源有限,用目录来替代物理机,下面给出配置表格:

192.168.187.201

192.168.187.202

192.168.187.203

Shard11:10011 主节点

Shard12:10012 副节点

Shard13:10013 仲裁点

Shard21:10021 仲裁点

Shard22:10022 主节点

Shard32:10023 副节点

Shard31:10031 副节点

Shard32:10032 仲裁点

Shard33:10033 主节点

ConfigSvr:10041

ConfigSvr:10042

ConfigSvr:10043

Mongos:10051

Mongos:10052

Mongos:10053

2.  配置Shard + Replica Sets

2.1系统配置

Linux操作系统参数

系统全局允许分配的最大文件句柄数:

sysctl -w fs.file-max=2097152

sysctl -w fs.nr_open=2097152

echo 2097152 > /proc/sys/fs/nr_open

允许当前会话/进程打开文件句柄数:

ulimit -n 1048576

修改 ‘fs.file-max’ 设置到 /etc/sysctl.conf 文件:

fs.file-max = 1048576

修改/etc/security/limits.conf 持久化设置允许用户/进程打开文件句柄数

* soft nofile 1048576

* hard nofile 1048576

* soft nproc 524288

* hard nproc 524288

TCP 协议栈网络参数

并发连接 backlog 设置:

sysctl -w net.core.somaxconn=32768

sysctl -w net.ipv4.tcp_max_syn_backlog=16384

sysctl -w net.core.netdev_max_backlog=16384

可用知名端口范围:

sysctl -w net.ipv4.ip_local_port_range=80 65535'

TCP Socket 读写 Buffer 设置:

sysctl -w net.core.rmem_default=262144

sysctl -w net.core.wmem_default=262144

sysctl -w net.core.rmem_max=16777216

sysctl -w net.core.wmem_max=16777216

sysctl -w net.core.optmem_max=16777216

sysctl -w net.ipv4.tcp_rmem='1024 4096 16777216'

sysctl -w net.ipv4.tcp_wmem='1024 4096 16777216'

TCP 连接追踪设置(Centos7以下才有,以上版本则不用):

sysctl -w net.nf_conntrack_max=1000000

sysctl -w net.netfilter.nf_conntrack_max=1000000

sysctl -w net.netfilter.nf_conntrack_tcp_timeout_time_wait=30

2.2 安装

统一分别在三台机器的/opt/app/mongoCluster369部署mongodb集群。

在linux官网下载mongodb的安装包,目前所用安装包为:mongodb-linux-x86_64-rhel70-3.6.9.tgz

现在以192.168.31.231机器上操作为例:

使用命令tar -zxvf mongodb-linux-x86_64-rhel70-3.6.9.tgz 解压mongodb

MongoDB 3.6.9 集群搭建 - 切片+副本集

解压后查看如下:

MongoDB 3.6.9 集群搭建 - 切片+副本集

把mongodb-linux-x86_64-rhel70-3.6.9移动到指定目录,当前指定目录为/opt/app/,并改名为mongodb

MongoDB 3.6.9 集群搭建 - 切片+副本集

在该台机器上mongodbCluster369目录中建立conf(配置文件)、mongos(路由)、config(配置)、shard1、shard2、shard3(三个切片)六个目录,因为mongos不存储数据,只需要建立日志文件即可。

mkdir -p /opt/app/mongodbCluster369/conf

mkdir -p /opt/app/mongodbCluster369/mongos/log

mkdir -p /opt/app/mongodbCluster369/mongos/pid

mkdir -p /opt/app/mongodbCluster369/config/data

mkdir -p /opt/app/mongodbCluster369/config/log

mkdir -p /opt/app/mongodbCluster369/config/pid

mkdir -p /opt/app/mongodbCluster369/shard1/data

mkdir -p /opt/app/mongodbCluster369/shard1/log

mkdir -p /opt/app/mongodbCluster369/shard1/pid

mkdir -p /opt/app/mongodbCluster369/shard2/data

mkdir -p /opt/app/mongodbCluster369/shard2/log

mkdir -p /opt/app/mongodbCluster369/shard2/pid

mkdir -p /opt/app/mongodbCluster369/shard3/data

mkdir -p /opt/app/mongodbCluster369/shard3/log

mkdir -p /opt/app/mongodbCluster369/shard3/pid

配置环境变量

vi /etc/profile

并添加如下内容:

export MONGODB_HOME=/opt/app/mongodb

export PATH=$PATH:$MONGODB_HOME/bin

MongoDB 3.6.9 集群搭建 - 切片+副本集

source /etc/profile

使立即生效

2.3 配置分片副本集

设置第一个分片副本集

配置文件

vi /opt/app/mongodbCluster369/conf/shard1.conf

MongoDB 3.6.9 集群搭建 - 切片+副本集

配置文件内容为:

#配置文件内容

systemLog:
destination: file
path: /opt/app/mongodbCluster369/shard1/log/shard1.log
logAppend: true
processManagement:
fork: true
pidFilePath: /opt/app/mongodbCluster369/shard1/pid/shard1.pid
net:
bindIp: 192.168.187.201
port:
maxIncomingConnections:
storage:
dbPath: /opt/app/mongodbCluster369/shard1/data
journal:
enabled: true
commitIntervalMs:
directoryPerDB: true
syncPeriodSecs:
engine: wiredTiger
wiredTiger:
engineConfig:
cacheSizeGB:
statisticsLogDelaySecs:
journalCompressor: snappy
directoryForIndexes: false
collectionConfig:
blockCompressor: snappy
indexConfig:
prefixCompression: true
replication:
oplogSizeMB:
replSetName: shard1
sharding:
clusterRole: shardsvr

设置第二个分片副本集

vi /opt/app/mongodbCluster369/conf/shard2.conf

MongoDB 3.6.9 集群搭建 - 切片+副本集

# 配置文件内容

systemLog:
destination: file
path: /opt/app/mongodbCluster369/shard2/log/shard2.log
logAppend: true
processManagement:
fork: true
pidFilePath: /opt/app/mongodbCluster369/shard2/pid/shard2.pid
net:
bindIp: 192.168.187.201
port:
maxIncomingConnections:
storage:
dbPath: /opt/app/mongodbCluster369/shard2/data
journal:
enabled: true
commitIntervalMs:
directoryPerDB: true
syncPeriodSecs:
engine: wiredTiger
wiredTiger:
engineConfig:
cacheSizeGB:
statisticsLogDelaySecs:
journalCompressor: snappy
directoryForIndexes: false
collectionConfig:
blockCompressor: snappy
indexConfig:
prefixCompression: true
replication:
oplogSizeMB:
replSetName: shard2
sharding:
clusterRole: shardsvr

设置第三个分片副本集

vi /opt/app/mongodbCluster369/conf/shard3.conf

MongoDB 3.6.9 集群搭建 - 切片+副本集

# 配置文件内容

systemLog:
destination: file
path: /opt/app/mongodbCluster369/shard3/log/shard3.log
logAppend: true
processManagement:
fork: true
pidFilePath: /opt/app/mongodbCluster369/shard3/pid/shard3.pid
net:
bindIp: 192.168.187.201
port:
maxIncomingConnections:
storage:
dbPath: /opt/app/mongodbCluster369/shard3/data
journal:
enabled: true
commitIntervalMs:
directoryPerDB: true
syncPeriodSecs:
engine: wiredTiger
wiredTiger:
engineConfig:
cacheSizeGB:
statisticsLogDelaySecs:
journalCompressor: snappy
directoryForIndexes: false
collectionConfig:
blockCompressor: snappy
indexConfig:
prefixCompression: true
replication:
oplogSizeMB:
replSetName: shard3
sharding:
clusterRole: shardsvr

2.4 config server配置服务器

vi /opt/app/mongodbCluster369/conf/config.conf

MongoDB 3.6.9 集群搭建 - 切片+副本集

# 配置文件内容

systemLog:
destination: file
path: /opt/app/mongodbCluster369/config/log/config.log
logAppend: true
processManagement:
fork: true
pidFilePath: /opt/app/mongodbCluster369/config/pid/config.pid
net:
bindIp: 192.168.187.201
port:
maxIncomingConnections:
storage:
dbPath: /opt/app/mongodbCluster369/config/data
journal:
enabled: true
commitIntervalMs:
directoryPerDB: true
syncPeriodSecs:
engine: wiredTiger
replication:
oplogSizeMB:
replSetName: configs
sharding:
clusterRole: configsvr

2.5 配置路由服务器mongos

vi /opt/app/mongodbCluster369/conf/mongos.conf

MongoDB 3.6.9 集群搭建 - 切片+副本集

# 配置文件内容

systemLog:
destination: file
path: /opt/app/mongodbCluster369/mongos/log/mongos.log
logAppend: true
processManagement:
fork: true
pidFilePath: /opt/app/mongodbCluster369/mongos/pid/mongos.pid
net:
bindIp: 192.168.187.201
port:
maxIncomingConnections:
sharding:
configDB: configs/192.168.187.201:,192.168.187.202:,192.168.187.203:

参数说明:

dbpath:数据存放目录

logpath:日志存放路径

pidfilepath:进程文件,方便停止mongodb

logappend:以追加的方式记录日志

directoryperdb:为每一个数据库按照数据库名建立文件夹

replSet:replica set的名字

bindIp:mongodb所绑定的ip地址

port:mongodb进程所使用的端口号,默认为27017

fork:以后台方式运行进程

oplogSize:mongodb操作日志文件的最大大小。单位为Mb,默认为硬盘剩余空间的5%

shardsvr:分片节点

configsvr:配置服务节点

configdb:配置config节点到route节点

journal:写日志

smallfiles:当提示空间不够时添加此参数

noprealloc:预分配方式,使用预分配方式来保证写入性能的稳定,预分配在后台运行,并且每个预分配的文件都用0进行填充。这会让MongoDB始终保持额外的空间和空余的数据文件,从而避免了数据增长过快而带来的分配磁盘空间引起的阻塞。设置noprealloc=true来禁用预分配的数据文件,会缩短启动时间,但在正常操作过程中,可能会导致性能显著下降。

2.6 分别把/opt/app/mongodb安装包和/opt/app/mongodbCluster369配置信息复制到其他两台机器上

使用命令scp -r /opt/app/mongodb root@192.168.187.202:/opt/app 复制mongodb到第二节点:

MongoDB 3.6.9 集群搭建 - 切片+副本集

使用命令scp -r /opt/app/mongodbCluster369 root@192.168.187.202:/opt/app复制mongodbCluster369集群信息到第二节点:

MongoDB 3.6.9 集群搭建 - 切片+副本集

使用root用户登录192.168.187.202第二节点,

然后配置环境变量

vi /etc/profile

并添加如下内容:

export MONGODB_HOME=/opt/app/mongodb

export PATH=$PATH:$MONGODB_HOME/bin

MongoDB 3.6.9 集群搭建 - 切片+副本集

source /etc/profile

使立即生效

cd /opt/app/mongodbCluster369/conf修改切片、副本集、配置、路由5个配置文件里面的IP和端口:

Shard1.conf修改ip:

MongoDB 3.6.9 集群搭建 - 切片+副本集

Shard2.conf修改ip:

MongoDB 3.6.9 集群搭建 - 切片+副本集

Shard3.conf修改ip:

MongoDB 3.6.9 集群搭建 - 切片+副本集

Config.conf修改ip:

MongoDB 3.6.9 集群搭建 - 切片+副本集

Mongos.conf修改ip:

MongoDB 3.6.9 集群搭建 - 切片+副本集

使用命令scp -r /opt/app/mongodb root@192.168.187.203:/opt/app 复制mongodb到第三节点:

MongoDB 3.6.9 集群搭建 - 切片+副本集

使用命令scp -r /opt/app/mongodbCluster369 root@192.168.187.203:/opt/app复制mongodbCluster369集群信息到第三节点:

MongoDB 3.6.9 集群搭建 - 切片+副本集

使用root用户登录192.168.187.203第三节点,

然后配置环境变量

vi /etc/profile

并添加如下内容:

export MONGODB_HOME=/opt/app/mongodb

export PATH=$PATH:$MONGODB_HOME/bin

MongoDB 3.6.9 集群搭建 - 切片+副本集

source /etc/profile

使立即生效

cd /opt/app/mongodbCluster369/conf中修改切片、副本集、配置、路由5个配置文件里面的IP和端口:

Shard1.conf修改ip:

MongoDB 3.6.9 集群搭建 - 切片+副本集

Shard2.conf修改ip:

MongoDB 3.6.9 集群搭建 - 切片+副本集

Shard3.conf修改ip:

MongoDB 3.6.9 集群搭建 - 切片+副本集

Config.conf修改ip:

MongoDB 3.6.9 集群搭建 - 切片+副本集

Mongos.conf修改ip:

MongoDB 3.6.9 集群搭建 - 切片+副本集

2.7 启动mongodb集群

先启动配置服务器和分片服务器,后启动路由实例(三台服务器)。

2.7.1启动配置服务器

启动三台服务器的config server

进入mongodb的安装包目录/opt/app/mongodb,使用如下命令启动:

cd /opt/app/mongodb/bin

./mongod -f /opt/app/mongodbCluster369/conf/config.conf

MongoDB 3.6.9 集群搭建 - 切片+副本集

登录任意一台服务器,初始化配置副本集

登录连接命令:./mongo 192.168.187.201:10041/admin

MongoDB 3.6.9 集群搭建 - 切片+副本集

配置如下内容:

> config = {

...      _id : "configs",

...      members : [

...         {_id : 0, host : "192.168.187.201:10041"},

...         {_id : 1, host : "192.168.187.202:10042"},

...         {_id : 2, host : "192.168.187.203:10043"}

...      ]

... }

MongoDB 3.6.9 集群搭建 - 切片+副本集

初始化副本集

> rs.initiate(config)

其中,“_id” : “configs” 应与配置文件中配置的replSet一致,“members”中的“host”为三个节点的ip和port

2.7.2 启动分片服务器

启动三台服务器的shard1 server

进入mongodb的安装包目录/opt/app/mongodb,使用如下命令启动:

cd /opt/app/mongodb/bin

./mongod -f /opt/app/mongodbCluster369/conf/shard1.conf

MongoDB 3.6.9 集群搭建 - 切片+副本集

登录192.168.187.201一台服务器(192.168.187.203设置为仲裁节点,不能使用该节点登录),初始化分片副本集

登录连接命令:./mongo 192.168.187.201:10011/admin

MongoDB 3.6.9 集群搭建 - 切片+副本集

配置如下内容:

> config = {

...      _id : "shard1",

...      members : [

...         {_id : 0, host : "192.168.187.201:10011",priority:2},

...         {_id : 1, host : "192.168.187.202:10012",priority:1},

...         {_id : 2, host : "192.168.187.203:10013", arbiterOnly : true}

...      ]

... }

MongoDB 3.6.9 集群搭建 - 切片+副本集

初始化副本集

> rs.initiate(config)

MongoDB 3.6.9 集群搭建 - 切片+副本集

第三个节点的“arbiterOnly”:true代表其为仲裁节点。

使用exit命令退出mongo的shell操作界面

启动三台服务器的shard2 server

进入mongodb的安装包目录/opt/app/mongodb,使用如下命令启动:

cd /opt/app/mongodb/bin

./mongod -f /opt/app/mongodbCluster369/conf/shard2.conf

MongoDB 3.6.9 集群搭建 - 切片+副本集

登录192.168.187.202一台服务器(因为192.168.187.201设置为仲裁节点,不能使用该节点登录),初始化分片副本集

登录连接命令:./mongo 192.168.187.202:10022/admin

MongoDB 3.6.9 集群搭建 - 切片+副本集

配置如下内容:

> config = {

...      _id : "shard2",

...      members : [

...         {_id : 0, host : "192.168.187.201:10021", arbiterOnly : true },

...         {_id : 1, host : "192.168.187.202:10022",priority:2},

...         {_id : 2, host : "192.168.187.203:10023",priority:1}

...      ]

... }

MongoDB 3.6.9 集群搭建 - 切片+副本集

初始化副本集

> rs.initiate(config)

MongoDB 3.6.9 集群搭建 - 切片+副本集

第一个节点的“arbiterOnly”:true代表其为仲裁节点。

使用exit命令退出mongo的shell操作界面

启动三台服务器的shard3 server

进入mongodb的安装包目录/opt/app/mongodb,使用如下命令启动:

cd /opt/app/mongodb/bin

./mongod -f /opt/app/mongodbCluster369/conf/shard3.conf

MongoDB 3.6.9 集群搭建 - 切片+副本集

登录192.168.187.201一台服务器(192.168.187.202设置为仲裁节点,不能使用该节点登录),初始化分片副本集

登录连接命令:./mongo 192.168.187.201:10031/admin

MongoDB 3.6.9 集群搭建 - 切片+副本集

配置如下内容:

> config = {

...      _id : "shard3",

...      members : [

...         {_id : 0, host : "192.168.187.201:10031",priority:1},

...         {_id : 1, host : "192.168.187.202:10032", arbiterOnly : true },

...         {_id : 2, host : "192.168.187.203:10033",priority:2}

...      ]

... }

MongoDB 3.6.9 集群搭建 - 切片+副本集

初始化副本集

> rs.initiate(config)

MongoDB 3.6.9 集群搭建 - 切片+副本集

第二个节点的“arbiterOnly”:true代表其为仲裁节点。

使用exit命令退出mongo的shell操作界面

2.7.3启动路由实例

启动三台服务器的mongos server

使用如下命令

进入mongodb的安装包目录/opt/app/mongodb,使用如下命令启动:

cd /opt/app/mongodb/bin

./mongos -f /opt/app/mongodbCluster369/conf/mongos.conf

MongoDB 3.6.9 集群搭建 - 切片+副本集

2.8 启用分片

目前搭建了mongodb配置服务器、路由服务器、各个分片服务器,不过应用程序连接到mongos路由服务器并不能使用分片机制,还需要在程序里设置分片配置,让分片生效。

登录任意一台mongos,这里以192.168.187.201:10051为例:

登录连接命令:./mongo 192.168.187.201:10051/admin

MongoDB 3.6.9 集群搭建 - 切片+副本集

配置如下内容,串联路由服务器与切片副本集:

sh.addShard("shard1/192.168.187.201:10011,192.168.187.202:10012,192.168.187.203:10013")

sh.addShard("shard2/192.168.187.201:10021,192.168.187.202:10022,192.168.187.203:10023")

sh.addShard("shard3/192.168.187.201:10031,192.168.187.202:10032,192.168.187.203:10033")

MongoDB 3.6.9 集群搭建 - 切片+副本集

查看集群状态:

sh.status()

2.9 指定数据库与集合分片生效

目前配置服务、路由服务、分片服务、副本集服务都已经串联起来了,但是我们的目的是希望插入数据、数据能够自动分片。连接在mongos上,准备让指定的数据库、指定的集合分片生效。

接着上面2.6的步骤,不用退出mongos的操作界面

指定数据库分片生效:

db.runCommand({enablesharding : "testdb"})

MongoDB 3.6.9 集群搭建 - 切片+副本集

指定数据库里需要分片的集合collection和片键,一般是_id:

db.runCommand({shardcollection : "testdb.table1", key : {id : "hashed"}})

MongoDB 3.6.9 集群搭建 - 切片+副本集

我们设置testdb的table1表需要分片,根据id自动分片到shard1、shard2、shard3上面去。要这样设置是因为不是所有mongodb的数据库和表都需要分片!

2.10 测试分片配置结果

登录任意一台mongos,这里以192.168.187.201:10051为例:

登录连接命令:./mongo 192.168.187.201:10051/admin

切换数据库:

use testdb

输入如下命令:

for (var i = 1; i <= 5000; i++){ db.table1.insert({id:i,text:"hello world"}) }

MongoDB 3.6.9 集群搭建 - 切片+副本集

查看分配状态:

db.table1.stats()

如下图所示:shard1总数:1664条

MongoDB 3.6.9 集群搭建 - 切片+副本集

Shard2总数:1684条

MongoDB 3.6.9 集群搭建 - 切片+副本集

Shard3总数:1652条

MongoDB 3.6.9 集群搭建 - 切片+副本集

可以看到数据分到3个分片。已经成功了。

3. 后期运维

mongodbd的启动顺序是,先启动配置服务器,再启动分片,最后启动mongos。

mongod -f /opt/app/mongodbCluster369/conf/config.conf

mongod -f /opt/app/mongodbCluster369/conf/shard1.conf

mongod -f  /opt/app/mongodbCluster369/conf/shard2.conf

mongod -f /opt/app/mongodbCluster369/conf/shard3.conf

mongos -f /opt/app/mongodbCluster369/conf/mongos.conf

关闭时,直接killall杀掉所有进程

killall mongod
killall mongos

4. 问题发现:

问题一:--maxConnx过高

MongoDB 3.6.9 集群搭建 - 切片+副本集

这与linux默认进程能打开最大文件数有关,可以通过ulimit解决.mongodb最大连接是20000

解决:ulimit -n 30000

问题二:报错is not electable under the new configuration version 1

MongoDB 3.6.9 集群搭建 - 切片+副本集

解决:如果你设置的第一个节点是仲裁节点的话,那么设置登录设置节点状态的哪个客户端不能是仲裁节点,简单做法 换一个节点

参考资料:

http://www.ityouknow.com/mongodb/2017/08/05/mongodb-cluster-setup.html

https://www.cnblogs.com/smartloli/p/4305739.html

https://blog.csdn.net/caofeiliju/article/details/80193997

mongodb副本+分片集群添加用户认证密码

https://blog.csdn.net/uncle_david/article/details/78713551

http://www.mongoing.com/docs/tutorial/convert-secondary-into-arbiter.html (从节点切换仲裁节点)

上一篇:spring boot+mybatis+mysql


下一篇:jquery+php+mysql实现Ajax省市县三级联动