滚动升级 Kubernetes 上的 TiDB 集群

滚动更新 TiDB 集群时,会按 PD、TiKV、TiDB 的顺序,串行删除 Pod,并创建新版本的 Pod,当新版本的 Pod 正常运行后,再处理下一个 Pod。

滚动升级过程会自动处理 PD、TiKV 的 Leader 迁移与 TiDB 的 DDL Owner 迁移。因此,在多节点的部署拓扑下(最小环境:PD 3、TiKV 3、TiDB * 2),滚动更新 TiKV、PD 不会影响业务正常运行。

对于有连接重试功能的客户端,滚动更新 TiDB 同样不会影响业务。对于无法进行重试的客户端,滚动更新 TiDB 则会导致连接到被关闭节点的数据库连接失效,造成部分业务请求失败。对于这类业务,推荐在客户端添加重试功能或在低峰期进行 TiDB 的滚动升级操作。

滚动更新可以用于升级 TiDB 版本,也可以用于更新集群配置。

通过 TidbCluster CR 升级
如果 TiDB 集群是直接通过 TidbCluster CR 部署的或者通过 Helm 方式部署的然后又切换到了 TidbCluster CR 管理,可以通过下面步骤升级 TiDB 集群。

升级 TiDB 版本
修改集群的 TidbCluster CR 中各组件的镜像配置。

需要注意的是,TidbCluster CR 中关于镜像配置有多个参数:

spec.version,格式为 imageTag,例如 v3.1.0
spec.<pd/tidb/tikv/pump>.baseImage,格式为 imageName,例如 pingcap/tidb
spec.<pd/tidb/tikv/pump>.version,格式为 imageTag,例如 v3.1.0
spec.<pd/tidb/tikv/pump>.image,格式为 imageName:imageTag,例如 pingcap/tidb:v3.1.0
镜像配置获取的优先级为:

spec.<pd/tidb/tikv/pump>.baseImage + spec.<pd/tidb/tikv/pump>.version > spec.<pd/tidb/tikv/pump>.baseImage + spec.version > spec.<pd/tidb/tikv/pump>.image。

正常情况下,集群内的各组件应该使用相同版本,所以一般建议配置 spec.<pd/tidb/tikv/pump>.baseImage + spec.version 即可,这样升级 TiDB 集群只需要修改 spec.version。

kubectl edit tc ${cluster_name} -n ${namespace}
查看升级进度:

watch kubectl -n ${namespace} get pod -o wide
当所有 Pod 都重建完毕进入 Running 状态后,升级完成。

更新 TiDB 集群配置
默认条件下,修改配置不会自动应用到 TiDB 集群中,只有在 Pod 重启时,才会重新加载新的配置文件,建议设置 spec.configUpdateStrategy 为 RollingUpdate 开启配置自动更新特性,在每次配置更新时,自动对组件执行滚动更新,将修改后的配置应用到集群中。

设置 spec.configUpdateStrategy 为 RollingUpdate;

参考 TiDB 集群配置调整集群配置项;

查看升级进度:

watch kubectl -n ${namespace} get pod -o wide
当所有 Pod 都重建完毕进入 Running 状态后,升级完成。

强制升级 TiDB 集群
如果 PD 集群因为 PD 配置错误、PD 镜像 tag 错误、NodeAffinity 等原因不可用,TiDB 集群扩缩容、升级 TiDB 版本和更新 TiDB 集群配置这三种操作都无法成功执行。

这种情况下,可使用 force-upgrade 强制升级集群以恢复集群功能。 首先为集群设置 annotation:

kubectl annotate --overwrite tc ${cluster_name} -n ${namespace} tidb.pingcap.com/force-upgrade=true
然后修改 PD 相关配置,确保 PD 进入正常状态。

警告:

PD 集群恢复后,必须执行下面命令禁用强制升级功能,否则下次升级过程可能会出现异常:

kubectl annotate tc ${cluster_name} -n ${namespace} tidb.pingcap.com/force-upgrade-
通过 Helm 升级
如果选择继续用 Helm 管理集群,可以参考下面QQ靓号买卖平台步骤升级 TiDB 集群。

升级 TiDB 版本
修改集群的 values.yaml 文件中的 tidb.image、tikv.image、pd.image 的值为新版本镜像;

执行 helm upgrade 命令进行升级:

helm upgrade ${release_name} pingcap/tidb-cluster -f values.yaml --version=${chart_version}
查看升级进度:

watch kubectl -n ${namespace} get pod -o wide
当所有 Pod 都重建完毕进入 Running 状态后,升级完成。

更新 TiDB 集群配置
默认条件下,修改配置文件不会自动应用到 TiDB 集群中,只有在实例重启时,才会重新加载新的配置文件。

您可以开启配置文件自动更新特性,在每次配置文件更新时,自动执行滚动更新,将修改后的配置应用到集群中。操作步骤如下:

修改集群的 values.yaml 文件,将 enableConfigMapRollout 的值设为 true;

根据需求修改 values.yaml 中需要调整的集群配置项;

执行 helm upgrade 命令进行升级:

helm upgrade ${release_name} pingcap/tidb-cluster -f values.yaml --version=${chart_version}
查看升级进度:

watch kubectl -n ${namespace} get pod -o wide
当所有 Pod 都重建完毕进入 Running 状态后,升级完成。

注意:

将 enableConfigMapRollout 特性从关闭状态打开时,即使没有配置变更,也会触发一次 PD、TiKV、TiDB 的滚动更新。
强制升级 TiDB 集群
如果 PD 集群因为 PD 配置错误、PD 镜像 tag 错误、NodeAffinity 等原因不可用,TiDB 集群扩缩容、升级 TiDB 版本和更新 TiDB 集群配置这三种操作都无法成功执行。

这种情况下,可使用 force-upgrade(TiDB Operator 版本 > v1.0.0-beta.3 )强制升级集群以恢复集群功能。 首先为集群设置 annotation:

kubectl annotate --overwrite tc ${release_name} -n ${namespace} tidb.pingcap.com/force-upgrade=true
然后执行对应操作中的 helm upgrade 命令:

helm upgrade ${release_name} pingcap/tidb-cluster -f values.yaml --version=${chart_version}
警告:

PD 集群恢复后,必须执行下面命令禁用强制升级功能,否则下次升级过程可能会出现异常:

kubectl annotate tc ${release_name} -n ${namespace} tidb.pingcap.com/force-upgrade-

上一篇:【MaxCompute 常见问题】 常用命令


下一篇:WinForm员工信息表