GBase 8a MPP使用时 数据库基础问题之安装卸载升级问题
4.1
安装出错排查
问题现象
集群安装过程中某一步骤出现错误,常见问题中无相应的故障案例,如何排查问题。
解决方法
集群安装过程中会产生日志,记录安装的具体情况,包括各节点的 ssh 交互情况。
如果某一步骤出现错误,常见问题中无相应的故障案例,可以查看安装日志,根据
日志信息进行问题排查。
以
root
用户登录执行安装节点,查看并检查安装环境时产生的日志文件:
GBase 8a MPP Cluster FAQ FAQ
文档版本(2021-04-02) 南大通用数据技术股份有限公司
34
vi /opt/gcinstall/gcinstall.log
集群服务不能正常启动
问题现象
安装集群后,集群服务不能正常启动。
原因分析
防火墙未关闭;
SELINUX
状态是
enable;
License
无效。
解决方法
步骤
1
查看防火墙状态,如未关闭请关闭防火墙。
systemctl status network.service --
或者
firewall-cmd –state
systemctl disable firewalld
步骤
2
查看
SELINUX
的状态,将
SELINUX
状态置为:
disabled
。修改
SELINUX
状态后需要重启服务器。
/usr/sbin/sestatus –v
vi /etc/sysconfig/selinux
SELINUX=
disabled
(:wq 保存退出)
reboot
--修改 SElinux 状态后需要重启服务器
4.3
add nodes
阶段由于异常导致失败
问题现象
安装执行成功,但是
add nodes
阶段由于异常导致失败。
解决方法
安装集群成功后,在
add nodes
时由于集群锁住等原因导致
add nodes
执行失败时,
建议排除问题后,手工执行
gcadmin addnodes dataHost.xml
命令。
GBase 8a MPP Cluster FAQ FAQ
文档版本(2021-04-02) 南大通用数据技术股份有限公司
35
4.4
开启防火墙安装集群添加端口策略
问题现象
集群安装开启防火墙后,添加端口,集群
gcware
状态
close
。
解决方法
开放
gcware
组播通信端口
# iptables -I INPUT -p udp --dport 5493 -j ACCEPT
# iptables -I OUTPUT -p udp --dport 5493 -j ACCEPT
#iptables -I INPUT -p udp --sport 5493 -j ACCEPT
#iptables -I INPUT -p udp --dport 5493 -j ACCEPT
注意
如果端口号因被占用发生变更,请同步修改以上命令中的
sport
或
dport
对
应的参数值。
4.5
集群升级
demo.options
中参数写错升级失败
问题现象
现场版本升级报错,提示信息是:
$ ./gcinstall.py --silent=demo.options -U
Error parsing configuration key "Pwd". Skipping..
Must stop all gcluster nodes.
原因分析
现场
demo.options
中,参数名
rootPwd
被误写成
Pwd
,而
Pwd
是不存在的参数名,
导致
rootPwd
参数值为空从而异常退出,而此时正处于判断所有集群节点是否关闭
的阶段,所以报错内容为
Must stop all gcluster nodes
。
4.6
集群扩展和节点替换报错
问题现象
集群扩展和节点替换时报错:
Environmental Checking on gcluster nodes.
GBase 8a MPP Cluster FAQ FAQ
文档版本(2021-04-02) 南大通用数据技术股份有限公司
36
current gcware version (78188) and package gcware version (92755) are not
same.
原因分析
经过分析,现场的
demo.options
中
existCoordinateHost
和
existDataHost
没有注释掉,
导致该问题。
#existCoordinateHost =192.168.6.144,192.168.6.145
#existDataHost =192.168.6.144
4.7
操作系统用户之间切换导致安装集群失败
问题现象
当操作系统用户之间切换多输出一行信息记录,导致安装集群失败。
解决方法
去掉
/etc/profile
中的一行代码,注释掉
/usr/bin/failinfo
。