Mysql主从(主从不同步解决办法,常见问题及解决办法,在线对mysql做主从复制)

一、主从不同步解决办法

先上Master库: 
mysql>show processlist; 查看下进程是否Sleep太多。发现很正常。 
show master status; 也正常。 
mysql> show master status; 
+-------------------+----------+--------------+-------------------------------+ 
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB | 
+-------------------+----------+--------------+-------------------------------+ 
| mysqld-bin.000001 | 3260 | | mysql,test,information_schema | 
+-------------------+----------+--------------+-------------------------------+ 
1 row in set (0.00 sec) 
再到Slave上查看 
mysql> show slave status\G 
Slave_IO_Running: Yes 
Slave_SQL_Running: No 
可见是Slave不同步

下面介绍两种解决方法: 
方法一:忽略错误后,继续同步 
该方法适用于主从库数据相差不大,或者要求数据可以不完全统一的情况,数据要求不严格的情况 
解决: 
stop slave; 
#表示跳过一步错误,后面的数字可变 
set global sql_slave_skip_counter =1; 
start slave; 
之后再用mysql> show slave status\G 查看: 
Slave_IO_Running: Yes 
Slave_SQL_Running: Yes 
ok,现在主从同步状态正常了。。。

方式二:重新做主从,完全同步 
该方法适用于主从库数据相差较大,或者要求数据完全统一的情况 
解决步骤如下: 
1.先进入主库,进行锁表,防止数据写入 
使用命令: 
mysql> flush tables with read lock; 
注意:该处是锁定为只读状态,语句不区分大小写 
2.进行数据备份 
#把数据备份到mysql.bak.sql文件 
[root@server01 mysql]#mysqldump -uroot -p -hlocalhost > mysql.bak.sql 
这里注意一点:数据库备份一定要定期进行,可以用shell脚本或者python脚本,都比较方便,确保数据万无一失 
3.查看master 状态 
mysql> show master status; 
+-------------------+----------+--------------+-------------------------------+ 
| File | Position | Binlog_Do_DB | Binlog_Ignore_DB | 
+-------------------+----------+--------------+-------------------------------+ 
| mysqld-bin.000001 | 3260 | | mysql,test,information_schema | 
+-------------------+----------+--------------+-------------------------------+ 
1 row in set (0.00 sec) 
4.把mysql备份文件传到从库机器,进行数据恢复 
#使用scp命令 
[root@server01 mysql]# scp mysql.bak.sql root@192.168.128.101:/tmp/ 
5.停止从库的状态 
mysql> stop slave; 
6.然后到从库执行mysql命令,导入数据备份 
mysql> source /tmp/mysql.bak.sql 
7.设置从库同步,注意该处的同步点,就是主库show master status信息里的| File| Position两项 
change master to master_host = '192.168.128.100', master_user = 'rsync', master_port=3306, master_password='', master_log_file = 'mysqld-bin.000001', master_log_pos=3260; 
8.重新开启从同步 
mysql> stop slave; 
9.查看同步状态 
mysql> show slave status\G 查看: 
Slave_IO_Running: Yes 
Slave_SQL_Running: Yes

二、错误及解决办法

问题: 从数据库无法同步

Slave_SQL_Running 值为 NO,或 Seconds_Bebind_Master 值为 Null

原因:

1. 程序有可能在 slave 上进行了写操作

2. 也有可能是 slave 机器重启后,事务回滚造成的

解决方法一:

msyql> stop slave;

msyql> set GLOBAL SQL_SLAVE_SKIP_COUNTER=1;

msyql> start slave;

解决方法二:

msyql> stop slave;

#查看主服务器上当前的 bin-log 日志名和偏移量

msyql> show master status;

#获取到如下内容:

+------------------+----------+--------------+------------------+

| File            | Position | Binlog_Do_DB | Binlog_Ignore_DB |

+------------------+----------+--------------+------------------+

| mysql-bin.000005 |      286 |              |                  |

+------------------+----------+--------------+------------------+

#然后到从服务器上执行手动同步

msyql> change master to

->master_host="192.168.10.1",

->master_user="user",

->master_password="123456",

->master_post=3306,

->master_log_file="mysql-bin.000005",

->master_log_pos=286;

msyql> start slave;

  • 场景1:主库上用系统命令复制或删除表数据文件

    【模拟异常】:

    主库上直接copy表数据文件,或直接rm表数据文件主库上拷贝test表数据文件后,执行insert into test values('111');或主库上执行rm -f test05.*后,执行create table test05(a int(11));

【错误日志】:

从库日志:SHOW SLAVE STATUS \G;

Last_Errno: 1146

Last_Error:Error 'Table'testdb.test 'doesn't exist'on query' insertinto test values('111') '.

Default database: 'testdb'. Query: 'insert into testvalues('111')'

或者如下:

Last_Error: Error 'Table’test05 'already exists' on query.

【错误原因】:

表的创建或删除不是通过执行sql,未写入binlog,从库上没有相关表;

【解决方案】:

在从库上手动创建此表(建表语句可参考主库);

以后,主库上对表的操作请通过sql完成,避免使用系统命令拷贝或删除

  • 场景2:数据不一致:包括删除失败、主键重复、更新丢失

【问题1】:

主键重复:在slave已经有该记录,又在master上插入了同一条记录。

从库日志:SHOW SLAVE STATUS \G;

Last_Errno: 1062

Last_Error: Error 'Duplicate entry 'xxxn-66-77' for key1' on query. Default database: 'guild'. Query: 'insert into pynpcrecord setMapCode = 'xxxn', UpdateTime = '2015-08-07 00:00:32''

【解决方案】:

方案1:在从库上将重复的主键记录删除,再次重启主从;

deletefrom xxxx where 主键=yyyy;

stopslave;start slave;

方案2:停掉主从同步,忽略一次错误,再开启同步:

stop slave;

set global sql_slave_skip_counter=1;startslave;

若是新配主从,忽略3次还报此错,还可以在my.cnf里加

一 行: slave-skip-errors=1062

然后重启实例,再重启主从同步;

stop slave; start slave;

【问题2】删除失败:在master上删除一条记录,而slave上找不到。

从库日志:SHOW SLAVE STATUS \G;

Last_Errno: 1032;

Last_Error: Could not execute Delete_rows event ontable hcy.t1;

Can't find record in 't1',

【解决方案】:

由于master要删除一条记录,而slave上找不到而报错,这种情况主库都将其删除了,从库可以直接跳过。

可用命令:

stop slave;

set global sql_slave_skip_counter=1;startslave;

【问题3】:更新丢失:在master上更新一条记录,而slave上找不到,丢    失了数据。

从库日志:SHOW SLAVE STATUS \G;

Last_Errno: 1032;

Last_Error: Could not execute Update_rows event ontable hcy.t1; Can't find record in 't1',

【解决方案】:

把丢失的数据在slave上填补,然后跳过报错即可。

  • 场景3:字段不一致:包括字段丢失、不够长等

【问题1】

从库日志:SHOW SLAVE STATUS \G;

Slave_IO_Running: Yes

Slave_SQL_Running: No

Last_Errno: 1264

Last_Error: Error 'Out of range value for column 'JFNow' at row 1' onquery. Default database: 'guild'. Query: 'update pyPHBWS set JFNow =JFNow -1 wherePlayerName = '狂魔''

虽然从库该字段和主库的一致,但从库还是报错:

guild> desc pyPHBWS;

+------------+---------------------+------+-----+---------+-------+

| Field      |Type                | Null | Key |Default | Extra |

+------------+---------------------+------+-----+---------+-------+

| PlayerName | varchar(30)         | NO  | PRI | NULL    |       |

| JFNow   | int(10)unsigned    | YES  |     |NULL    |       |

| JFAll   |int(10) unsigned    | NO   |    | NULL    |       |

【解决方案】

修改字段:

ALTER TABLE guild.pyPHBWS MODIFY JFNowbigint(20) unsigned;

重启主从:stop slave;start slave;

【问题2】

从库日志:

SHOW SLAVE STATUS \G;

Slave_IO_Running: Yes

Slave_SQL_Running: No

Last_Errno: 1054

Last_Error:Error 'Unknown column 'qdir' in 'field list''on query. Default database: 'club'. Query: 'insert into club.question_del (id,pid, ques_name, title, intime, order_d, endtime,qdir) select id, pid,ques_name, title, intime, order_d, endtime ,qdir from club.question whereid=7330212'

【解决方案】

主库:查询 desc club.question_del,发现club.question_del表里面没有qdir这个字段;

从库:执行 alter table question_del add qdirvarchar(30) not null;

  • 场景4:超出MyISAM数据表大小限制

【错误日志】

从库日志:

SHOW SLAVE STATUS \G;

Slave_IO_Running: No

Slave_SQL_Running: Yes

Last_Errno : 1114

Last_Error : Error 'The table   'tbleventlog' is full' onquery. Default database: 'dblog'. Query: 'insert into `tbleventlog`(`PlayerName`, `ACTION`, `VALUE`, `PARAM`, `TIME`) values ('ĺɫ', '־', '620',':2,:397842703', '2015-07-28 06:56:04')'

找到该实例所在的目录,发现该表大小超过4GB;

【解决方案】

对于MyISAM数据表,单个.MYD和.MYI默认4GB。

利用AVG_ROW_LENGTH和MAX_ROWS建表选项可以把这个最大值扩大到800万TB.

max_rows主要对myisam生效.

从库:调整max_rows并重启slave.

use dblog; ALTER TABLE tbleventlog MAX_ROWS=1000000000;

stop slave; start slave;

  • 场景5:slave的中继日志relay-bin损坏

【模拟异常】

SLAVE在宕机,或者非法关机,例如电源故障、主板烧了等,造成中继日志损坏,同步停掉。

【错误日志】

从库日志:SHOW SLAVE STATUS \G;

Slave_IO_Running: Yes

Slave_SQL_Running: No

Last_Errno: 1593

Last_Error: Error initializing relay log position: I/Oerror reading event at position 4

【解决方案】

在主库上找到同步的binlog和POS点,然后重新做同步,这样就可以有新的中继日志了。

mysql> CHANGE MASTER TO MASTER_LOG_FILE='mysql-bin.000010',MASTER_LOG_POS=821;

  • 场景6:binlog index记录不一致

【模拟异常】

主数据库突然停止或问题终止,更改了mysql-bin.xxx日志,slave服务器找不到这个文件。

【错误日志】

从库日志:SHOW SLAVE STATUS \G;

Master_Log_File: mysql-bin.000029

Last_Errno: 1594

Last_Error: Relay log read failure: Could not parserelay log event entry.

【解决方案】

找到同步的点和日志文件,然后chage master即可:

change master to master_log_file='mysql-bin.000025',master_log_pos=1010663436;

  • 场景7:时区不一致导致主从数据不一致

【模拟异常】:主从服务器设置不同的时区

主库:show variables like '%timezone%';      #.看到变量timezone值为EDT

从库:showvariables like '%timezone%';       #.看到变量timezone值为 CST

【错误日志】:主库执行insert into tbname(dtime)values(now());

主库:  select* from tbname;  #.看到字段dtime值为 2013-05-08 18:40:18

从库:  select* from tbname;  #.看到字段dtime值为 2013-05-09 06:40:18

【解决方案】:

设置主从为相同时区,并尽量使用相同时间服务器

如果对时间字段用now()写入,在删除时候用delete * from tbname where dtime='xxx',由于主从时间是不一致的,就会造成删除的非同一条记录,也会引起主键冲突问题。

  • 场景8:字段集不一致

【模拟异常】

1.主库:版本MySQL 4.0.18,字符集gb2312,主键字段PlayerName

show create table pybcsltscore;

PRIMARY KEY (`PlayerName`)  ENGINE=MyISAM DEFAULT CHARSET=gb2312

2.从库:版本MySQL 4.1.22,字符集latin1,主键字段PlayerName

show create table pybcsltscore;

PRIMARY KEY (`PlayerName`)  ENGINE=MyISAM DEFAULT CHARSET=latin1

3.主库:执行sql:

mysql> insert into pybcsltscore set PlayerName = '怒☆斩', PT = 'pchg.c8';

mysql> insert into pybcsltscore set PlayerName = '怒★斩', PT = 'pchg.c8';

4. 主库:查询正常

select * from pybcsltscore where playername='怒☆斩' or playername='怒★斩';

【错误日志】

从库:查询异常,查询实心星号,结果却出现空心星号

select * from pybcsltscore_bak where playername='怒★斩';

从库: 从库状态:

Last_Errno: 1062

Last_Error: Error 'Duplicate entry '怒★斩' for key 1' on query. Defaultdatabase: 'test0505'. Query: 'insert into pybcsltscore set PlayerName = '怒★斩', PT = 'pchg.cs68'‘

从库:插入playname=’怒★斩’ 的记录,会提示主键冲突

insert into score_bak set PlayerName = '怒★斩', PT = 'pchg.cs68';

ERROR 1062 (23000): Duplicate entry '怒★斩' for key 1

【解决方案】

方案1. 从库:去掉主键

alter table pybcsltscore_test0513 drop primary key;

stop slave sql_thread; start slave sql_thread;

方案2. 从库:修改默认编码为gb2312

mysql --default-character-set=gb2312 -S mysql3307.sock

从库:再次查询:

select * from pybcsltscore where playername='怒☆斩' or playername='怒★斩';

  • 场景9:max_allowed_packet太小

【模拟异常】

1. 主库:设置max_allowed_packet为特小值,比如12K:

mysql> set global max_allowed_packet=12*1024;

Query OK, 0 rows affected (0.00 sec)

mysql> show variables like 'max_allowed_packet';

+--------------------+-------+

| Variable_name      | Value |

+--------------------+-------+

| max_allowed_packet | 12288 |

+--------------------+-------+

2. 重启slave io thread

#说明:slave如果不重启的话,个人觉得主从关系所使用的主库的变

不会改变,重启以便重新加载一些变量

3. 主库:导入r2.txt(仅一行记录

# du -sh r2.txt    80K    r2.txt)

./bin/mysql test0505 -e "load data infile'/tmp/r2.txt' into table test2;"

4. 查看从库状态

Slave_IO_Running: No

Slave_SQL_Running: Yes

5. 从库:

mysql> show variables like 'max_allowed_packet';

+--------------------+----------+

| Variable_name      | Value    |

+--------------------+----------+

| max_allowed_packet | 16776192|

+--------------------+----------+

【错误日志】

查看从数据库的错误日志,找到如下信息:

[ERROR] Got fatal error 1236: 'log event entry exceededmax_allowed_packet;

Increase max_allowed_packet on master' from master whenreading data from binary log

或类似:

[ERROR] Error reading packet from server: Got packetbigger than          'max_allowed_packet' bytes (server_errno=2020)

应该是master上的dump线程在从binlog读取数据时,读取的结果集超出了max_allowed_packet限制,造成往slave发送失败。

【解决方案】

修改max_allowed_packet的大小,然后重启slave。建议主从一致

mysql> set global max_allowed_packet=16*1024*1024;

重启slave, stop salve;start slave;

  • 场景10:临时表太大导致磁盘写满

【错误日志】:从库日志

Last_Errno: 3

Last_Error: Error 'Error writing file '/tmp/FeqMc' (Errcode: 28)'on query.

Default database: 'evt'. Query: 'delete from goodslogwhere OpTime<'2015-07-01''

【错误原因】

1. tmp目录不可写,或磁盘没有空间;

2. tmp还有空间,但是原表太大,所以查询时生成的临时表过大,因此出   错。

【解决方案】

1. 确认/tmp可写入,同时磁盘未写满;

2. 修改socket目录到空间较大的分区,再重启实例;

把 socket = /tmp/mysql.sock 改为 socket = /app/mysql.sock

二、在线对MySQL做主从复制:

http://seanlook.com/2015/12/14/mysql-replicas/

上一篇:Gitbook


下一篇:spring-boot 文件上传获取不到File原因,MultipartHttpServletRequest.getFiles为空