最近在工作中,遇到了这样一个业务场景,我们需要关注一个业务系统数据库中某几张表的数据,当数据发生新增或修改时,将它同步到另一个业务系统数据库中的表中。
一提到数据库的同步,估计大家第一时间想到的就是基于binlog
的主从复制了,但是放在我们的场景中,还有几个问题:
- 第一,并不是需要复制所有表的数据,复制对象只有少量的几张表
- 第二,也是比较麻烦的,两个业务系统数据库表结构可能不一致。例如,要同步数据库1的A表中的某些字段到数据库2的B表中,在这一过程中,A表和B表的字段并不是完全相同
这样的话,我们只能通过代码的方式,首先获取到数据库1表中数据的变动,再通过手动映射的方式,插入到数据库2的表中。但是,获取变动数据的这一过程,还是离不开binlog
,因此我们就需要在代码中对binlog
进行一下监控。
先说结论,我们最终使用了一个开源工具mysql-binlog-connector-java
,用来监控binlog
变化并获取数据,获取数据后再手动插入到另一个库的表中,基于它来实现了数据的同步。这个工具的git项目地址如下:
https://github.com/shyiko/mysql-binlog-connector-java
在正式开始前,还是先简单介绍一下mysql
的binlog
,binlog
是一个二进制文件,它保存在磁盘中,是用来记录数据库表结构变更、表数据修改的二进制日志。其实除了数据复制外,它还可以实现数据恢复、增量备份等功能。
启动项目前,首先需要确保mysql
服务已经启用了binlog
:
show variables like 'log_bin';
如果为值为OFF
,表示没有启用,那么需要首先启用binlog
,修改配置文件:
log_bin=mysql-bin binlog-format=ROW server-id=1
对参数做一个简要说明:
- 在配置文件中加入了
log_bin
配置项后,表示启用了binlog
-
binlog-format
是binlog
的日志格式,支持三种类型,分别是STATEMENT
、ROW
、MIXED
,我们在这里使用ROW
模式 -
server-id
用于标识一个sql语句是从哪一个server
写入的,这里一定要进行设置,否则我们在后面的代码中会无法正常监听到事件
在更改完配置文件后,重启mysql
服务。再次查看是否启用binlog
,返回为ON
,表示已经开启成功。
在Java项目中,首先引入maven
坐标:
<dependency> <groupId>com.github.shyiko</groupId> <artifactId>mysql-binlog-connector-java</artifactId> <version>0.21.0</version> </dependency>
写一段简单的示例,看看它的具体使用方式:
public static void main(String[] args) { BinaryLogClient client = new BinaryLogClient("127.0.0.1", 3306, "hydra", "123456"); client.setServerId(2); client.registerEventListener(event -> { EventData data = event.getData(); if (data instanceof TableMapEventData) { System.out.println("Table:"); TableMapEventData tableMapEventData = (TableMapEventData) data; System.out.println(tableMapEventData.getTableId()+": ["+tableMapEventData.getDatabase() + "-" + tableMapEventData.getTable()+"]"); } if (data instanceof UpdateRowsEventData) { System.out.println("Update:"); System.out.println(data.toString()); } else if (data instanceof WriteRowsEventData) { System.out.println("Insert:"); System.out.println(data.toString()); } else if (data instanceof DeleteRowsEventData) { System.out.println("Delete:"); System.out.println(data.toString()); } }); try { client.connect(); } catch (IOException e) { e.printStackTrace(); } }
首先,创建一个BinaryLogClient
客户端对象,初始化时需要传入mysql
的连接信息,创建完成后,给客户端注册一个监听器,来实现它对binlog
的监听和解析。在监听器中,我们暂时只对4种类型的事件数据进行了处理,除了WriteRowsEventData
、DeleteRowsEventData
、UpdateRowsEventData
对应增删改操作类型的事件数据外,还有一个TableMapEventData
类型的数据,包含了表的对应关系,在后面的例子中再具体说明。
在这里,客户端监听到的是数据库级别的所有事件,并且可以监听到表的DML
语句和DDL
语句,所以我们只需要处理我们关心的事件数据就行,否则会收到大量的冗余数据。
启动程序,控制台输出:
com.github.shyiko.mysql.binlog.BinaryLogClient openChannelToBinaryLogStream 信息: Connected to 127.0.0.1:3306 at mysql-bin.000002/1046 (sid:2, cid:10)
连接mysql的binlog
成功,接下来,我们在数据库中插入一条数据,这里操作的数据库名字是tenant
,表是dept
:
insert into dept VALUES(8,"人力","","1");
这时,控制台就会打印监听到事件的数据:
Table: 108: [tenant-dept] Insert: WriteRowsEventData{tableId=108, includedColumns={0, 1, 2, 3}, rows=[ [8, 人力, , 1] ]}
我们监听到的事件类型数据有两类,第一类是TableMapEventData
,通过它可以获取操作的数据库名称、表名称以及表的id
。之所以我们要监听这个事件,是因为之后监听的实际操作中返回数据中包含了表的id
,而没有表名等信息,所以如果我们想知道具体的操作是在哪一张表的话,就要先维护一个id
与表的对应关系。
第二个打印出来的监听事件数据是WriteRowsEventData
,其中记录了insert
语句作用的表,插入涉及到的列,以及实际插入的数据。另外,如果我们只需要对特定的一张或几张表进行处理的话,也可以提前设置表的名单,在这里根据表id
到表名的映射关系,实现数据的过滤,
接下来,我们再执行一条update
语句:
update dept set tenant_id=3 where id=8 or id=9
控制台输出:
Table: 108: [tenant-dept] Update: UpdateRowsEventData{tableId=108, includedColumnsBeforeUpdate={0, 1, 2, 3}, includedColumns={0, 1, 2, 3}, rows=[ {before=[8, 人力, , 1], after=[8, 人力, , 3]}, {before=[9, 人力, , 1], after=[9, 人力, , 3]} ]}
在执行update
语句时,可能会作用于多条数据,因此在实际修改的数据中,可能包含多行记录,这一点体现在上面的rows
中,包含了id
为8和9的两条数据。
最后,再执行一条delete
语句:
delete from dept where tenant_id=3
控制台打印如下,rows
中同样返回了生效的两条数据:
Table: 108: [tenant-dept] Delete: DeleteRowsEventData{tableId=108, includedColumns={0, 1, 2, 3}, rows=[ [8, 人力, , 3], [9, 人力, , 3] ]}
简单的使用原理介绍完成后,再回到我们原先的需求上,需要将一张表中新增或修改的数据同步到另一张表中,问题还有一个,就是如何将返回的数据对应到所在的列上。这时应该怎么实现呢?
以update
操作为例,我们要对提取的数据后进行一下处理,更改上面例子中的方法:
if (data instanceof UpdateRowsEventData) { System.out.println("Update:"); UpdateRowsEventData updateRowsEventData = (UpdateRowsEventData) data; for (Map.Entry<Serializable[], Serializable[]> row : updateRowsEventData.getRows()) { List<Serializable> entries = Arrays.asList(row.getValue()); System.out.println(entries); JSONObject dataObject = getDataObject(entries); System.out.println(dataObject); } }
在将data
强制转换为UpdateRowsEventData
后,可以使用getRows
方法获取到更新的行数据,并且能够取到每一列的值。
之后,调用了一个自己实现的getDataObject
方法,用它来实现数据到列的绑定过程:
private static JSONObject getDataObject(List message) { JSONObject resultObject = new JSONObject(); String format = "{\"id\":\"0\",\"dept_name\":\"1\",\"comment\":\"2\",\"tenant_id\":\"3\"}"; JSONObject json = JSON.parseObject(format); for (String key : json.keySet()) { resultObject.put(key, message.get(json.getInteger(key))); } return resultObject; }
在format
字符串中,提前维护了一个数据库表的字段顺序的字符串,标识了每个字段位于顺序中的第几个位置。通过上面这个函数,能够实现数据到列的填装过程,我们再执行一条update
语句来查看一下结果:
update dept set tenant_id=3,comment="1" where id=8
控制台打印结果如下:
Table: 108: [tenant-dept] Update: [8, 人力, 1, 3] {"tenant_id":3,"dept_name":"人力","comment":"1","id":8}
可以看到,将修改后的这一条记录中的属性填装到了它对应的列中,之后我们再根据具体的业务逻辑,就可以根据字段名取出数据,将数据同步到其他的表了。