从MySQL导出到PostgreSQL


异构
数据库的导入、导出是一个大难题。从MySQL到PG目前没有特别完善的工具,还需要人工的参与。本文将简单介绍下如何利用一些工具,手工将MySQL导出数据到PostgreSQL。

导出、转换、导入


数据导出、导入的思路是:

  1. 导出结构

  2. 导出数据

  3. 对结构进行转换

  4. 对数据进行转换

  5. 导入结构

  6. 导入数据

这里的想法是将结构和数据分开处理,这样有很多好处。首先DDL的语句的差别相比DML要大一些,比如各种类型的转换、符号的变化等,分开之后可以针对性的处理;其次,DDL和DML分开更好做批量的处理;其他好处……

当前的开源转换工具,尚没有一个完善的。不同的工具分别做了些不同的转换,因此本文将会利用多个工具互相配合使用,可以达到较好的效果。主要用到的工具有:

  1. mysql-postgresql-converter

    单个python脚本,依赖较少。对文件內容、格式的转换,比较好的是enum类型改写等。

  2. my2pg.pl

    单个perl脚本,依赖较少,会对数据类型做不错的转换。

  3. SED、VIM, 文本编辑神器,你懂得~

导出


导出主要采用的是mysql自带的mysqldump,导出成sql文件的形式。这里只给出直接的例子,更多的参数请参考文档(mysqldump --help)。

导出结构

/usr/local/mysql/bin/mysqldump --skip-opt --compatible=postgresql --compact --no-data --default-character-set=utf8 --skip-dump-date -u cvusr -p -h mysqlhostaddress cvdb > schm.sql

  • --no-data,故名思议,就是不带数据

  • --compatible=postgresql, 尽量兼容PostgreSQL的语法的方式,至少能减少后面一部分工作量

  • --default-character-set=utf8,编码尽量与目标库保持一致

  • 这里有更多的说明

导出数据

/usr/local/mysql/bin/mysqldump --skip-opt --compatible=postgresql --compact --no-create-info --default-character-set=utf8 --skip-comments --skip-dump-date -u cvusr -p -h mysqlhost cvdb > data.sql

转换


数据的导出是比较容易的,麻烦的地方在于将数据文件转换成另一种数据库可以采用的方式。在这个过程中,至少需要处理以下几个问题,这里有详细的MySQL与PG的对比

在结构上

  1. 类型

    如mediumint、char等,其实PG是可以自定义类型,这个应该是细节的处理,现有工具已经能做的不错。my2pg.pl工具可以完成得较好

  2. 语义转换

    典型的,在MySQL中可以create table的时候对字段采用enum类型,在PG中就需要抽出来先建个enum数据类型。另外如UK、default value等。 这方面,mysql-postgresql-converter可以满足部分需求。

  3. 其他地方

在数据上:

  1. 格式

  2. '与"

  3. 默认值

  4. 其他地方

可以在PG上做如下设置:

backslash_quote = on

escape_string_warning = off

standard_conforming_strings = off

在mysqldump的时候,在建表语句中会有注释,但发现几个工具都去不掉,mysqldump的"--skip-comments"选项也没起作用,百思不得姐之后决定手动处理:

sed -i "s/ COMMENT '.*',/ ,/g" schm.dump

sed -i "s/ COMMENT '.*',/ ,/g" data.dump

自动转换

经过多次尝试,发现没有一个工具能够将导出的结构处理的比较完善,使得可以直接在PG中导入。开了脑洞后尝试工具的合作,主要是因为懒,不想手动改:

// 一些数据类型的修改,读者可以自行作个对比。目前my2pg.pl做得比其他工具要好一些。 (但其将blob类型转换成了text,需要注意,可以将脚本my2pg.pl中的“s/\w*blob$chareg/text/i; ”改为“s/\w*blob$chareg/bytea/i; ”

perl my2pg.pl  schm.dump  > my2pg-schm.dump

// enum类型改写等,这个是上面的工具没有处理的,还有一些其他的

python mysql-postgresql-converter/db_converter.py schm.dump > db_cvtr-my2pg-schm.dump

这里需要注意的是,这两个工具的顺序不能变,变了之后结果就不认识了。如果有兴趣,可以尝试下与其他工具的配合。

这还不是结束!这个时候,并不一定所有的类型都修改完全,可能还有一些需要手工处理,如:

特殊字符的处理:

SHELL$ vim mysql2pgsql-data.dump

:%s /\E'/E\'/g

——这里是去除一些地方转换出的问题,在插入语句中,"insert into tbl values(0, E\'0\')"会被处理成了"insert into tbl values(0, \E'0\')"。幸好只是少数!

日期默认值:

'0000-00-00' 改为CURRENT_DATE,或者某固定日期等

——在MySQL中,日期'0000-00-00'值为空、或者无效,但这个日期不是正确日期,因此在PG中不支持。CURRENT_DATE是指当前时间。

其他的修改,也只能见招拆招了。

数据导入

在转换处理完成了之后,剩下的也就简单了。依次导入结构和数据就好,如果有问题,只能具体问题具体分析了。

结构导入

~/Workspace/pg94/bin/psql -h pghost -p 3432 -U cvusr -d cvdb -f schm.dump

数据导入

~/Workspace/pg94/bin/psql -h pghost -p 3432 -U cvusr -d cvdb -f data.dump

检查、验证


数据导进来了,不代表就结束了。因为不确定中间是否出了什么幺蛾子。需要做一些验证:

  1. 表结构、类型

  2. 记录数

  3. 抽样记录

  4. 存储过程就算了

  5. 编码、乱码的问题

  6. 其他差异地方的对比,如blob、clob等

针对这些做过检查无误之后,需要应用做相应的全面的测试。

参考


  1. mysql-to-postgresql-migration-tips

  2. Converting_from_other_Databases_to_PostgreSQL

  3. Converting_MySQL_to_PostgreSQL

  4. mysql-postgresql-converter

  5. py-mysql2pgsql

  6. py-mysql2pgsql源码

  7. mysqldump参数解释

  8. Migrating from MySQL to PostgreSQL

上一篇:ApsaraDB For Greenplum试用指南


下一篇:Greenplum数据增量导入的唯一值自增处理