MySQL数据全量导入PG的方法

下面会用到一个perl脚原本作数据格式的转换: https://github.com/ahammond/mysql2pgsql
html


1 导出mysql的数据mysql

# 导出结构
mysqldump bx_cmdb_37 --master-data=2  --skip-opt --default-character-set=utf8 --no-data --compact --skip-dump-date --set-gtid-purged=OFF > /tmp/struct.sql

# 导出数据
mysqldump bx_cmdb_37 --master-data=2  --skip-opt --default-character-set=utf8 --no-create-info  --compact --skip-dump-date --set-gtid-purged=OFF > /tmp/data.sql


2 使用perl脚本,将上一步骤中的2个sql转为pg格式的,命令相似以下git

下载 到 /root/目录下
chmod +x /root/mysql2pgsql.perl

cd /tmp/

/root/mysql2pgsql.perl struct.sql struct_pg.sql
/root/mysql2pgsql.perl data.sql data_pg.sql

sed -i.bak 's# int # bigint #g' struct_pg.sql
sed -i.bak 's# smallint # int #g' struct_pg.sql
sed -i.bak 's# datetime(6) # timestamp #g' struct_pg.sql

作上面的几个sed替换操做的缘由是: 这里我遇到几个问题(我下面的操做处理的不够优雅):
1 部分int unsigned的数据,perl脚本给转成了int signed,致使范围缩小了,后续插入数据可能溢出,所以我这里将所有建表语句中的int 替换为bigint
2 注意 datetime的列,在PG里面咱们须要人工改为 timestamp 类型的,否则会报错
3 smallint 都改为 int类型,防止到PG中插入溢出




3 将文件导入到PG库中(注意可能有些不兼容的报错)github

chown postgres.postgres /tmp/bbb.sql
psql --port 5434 -d testdb -f /tmp/bbb.sql   便可导入到PG的testdb库中




4 后续的增量数据同步,能够使用 go-mysql-postgresql来进行(下一篇blog介绍用法)sql

咱们 导出data.sql 的时候, 已经带上 master-data了,很容易就知道最后复制的binlog位置。



## 参考  http://zhansq.cn/article/18-08-09/43.htmlbash

相关文章
相关标签/搜索