把MySQL的数据导入到PostgreSQL

CentOS7系统上有一个MySQL8的数据库,使用mysqldump -uroot -p dbname > bak.sql 导出的文件有1.3G

现打算把它全量导入到同一个机器上的postgresql(使用yum安装的,版本为9.2)

网上能搜到的例子,大多是pgloader,实测执行pgloader mysql://xxx/dbname postgresql://xxx/dbname总是会报错,解决完一个又会有新的一个,折腾了好一会,最终参考了这个:https://stackoverflow.com/a/77281281/9586338

改用NMIG 之后,成功把数据导入了,大致步骤如下:

bash 复制代码
git clone https://github.com/AnatolyUss/nmig
cd nmig
npm ci
npm run build
# 编辑config/config.json
npm run start
相关推荐
得物技术1 小时前
MySQL单表为何别超2000万行?揭秘B+树与16KB页的生死博弈|得物技术
数据库·后端·mysql
xiaok2 小时前
mysql中怎么创建一个可控权限数据库账号密码给到开发者
mysql
可涵不会debug5 小时前
【IoTDB】时序数据库选型指南:工业大数据场景下的技术突围
数据库·时序数据库
ByteBlossom5 小时前
MySQL 面试场景题之如何处理 BLOB 和CLOB 数据类型?
数据库·mysql·面试
IvorySQL5 小时前
IvorySQL 4.6:DocumentDB+FerretDB 实现 MongoDB 兼容部署指南
postgresql
玉衡子5 小时前
九、MySQL配置参数优化总结
java·mysql
麦兜*5 小时前
MongoDB Atlas 云数据库实战:从零搭建全球多节点集群
java·数据库·spring boot·mongodb·spring·spring cloud
Slaughter信仰5 小时前
深入理解Java虚拟机:JVM高级特性与最佳实践(第3版)第十章知识点问答(10题)
java·jvm·数据库
麦兜*5 小时前
MongoDB 在物联网(IoT)中的应用:海量时序数据处理方案
java·数据库·spring boot·物联网·mongodb·spring