达梦数据库导入xml迁移到达梦数据库大文件导致中断问题解决方案记录?

**问题:**我将同事给我的xml文件迁移到盗梦数据库,xml文件大约2G,在导入过程中,总是导入一半都不到就失败了。

原因:我的原因是我的电脑的系统的运行内存是16G的,后来我发现在没导入之前,其他进程已经占用了近12G的运行内存,剩余4G,估计4G里面还有2G是系统防止崩溃不让用的,所以也就是说我还有大约2G的运行内存供xml迁移到达梦数据库的进程使用。但是由于文件太大,进程耗费的运行内存超过2G,导致进程终止了,数据未迁移成功。

解决方案:关闭耗费资源多的进程,释放运行内存

1.打开资源管理器 :ctrl+alt+delete(或者.) ->任务管理器

可以看到已经占用了11G大约,再分析一下哪个进程占用的较多。

2.点击进程->分析哪个进程占用的较多

很明显是我的idea和浏览器大约占用了4G的运行内存,并且我idea只运行了一个项目就用了3G,你要运行更多的话,估计运行内存都没有。

3.关闭耗费内存多的进程:右键->结束进程

总结:如果文件更大的情况下,我建议你重启电脑,因为刚开机的时候基本没什么大的进程,都是一些系统的进程,此时运行内存比较充裕,直接导入成功率会很大。

相关推荐
·薯条大王1 小时前
MySQL联合查询
数据库·mysql
morris1313 小时前
【redis】redis实现分布式锁
数据库·redis·缓存·分布式锁
hycccccch4 小时前
Canal+RabbitMQ实现MySQL数据增量同步
java·数据库·后端·rabbitmq
这个懒人4 小时前
深入解析Translog机制:Elasticsearch的数据守护者
数据库·elasticsearch·nosql·translog
Yan-英杰4 小时前
【百日精通JAVA | SQL篇 | 第二篇】数据库操作
服务器·数据库·sql
NineData5 小时前
NineData云原生智能数据管理平台新功能发布|2025年3月版
数据库
百代繁华一朝都-绮罗生6 小时前
检查是否存在占用内存过大的SQL
数据库·sql
吾日三省吾码6 小时前
Python 脚本:自动化你的日常任务
数据库·python·自动化
CZIDC6 小时前
win11 系统环境下 新安装 WSL ubuntu + ssh + gnome 桌面环境
数据库·ubuntu·ssh
直裾7 小时前
Mapreduce的使用
大数据·数据库·mapreduce