达梦数据库导入xml迁移到达梦数据库大文件导致中断问题解决方案记录?

**问题:**我将同事给我的xml文件迁移到盗梦数据库,xml文件大约2G,在导入过程中,总是导入一半都不到就失败了。

原因:我的原因是我的电脑的系统的运行内存是16G的,后来我发现在没导入之前,其他进程已经占用了近12G的运行内存,剩余4G,估计4G里面还有2G是系统防止崩溃不让用的,所以也就是说我还有大约2G的运行内存供xml迁移到达梦数据库的进程使用。但是由于文件太大,进程耗费的运行内存超过2G,导致进程终止了,数据未迁移成功。

解决方案:关闭耗费资源多的进程,释放运行内存

1.打开资源管理器 :ctrl+alt+delete(或者.) ->任务管理器

可以看到已经占用了11G大约,再分析一下哪个进程占用的较多。

2.点击进程->分析哪个进程占用的较多

很明显是我的idea和浏览器大约占用了4G的运行内存,并且我idea只运行了一个项目就用了3G,你要运行更多的话,估计运行内存都没有。

3.关闭耗费内存多的进程:右键->结束进程

总结:如果文件更大的情况下,我建议你重启电脑,因为刚开机的时候基本没什么大的进程,都是一些系统的进程,此时运行内存比较充裕,直接导入成功率会很大。

相关推荐
Java爱好狂.7 小时前
Java面试Redis核心知识点整理!
java·数据库·redis·分布式锁·java面试·后端开发·java八股文
小程故事多_807 小时前
开源界核弹级输出!蚂蚁 Agentar-Scale-SQL 凭 “编排式扩展” 技术,成为 Text-to-SQL 天花板
数据库·人工智能·sql·开源·aigc·embedding
谷隐凡二8 小时前
etcd在Kubernetes中的作用简单介绍
数据库·kubernetes·etcd
阿杆8 小时前
如何在 Spring Boot 中接入 Amazon ElastiCache
java·数据库·redis
qq_343247038 小时前
单机版认证kafka
数据库·分布式·kafka
2301_800256119 小时前
第十一章 PostgreSQL 服务器编程知识点梳理(1)
服务器·数据库·postgresql
松涛和鸣9 小时前
DAY32 Linux Thread Programming
linux·运维·数据库·算法·list
秦jh_9 小时前
【Qt】常用控件(上)
服务器·数据库·qt
爬山算法9 小时前
Netty(14)如何处理Netty中的异常和错误?
java·前端·数据库
꧁坚持很酷꧂9 小时前
把虚拟机Ubuntu中的USB设备名称改为固定名称
linux·数据库·ubuntu