【MongoDB】2.MongoDB导入文件

目录

[一、MongoDB Compass](#一、MongoDB Compass)

二、mongoimport

1、安装

2、语法:

3、可能出现的错误

三、MongoDB的GridFS

1、介绍

2、语法


一、MongoDB Compass

这个简单,不做赘述

二、mongoimport

Mongoimport是一个用于导入数据到MongoDB的工具,默认情况下,它使用较小的内存限制来处理导入操作。

1、安装

(1)进入mongodb 官网,找到 tools 里面的 MongoDB Database Tools

(2)下载的压缩文件夹下的 bin 目录的 exe后缀文件全选,复制到 MongoDB \ bin 目录下面

(3)重新打开一个cmd窗口,就可以根据语法使用了

2、语法:

(1)基本语法

mongoimport -d 数据库名称 -c 集合名称 --file 要导入的数据文件

当导入的数据文件较大时,可能会超出默认的内存限制,导致解析错误。

(2)大文件分批次语法

可以使用Mongoimport的**--batchSize**选项,将导入过程分成多个批次来处理,从而减少单个批次的内存使用量。通过调整每个批次的大小,您可以控制导入过程中的内存使用,并避免"文件过大"错误。

注:**batchSize****含义:**批大小,每个批次的文件数量

mongoimport --db 数据库名称**--collection** 集合名称 --file 要导入的数据文件 --batchSize 1000

3、可能出现的错误

(1)Failed: an inserted document is too large

问题:mongoimport 工具报错 "an inserted document is too large" 表示有单个文档的大小超过了 MongoDB 默认的文档大小限制(16MB)。这是因为 MongoDB 不允许插入超过 16MB 的单个文档。如果你的JSON文件中的某些文档本身就超过了16MB的限制,那么无论批次大小如何设置,这些文档都无法被导入。

解决方法:使用GridFS,没有文件限制

(2)Failed: can not decode array into a D

解决方法:把参数 --file改成--jsonArray 即可 如果JSON文件是一个大数组,包含多个对象,可以使用--jsonArray选项来告诉mongoimport整个文件被视为一个JSON数组。

三、MongoDB的GridFS

1、介绍

GridFS 用于存储和恢复那些超过16M(BSON文件限制)的文件(如:图片、音频、视频等)。

GridFS 也是文件存储的一种方式,但是它是存储在MonoDB的集合中。

GridFS 会将大文件对象分割成多个小的chunk(文件片段),一般为256k/个,每个chunk将作为MongoDB的一个文档(document)被存储在chunks集合中。

GridFS 用两个集合来存储一个文件:fs.files与fs.chunks每个文件的实际内容被存在chunks(二进制数据)中,和文件有关的meta数据(filename,content_type,还有用户自定义的属性)将会被存在files集合中。

2、语法

无需安装,MongoDB自带,在MongoDB/bin文件夹中。

mongofiles.exe -d 数据库名称 --prefix 集合名称 put 要导入的数据文件

相关推荐
goxingman8 分钟前
Oracle视图基础
数据库·oracle
黎相思35 分钟前
MySQL索引特性
数据库·mysql
rit84324991 小时前
压缩感知信号恢复算法:OMP与CoSaMP对比分析
数据库·人工智能·算法
Forget_85501 小时前
RHCE复习作业4
数据库
f***28141 小时前
【零基础学Mysql】常用函数讲解,提升数据操作效率的利器
数据库·mysql
+VX:Fegn08951 小时前
计算机毕业设计|基于springboot+vue的学校课程管理系统(源码+数据库+文档)
java·数据库·vue.js·spring boot·后端·课程设计
Elastic 中国社区官方博客2 小时前
ES|QL 在 9.2:智能查找连接和时间序列支持
大数据·数据库·人工智能·sql·elasticsearch·搜索引擎·全文检索
q***01652 小时前
PostgreSQL 17 发布了!非常稳定的版本
数据库·postgresql
菜鸟冲锋号2 小时前
问题:增量关联(实时同步新数据) 这个场景中,如果hudi_pay 变更了一条数据,hudi_order_pay_join 结果的数据会跟着变化吗
服务器·前端·数据库
Wilson Chen2 小时前
深入解剖 Redis Cluster:从 16384 分片原理到故障自动转移的硬核实战
数据库·redis·缓存