MongoDB 根据 _id 获取记录的创建时间并回填记录中

1、单条更新

MongoDB 集合 test1,有字段 _id,createTime,createTimeStr,name字段 , 查询createTime不为空的,根据 _id 生成该条记录的创建时间时间戳并填写到字段 createTime 字段中 ,并打印时间戳

sql 复制代码
// 查询 createTime 为空的记录
var cursor = db.getCollection("test1").find({"createTime" : null});

while (cursor.hasNext()) {
    var doc = cursor.next();
		try {

				// 提取时间戳部分
				var timestamp = doc._id.getTimestamp();
				var timestamp2 = Date.parse(timestamp);
				// 格式化时间字符串为"yyyyMMdd"
				var formattedDate = timestamp.toISOString().slice(0, 10).replace(/-/g, '');

				print("Document _id: " + doc._id +"  , timestamp2  " + timestamp2 + "   , Create Time: " + formattedDate);
				db.test1.update(
						{ _id: doc._id },
						{ $set: { createTime: timestamp2, createTimeStr: formattedDate } }
				);
		} catch (e) {
        // 打印异常信息
        print("Error processing document _id: " + doc._id + ". Error: " + e);
        // 继续执行下一个文档
        continue;
    }
}

2、批量更新

复制代码
var bulkUpdateOps = [];
var batchSize = 1000; // 每批次更新的文档数量

var cursor = db.getCollection("test1").find({ "createTime": null });

cursor.forEach(function (doc) {
    try {
        var timestamp = doc._id.getTimestamp();
        var timestamp2 = Date.parse(timestamp);
        var formattedDate = timestamp.toISOString().slice(0, 10).replace(/-/g, '');

        bulkUpdateOps.push({
            "updateOne": {
                "filter": { "_id": doc._id },
                "update": {
                    "$set": {
                        "createTime": timestamp2,
                        "createTimeStr": formattedDate
                    }
                }
            }
        });

        // 批量更新达到 batchSize 时执行一次
        if (bulkUpdateOps.length === batchSize) {
            db.getCollection("test1").bulkWrite(bulkUpdateOps);
            bulkUpdateOps = []; // 重置批量更新数组
        }
    } catch (e) {
        print("Error processing document _id: " + doc._id + ". Error: " + e);
        // 继续执行下一个文档
    }
});

// 处理剩余的批量更新
if (bulkUpdateOps.length > 0) {
    db.getCollection("test1").bulkWrite(bulkUpdateOps);
}

代码解释

使用 MongoDB 的 bulkWrite 方法对满足特定条件的文档进行批量更新,而不是逐个文档进行更新。以下是代码的主要步骤:

  1. 初始化变量:

    • bulkUpdateOps: 用于存储批量更新操作的数组。
    • batchSize: 每批次更新的文档数量。
  2. 查询文档:

    • 使用 find 方法检索具有特定条件("createTime": null)的文档。
  3. 遍历文档:

    • 使用 forEach 方法遍历查询结果的每个文档。
  4. 文档处理:

    • 提取文档的时间戳部分,并将其转换为 Unix 时间戳 (timestamp2) 和格式化日期字符串 (formattedDate)。
    • 将更新操作添加到 bulkUpdateOps 数组中。
  5. 批量更新检测:

    • 检查 bulkUpdateOps 数组的长度是否达到设定的 batchSize
    • 如果是,使用 bulkWrite 方法执行批量更新,然后重置 bulkUpdateOps 数组。
  6. 异常处理:

    • 在处理文档时,使用 try-catch 块捕获任何可能的异常,例如无法解析时间戳。
    • 如果发生异常,打印错误信息,但不中断整体流程,继续处理下一个文档。
  7. 处理剩余批量更新:

    • 在遍历完成后,检查 bulkUpdateOps 数组是否包含剩余的更新操作。
    • 如果有,使用 bulkWrite 方法执行这些剩余的批量更新。

通过批量操作来提高 MongoDB 数据库中文档的更新效率。在大数据集的情况下,批量更新通常比逐个更新更为高效。

相关推荐
一个天蝎座 白勺 程序猿1 天前
金仓数据库KingbaseES实现MongoDB平滑迁移全攻略:从架构适配到性能调优的完整实践
数据库·mongodb·数据迁移·kingbasees·金仓数据库
武子康1 天前
Java-153 深入浅出 MongoDB 全面的适用场景分析与选型指南 场景应用指南
java·开发语言·数据库·mongodb·性能优化·系统架构·nosql
程序边界1 天前
MongoDB迁移到KES实战全纪录(上):迁移准备与实施指南
数据库·mongodb
小猿姐2 天前
闲谈KubeBlocks For MongoDB设计实现
mongodb·云原生·kubernetes
Super Rookie2 天前
MongoDB 自动化脚本安装方案
数据库·mongodb·自动化
Code哈哈笑2 天前
【MongoDB 基本语法】数据库和集合的基本操作--探秘 MongoDB
数据库·mongodb
武子康3 天前
Java-152 深入浅出 MongoDB 索引详解 从 MongoDB B-树 到 MySQL B+树 索引机制、数据结构与应用场景的全面对比分析
java·开发语言·数据库·sql·mongodb·性能优化·nosql
斯普信专业组4 天前
基于k8s环境的mongodb多副本高可用方案
mongodb·容器·kubernetes
SirLancelot14 天前
MongoDB-基本介绍(一)基本概念、特点、适用场景、技术选型
java·数据库·分布式·后端·mongodb·软件工程·软件构建
武子康4 天前
Java-151 深入浅出 MongoDB 索引详解 性能优化:慢查询分析 索引调优 快速定位并解决慢查询
java·开发语言·数据库·sql·mongodb·性能优化·nosql