ETL工具-nifi干货系列 第十二讲 nifi处理器UpdateRecord使用教程

1、上一节课我们讲解了nifi处理器UpdateAttribute,专门用来更新flowFile的属性字段。本节课我们一起来学习UpdateRecord,该处理器用来更新flowFile的流文件内容数据,如下图所示

本节教程比较简单,涉及处理器流程如下

使用处理器GenerateFlowFile生成测试数据{"name":"Javax 小金刚","id":"2"}。

使用处理器UpdateRecord更新流文件内容中字段值。

使用处理器LogMessage打印日志。

2、处理器UPdateRecord属性配置,如下图所示:

**Record Reader:**指定要用于读取传入数据的控制器服务,根据情况选择合适的控制器服务,这里由于输入数据是json格式,所以选择JsonTreeReader进行加载数据。

**Record Writer:**指定要用于写出记录的控制器服务,根据情况选择合适的控制器服务,这里由于输出数据是json格式,所以选择JsonRecordSetWrite进行输出数据,当然也可以选取其他控制器服务。

**Replacement Value Strategy:**解释如何解释配置的替换值,有两个选项Literal Value和Record Path Value 。

**Literal Value:**是指直接指定的固定数值或字符串。例如,如果你想name字段的值改为固定的"Java大金刚",你可以在Literal Value中写入这个值,如上图所示。

查看溯源信息如下:

点击Input Cliaim中的view 查看输入原始数据,如下图所示:

点击Output Cliaim中的view 查看输出数据,此时name值已经发生了改变,如下图所示:

**Record Path Value:**Value字段的值设置为record path,如下图所示:

点击Output Cliaim中的view 查看输出数据,此时newName字段已经被正确赋值,如下图所示:

还有一些其他的用法,如下图所示:

相关推荐
yinbp15 小时前
bboss v7.3.5来袭!新增异地灾备机制和Kerberos认证机制,助力企业数据安全
大数据·elasticsearch·微服务·etl·restclient·bboss
专注API从业者1 天前
分布式电商系统中的API网关架构设计
大数据·数据仓库·分布式·架构
我要用代码向我喜欢的女孩表白1 天前
hive迁移补数脚本细粒度 表名-分区唯一键
数据仓库·hive·hadoop
人类群星闪耀时2 天前
数据湖与数据仓库:初学者的指南
大数据·数据仓库·spark
python资深爱好者3 天前
Hive中的分区和桶的概念及其作用
数据仓库·hive·hadoop
我要用代码向我喜欢的女孩表白3 天前
hive(hdfs)补数脚本
数据仓库·hive·hadoop
风子~3 天前
hive—常用的函数整理
数据仓库·hive·hadoop
moton20174 天前
一.数据治理理论架构
大数据·数据仓库·数据治理·etl·数据湖·元数据管理·主数据管理
我要用代码向我喜欢的女孩表白4 天前
Hive增量迁移方案与实操PB级
数据仓库·hive·hadoop
莫叫石榴姐4 天前
DeepSeek驱动下的数据仓库范式转移:技术解耦、认知重构与治理演进
大数据·数据仓库·人工智能·重构·数据分析·deep learning