ETL工具-nifi干货系列 第十二讲 nifi处理器UpdateRecord使用教程

1、上一节课我们讲解了nifi处理器UpdateAttribute,专门用来更新flowFile的属性字段。本节课我们一起来学习UpdateRecord,该处理器用来更新flowFile的流文件内容数据,如下图所示

本节教程比较简单,涉及处理器流程如下

使用处理器GenerateFlowFile生成测试数据{"name":"Javax 小金刚","id":"2"}。

使用处理器UpdateRecord更新流文件内容中字段值。

使用处理器LogMessage打印日志。

2、处理器UPdateRecord属性配置,如下图所示:

**Record Reader:**指定要用于读取传入数据的控制器服务,根据情况选择合适的控制器服务,这里由于输入数据是json格式,所以选择JsonTreeReader进行加载数据。

**Record Writer:**指定要用于写出记录的控制器服务,根据情况选择合适的控制器服务,这里由于输出数据是json格式,所以选择JsonRecordSetWrite进行输出数据,当然也可以选取其他控制器服务。

**Replacement Value Strategy:**解释如何解释配置的替换值,有两个选项Literal Value和Record Path Value 。

**Literal Value:**是指直接指定的固定数值或字符串。例如,如果你想name字段的值改为固定的"Java大金刚",你可以在Literal Value中写入这个值,如上图所示。

查看溯源信息如下:

点击Input Cliaim中的view 查看输入原始数据,如下图所示:

点击Output Cliaim中的view 查看输出数据,此时name值已经发生了改变,如下图所示:

**Record Path Value:**Value字段的值设置为record path,如下图所示:

点击Output Cliaim中的view 查看输出数据,此时newName字段已经被正确赋值,如下图所示:

还有一些其他的用法,如下图所示:

相关推荐
Acrelhuang7 分钟前
安科瑞5G基站直流叠光监控系统-安科瑞黄安南
大数据·数据库·数据仓库·物联网
消失在人海中1 小时前
数据仓库之 Atlas 血缘分析:揭示数据流奥秘
数据仓库
Hsu_kk1 小时前
Hive 查询用户连续三天登录的所有记录
数据仓库·hive·hadoop
RestCloud1 天前
如何理解ETLCloud在iPaas中的关键角色
etl·数据可视化·数据集成·数据传输·ipaas·集成工具
数据要素X1 天前
【数据仓库】Hive 拉链表实践
大数据·数据库·数据仓库·人工智能·hive·hadoop·安全
LiamTuc2 天前
远程访问,通过JDBC连接到Beeline对Hive进行操作报错
数据仓库·hive·hadoop
油头少年_w2 天前
Hive操作库、操作表及数据仓库的简单介绍
数据仓库·hive
soso19682 天前
通过Flink读写云原生数据仓库AnalyticDB PostgreSQL版(ADB PG)数据
数据仓库·云原生·flink
我的K84092 天前
Hive中自定义函数的使用
数据仓库·hive·hadoop
sunxunyong2 天前
hive 异常任务中间数据清理
数据仓库·hive·hadoop