ETL工具-nifi干货系列 第十二讲 nifi处理器UpdateRecord使用教程

1、上一节课我们讲解了nifi处理器UpdateAttribute,专门用来更新flowFile的属性字段。本节课我们一起来学习UpdateRecord,该处理器用来更新flowFile的流文件内容数据,如下图所示

本节教程比较简单,涉及处理器流程如下

使用处理器GenerateFlowFile生成测试数据{"name":"Javax 小金刚","id":"2"}。

使用处理器UpdateRecord更新流文件内容中字段值。

使用处理器LogMessage打印日志。

2、处理器UPdateRecord属性配置,如下图所示:

**Record Reader:**指定要用于读取传入数据的控制器服务,根据情况选择合适的控制器服务,这里由于输入数据是json格式,所以选择JsonTreeReader进行加载数据。

**Record Writer:**指定要用于写出记录的控制器服务,根据情况选择合适的控制器服务,这里由于输出数据是json格式,所以选择JsonRecordSetWrite进行输出数据,当然也可以选取其他控制器服务。

**Replacement Value Strategy:**解释如何解释配置的替换值,有两个选项Literal Value和Record Path Value 。

**Literal Value:**是指直接指定的固定数值或字符串。例如,如果你想name字段的值改为固定的"Java大金刚",你可以在Literal Value中写入这个值,如上图所示。

查看溯源信息如下:

点击Input Cliaim中的view 查看输入原始数据,如下图所示:

点击Output Cliaim中的view 查看输出数据,此时name值已经发生了改变,如下图所示:

**Record Path Value:**Value字段的值设置为record path,如下图所示:

点击Output Cliaim中的view 查看输出数据,此时newName字段已经被正确赋值,如下图所示:

还有一些其他的用法,如下图所示:

相关推荐
liliangcsdn9 小时前
mac测试ollama llamaindex
数据仓库·人工智能·prompt·llama
晴天彩虹雨1 天前
统一调度与编排:构建自动化数据驱动平台
大数据·运维·数据仓库·自动化·big data·etl
Sirius Wu1 天前
Hive的窗口函数
数据仓库·hive·hadoop
isNotNullX2 天前
数据集成难在哪?制造企业该怎么做?
大数据·数据库·数据仓库·人工智能·制造
Sirius Wu3 天前
一文说清楚Hive
数据仓库·hive·hadoop·后端
天翼云开发者社区3 天前
离线数仓优化简述
数据仓库
Leo.yuan3 天前
小白做投资测算,如何快速上手?
数据库·数据仓库·人工智能·算法·信息可视化
摘星编程3 天前
MCP与企业数据集成:ERP、CRM、数据仓库的统一接入
数据仓库·erp系统·mcp协议·crm集成·企业数据集成
sheep85213 天前
HIVE实战处理(二十四)留存用户数
数据仓库·hive·hadoop
AI扶我青云志7 天前
Hive数据仓库工具
数据仓库·hive·hadoop