flume异常关闭文件修复方法

flume在从kafka采集数据后,会将数据写入到hdfs文件中。在写入过程中,由于集群负载、资源或者网络原因会导致文件没有正常关闭,即文件表现为tmp格式,这种格式的文件从hdfs往hive分区load数据时,会导致数据无法查询问题。

复制代码
    flume写入文件正常关闭的过程会有一个create和close的过程,通过如下命令对没有正常关闭的文件进行修复。
bash 复制代码
hdfs debug recoverLease -path 异常文件路径 -retries 10

例如:

bash 复制代码
hdfs debug recoverLease -path /warehouse/tablespace/managed/hive/ods.db/test/2023-11-06/.tempFlumeData.1699239988831.tmp -retries 10
复制代码
    文件处理后,再进行load操作
bash 复制代码
load data inpath '路径' into table ods.表名 partition(dt='2023-11-06');

问题解决。

相关推荐
wang_yb几秒前
拒绝“凭感觉”:用回归分析看透数据背后的秘密
大数据·databook
TDengine (老段)1 小时前
TDengine 在智能制造领域的应用实践
java·大数据·数据库·制造·时序数据库·tdengine·涛思数据
山沐与山1 小时前
【Flink】Flink算子大全
大数据·flink
ayingmeizi1631 小时前
智慧养老的数字化转型:AI CRM如何重构全链路增长
大数据·人工智能·重构
老马聊技术2 小时前
HBase单节点环境搭建详细教程
大数据·数据库·hbase
xerthwis2 小时前
Flink:从“微批”到“真流”,数据处理的哲学转向与时代抉择
大数据·flink
jqpwxt3 小时前
启点创新智慧景区服务平台,智慧景区数字驾驶舱建设
大数据·人工智能
阿里云大数据AI技术3 小时前
Hologres Dynamic Table:高效增量刷新,构建实时统一数仓的核心利器
大数据·人工智能·阿里云·实时数仓·hologres
Familyism3 小时前
ES基础入门
大数据·elasticsearch·搜索引擎
跨境卫士情报站3 小时前
摆脱砍单魔咒!Temu 自养号系统化采购,低成本高安全
大数据·人工智能·安全·跨境电商·亚马逊·防关联