flume异常关闭文件修复方法

flume在从kafka采集数据后,会将数据写入到hdfs文件中。在写入过程中,由于集群负载、资源或者网络原因会导致文件没有正常关闭,即文件表现为tmp格式,这种格式的文件从hdfs往hive分区load数据时,会导致数据无法查询问题。

复制代码
    flume写入文件正常关闭的过程会有一个create和close的过程,通过如下命令对没有正常关闭的文件进行修复。
bash 复制代码
hdfs debug recoverLease -path 异常文件路径 -retries 10

例如:

bash 复制代码
hdfs debug recoverLease -path /warehouse/tablespace/managed/hive/ods.db/test/2023-11-06/.tempFlumeData.1699239988831.tmp -retries 10
复制代码
    文件处理后,再进行load操作
bash 复制代码
load data inpath '路径' into table ods.表名 partition(dt='2023-11-06');

问题解决。

相关推荐
Eward-an6 分钟前
华为ModelEngine全流程评测:从智能体开发到应用编排,解锁企业级AI开发新范式
大数据·人工智能
tang7778919 分钟前
哪些行业用动态代理ip?哪些行业用静态代理IP?怎样区分动态ip和静态ip?(互联网人必码·实用长文)
大数据·网络·爬虫·python·网络协议·tcp/ip·智能路由器
九硕智慧建筑一体化厂家39 分钟前
DDC:看似普通的存在,在楼宇自控系统中却主宰智能建筑高效运行?
大数据·运维·人工智能·网络协议·制造·设计规范
Apache Flink1 小时前
(二)走进阿里云实时计算Flink版|场景案例篇
大数据·阿里云·flink·云计算
laozhao4321 小时前
浪潮298.00万中标甘肃能源化工集团财务信息化系统项目
大数据·人工智能
北京软秦科技有限公司1 小时前
IACheck助力能源电力检测报告智能审核:AI报告审核提升质量与效率
大数据·人工智能·能源
大尚来也1 小时前
渲染性能的隐形守护者:深度解析虚拟DOM的运作机制与优化哲学
大数据
大大大大晴天2 小时前
Flink生产问题排障-DAG膨胀导致JobManagerOOM
大数据·flink
GEO_Huang2 小时前
企业转型无从下手?数谷的定制化 AI 方案能否指点迷津?
大数据·人工智能·aigc·rpa·geo·企业智能体定制·企业ai定制
珠海西格电力2 小时前
零碳园区全面感知体系的建设成本和收益分析包含哪些关键数据?
大数据·数据库·人工智能·智慧城市·能源