大数据工具之HIVE-参数调优,调度乱码(二)

一、调度乱码

在利用HUE工具,搭建WORKFLOW流程的过程中,如果直接执行hivesql数据正常,不会出现乱码现象,如果利用WORKFLOW搭建的流程,进行数据的拉取,会出现数据中文乱码现象,这些乱码主要是由于select 中的硬编码中文导致出现的现象

具体现象如下:

select

case

when a = '' then '中国'

类似这种编码,导致的结果是:

解决方案:

在利用workflow搭建的流程中进行如下配置处理

在配置调度时,添加配置:

key: yarn.app.mapreduce.am.admin-command-opts

value: -Dfile.encoding=UTF-8

具体位置:

二、Hive 卡在map = 0%, reduce = 0%阶段

Hive 卡在map = 0%, reduce = 0%阶段

解决:增加map个数,设置mapreduce.input.fileinputformat.split.maxsize 小于系统默认值,需要综合考虑调用更多map时候的消耗

定位时发现任务卡在map = 0%, reduce = 0%阶段,而且发现map分配数量很少,所以猜测分配map较慢,增加map数量可解决问题。

原因:分配map数量少,一个map处理的数据多,处理速度慢

解决:增加map的数据

具体现象:

相关推荐
武子康6 小时前
大数据-98 Spark 从 DStream 到 Structured Streaming:Spark 实时计算的演进
大数据·后端·spark
阿里云大数据AI技术6 小时前
2025云栖大会·大数据AI参会攻略请查收!
大数据·人工智能
代码匠心9 小时前
从零开始学Flink:数据源
java·大数据·后端·flink
Lx35211 小时前
复杂MapReduce作业设计:多阶段处理的最佳实践
大数据·hadoop
武子康14 小时前
大数据-100 Spark DStream 转换操作全面总结:map、reduceByKey 到 transform 的实战案例
大数据·后端·spark
expect7g15 小时前
Flink KeySelector
大数据·后端·flink
阿里云大数据AI技术1 天前
StarRocks 助力数禾科技构建实时数仓:从数据孤岛到智能决策
大数据
Lx3521 天前
Hadoop数据处理优化:减少Shuffle阶段的性能损耗
大数据·hadoop
武子康2 天前
大数据-99 Spark Streaming 数据源全面总结:原理、应用 文件流、Socket、RDD队列流
大数据·后端·spark
阿里云大数据AI技术2 天前
大数据公有云市场第一,阿里云占比47%!
大数据