一、调度乱码
在利用HUE工具,搭建WORKFLOW流程的过程中,如果直接执行hivesql数据正常,不会出现乱码现象,如果利用WORKFLOW搭建的流程,进行数据的拉取,会出现数据中文乱码现象,这些乱码主要是由于select 中的硬编码中文导致出现的现象
具体现象如下:
select
case
when a = '' then '中国'
类似这种编码,导致的结果是:

解决方案:
在利用workflow搭建的流程中进行如下配置处理
在配置调度时,添加配置:
key: yarn.app.mapreduce.am.admin-command-opts
value: -Dfile.encoding=UTF-8
具体位置:



二、Hive 卡在map = 0%, reduce = 0%阶段
Hive 卡在map = 0%, reduce = 0%阶段
解决:增加map个数,设置mapreduce.input.fileinputformat.split.maxsize 小于系统默认值,需要综合考虑调用更多map时候的消耗
定位时发现任务卡在map = 0%, reduce = 0%阶段,而且发现map分配数量很少,所以猜测分配map较慢,增加map数量可解决问题。
原因:分配map数量少,一个map处理的数据多,处理速度慢
解决:增加map的数据
具体现象:
