Hive日志介绍

日志描述

日志路径:Hive相关日志的默认存储路径为"/var/log/Bigdata/hive/角色名",Hive1相关日志的默认存储路径为"/var/log/Bigdata/hive1/角色名",以此类推。

  • HiveServer:"/var/log/Bigdata/hive/hiveserver"(运行日志),"/var/log/Bigdata/audit/hive/hiveserver"(审计日志)。
  • MetaStore:"/var/log/Bigdata/hive/metastore"(运行日志),"/var/log/Bigdata/audit/hive/metastore"(审计日志)。
  • WebHCat:"/var/log/Bigdata/hive/webhcat"(运行日志),"/var/log/Bigdata/audit/hive/webhcat"(审计日志)

日志归档规则:Hive的日志启动了自动压缩归档功能,缺省情况下,当日志大小超过20MB的时候(此日志文件大小可进行配置),会自动压缩,压缩后的日志文件名规则为:"<原有日志名>-<yyyy-mm-dd_hh-mm-ss>.[编号].log.zip"。最多保留最近的20个压缩文件,压缩文件保留个数和压缩文件阈值可以配置

表 1 Hive日志列表

日志类型 日志文件名 描述
运行日志 /hiveserver/hiveserver.out HiveServer运行环境信息日志
运行日志 /hiveserver/hive.log HiveServer进程的运行日志
运行日志 /hiveserver/hive-omm-<日期>-<PID>-gc.log.<编号> HiveServer进程的GC日志
运行日志 /hiveserver/prestartDetail.log HiveServer启动前的工作日志
运行日志 /hiveserver/check-serviceDetail.log Hive服务启动是否成功的检查日志
运行日志 /hiveserver/cleanupDetail.log HiveServer卸载的清理日志
运行日志 /hiveserver/startDetail.log HiveServer进程启动日志
运行日志 /hiveserver/stopDetail.log HiveServer进程停止日志
运行日志 /hiveserver/localtasklog/omm_<日期>_<任务ID>.log Hive本地任务的运行日志
运行日志 /hiveserver/localtasklog/omm_<日期>_<任务ID>-gc.log.<编号> Hive本地任务的GC日志
运行日志 /metastore/metastore.log MetaStore进程的运行日志
运行日志 /metastore/hive-omm-<日期>-<PID>-gc.log.<编号> MetaStore进程的GC日志
运行日志 /metastore/postinstallDetail.log MetaStore安装后的工作日志
运行日志 /metastore/prestartDetail.log MetaStore启动前的工作日志
运行日志 /metastore/cleanupDetail.log MetaStore卸载的清理日志
运行日志 /metastore/startDetail.log MetaStore进程启动日志
运行日志 /metastore/stopDetail.log MetaStore进程停止日志
运行日志 /metastore/metastore.out MetaStore运行环境信息日志
运行日志 /webhcat/webhcat-console.out Webhcat进程启停正常日志
运行日志 /webhcat/webhcat-console-error.out Webhcat进程启停异常日志
运行日志 /webhcat/prestartDetail.log WebHCat启动前的工作日志
运行日志 /webhcat/cleanupDetail.log Webhcat卸载时或安装前的清理日志
运行日志 /webhcat/hive-omm-<日期>-<PID>-gc.log.<编号> WebHCat进程的GC日志
运行日志 /webhcat/webhcat.log WebHCat进程的运行日志
审计日志 hive-audit.log hive-rangeraudit.log HiveServer审计日志
审计日志 metastore-audit.log MetaStore审计日志
审计日志 webhcat-audit.log WebHCat审计日志
审计日志 jetty-<日期>.request.log Jetty服务的请求日志

日志级别

Hive提供了如表2所示的日志级别。

运行日志的级别优先级从高到低分别是ERROR、WARN、INFO、DEBUG,程序会打印高于或等于所设置级别的日志,设置的日志等级越高,打印出来的日志就越少。

表 2 日志级别

级别 描述
ERROR ERROR表示系统运行的错误信息。
WARN WARN表示当前事件处理存在异常信息。
INFO INFO表示记录系统及各事件正常运行状态信息。
DEBUG DEBUG表示记录系统及系统的调试信息。

如果您需要修改日志级别,请执行如下操作:

  1. 参考修改集群服务配置参数,进入Hive服务"全部配置"页面。

  2. 左边菜单栏中选择所需修改的角色所对应的日志菜单。

  3. 选择所需修改的日志级别并保存。

    说明:

    配置Hive日志级别后可立即生效,无需重启服务。

日志格式

Hive的日志格式如下所示:

表 3 日志格式

日志类型 格式 示例
运行日志 <yyyy-MM-dd HH:mm:ss,SSS>|<LogLevel>|<产生该日志的线程名字>|<log中的message>|<日志事件的发生位置> 2014-11-05 09:45:01,242 | INFO | main | Starting hive metastore on port 21088 | org.apache.hadoop.hive.metastore.HiveMetaStore.main(HiveMetaStore.java:5198)
审计日志 <yyyy-MM-dd HH:mm:ss,SSS>|<LogLevel>|<产生该日志的线程名字>|<User Name><User IP><Time><Operation><Resource><Result><Detail >|<日志事件的发生位置> 2018-12-24 12:16:25,319 | INFO | HiveServer2-Handler-Pool: Thread-185 | UserName=hive UserIP=10.153.2.204 Time=2018/12/24 12:16:25 Operation=CloseSession Result=SUCCESS Detail= | org.apache.hive.service.cli.thrift.ThriftCLIService.logAuditEvent(ThriftCLIService.java:434)
相关推荐
一张假钞14 小时前
Spark SQL读写Hive Table部署
hive·sql·spark
想做富婆15 小时前
Hive:窗口函数[ntile, first_value,row_number() ,rank(),dens_rank()]和自定义函数
数据仓库·hive·hadoop
好记性+烂笔头1 天前
4 Hadoop 面试真题
大数据·hadoop·面试
B站计算机毕业设计超人2 天前
计算机毕业设计Python+CNN卷积神经网络考研院校推荐系统 考研分数线预测 考研推荐系统 考研爬虫 考研大数据 Hadoop 大数据毕设 机器学习
hadoop·python·机器学习·spark·网络爬虫·课程设计·数据可视化
字节全栈_rJF2 天前
Hive 整合 Spark 全教程 (Hive on Spark)
hive·hadoop·spark
好记性+烂笔头2 天前
2 MapReduce
大数据·hadoop·mapreduce
字节全栈_ZKt2 天前
Hadoop集群中Hbase的介绍、安装、使用_root@master001 hadoop]# start-hbase
大数据·hadoop·hbase
一张假钞3 天前
Sqoop源码修改:增加落地HDFS文件数与MapTask数量一致性检查
java·hadoop·hdfs·sqoop
weixin_307779133 天前
设计转换Apache Hive的HQL语句为Snowflake SQL语句的Python程序方法
数据仓库·hive·python·sql
想做富婆3 天前
Hive:窗口函数(1)
数据仓库·hive·hadoop