Atlas Hook 导入 Hive 元数据

Atlas 部署之后就可以导入 Hive 元数据,这部分工作由 Atlas 组件 Hook 来完成。初次导入 Hive 元数据需要通过执行 shell 脚本来完成,然后,Atlas 就可以自动同步增量元数据信息了。下面我介绍一下如何完成这些工作。

初次导入 Hive 元数据

看了很多教程,按图索翼进行操作时,遇到了各种错误,还好,最后我成功了,成功的感觉真的很棒。

第一步:修改 hive-site.xml

首先,在 hive-site.xml 文件中添加如下配置:

复制代码
<property>
    <name>hive.exec.post.hooks</name>
    <value>org.apache.atlas.hive.hook.HiveHook</value>
</property>

hive-site.xml 文件路径为 $HIVE_HOME/conf

第二步:解压 apache-atlas-2.2.0-hive-hook.tar.gz

解压 apache-atlas-2.2.0-hive-hook.tar.gz,并复制到 Atlas 主目录

复制代码
cd /opt/module/apache-atlas-sources-2.2.0/distro/target
tar -zxvf apache-atlas-2.2.0-hive-hook.tar.gz
cp -r apache-atlas-hive-hook-2.2.0/* /opt/module/apache-atlas-2.2.0

第三步:修改 hive-env.sh

修改 hive-env.sh 文件,添加如下命令:

export HIVE_AUX_JARS_PATH=$ATLAS_HOME/hook/hive

修改之后需要重启 Hive。不过,我重启之后依然没有效果,没有找到原因,我直接将 $ATLAS_HOME/hook/hive 目录下文件全部移动至 $HIVE_HOME/lib/auxlib 目录下(需要先创建该目录)

复制代码
mkdir /opt/module/hive/lib/auxlib
cp -r /opt/module/apache-atlas-2.2.0/hook/hive/* /opt/module/hive/lib/auxlib

总之,如果你发现执行 $ATLAS_HOME/hook-bin/import-hive.sh 时报错找不到类,而该类所属的 jar 包在其他目录(比如 hadoop),你可以先尝试修改 hive-env.sh 文件的 HIVE_AUX_JARS_PATH 配置,多个路径以英文逗号分隔,如果还是不行,那么你可以直接将该 jar 包复制到 $HIVE_HOME/lib/auxlib 一份,如果连续发现 hadoo 相关 jar 包报错,可以将 $HADOOP_HOME/share/hadoop 目录下的 jar 包复制到 /opt/module/hive/lib/auxlib

第四步:搞定几个关键 jar 包

没有如下几个 jar 包,你大概率很遇到报错

jackson-module-jaxb-annotations-2.10.5.jar

jackson-jaxrs-base-2.10.5.jar

jackson-jaxrs-json-provider-2.10.5.jar

hadoop-hdfs-client-3.1.3.jar

前三个 jar 在 ATLAS_HOME/server/webapp/atlas/WEB-INF/lib/ 目录下可以找到,复制到 $HIVE_HOME/lib/auxlib 目录一份,hadoop-hdfs-client-3.1.3.jar 需要自己下载,上传至目录 $HIVE_HOME/lib/auxlib 即可。

到这里,准备工作就做完了,依次启动 hadoop、zookeeper、hbase、hive、atlas 之后,即可执行 import-hive.sh 脚本,尝试导入 Hive 元数据,如果还有报错,对症分析或者联系我。

自动同步增量元数据

Atlas Hook 可以实现自动同步增量元数据,只需要你启动 Kafka 集群即可。

Atlas 2.2.0 版本支持自动捕获如下几种 Hive 元数据变更操作:

  • create database
  • create table/view, create table as select
  • load, import, export
  • DMLs (insert)
  • alter database
  • alter table (skewed table information, stored as, protection is not supported)
  • alter view

如上就是今天分享的内容,希望能帮助到你。

相关推荐
武子康2 天前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
武子康3 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP4 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库4 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全
AI周红伟4 天前
周红伟:智能体全栈构建实操:OpenClaw部署+Agent Skills+Seedance+RAG从入门到实战
大数据·人工智能·大模型·智能体
B站计算机毕业设计超人4 天前
计算机毕业设计Django+Vue.js高考推荐系统 高考可视化 大数据毕业设计(源码+LW文档+PPT+详细讲解)
大数据·vue.js·hadoop·django·毕业设计·课程设计·推荐算法
计算机程序猿学长4 天前
大数据毕业设计-基于django的音乐网站数据分析管理系统的设计与实现(源码+LW+部署文档+全bao+远程调试+代码讲解等)
大数据·django·课程设计
B站计算机毕业设计超人4 天前
计算机毕业设计Django+Vue.js音乐推荐系统 音乐可视化 大数据毕业设计 (源码+文档+PPT+讲解)
大数据·vue.js·hadoop·python·spark·django·课程设计
十月南城4 天前
数据湖技术对比——Iceberg、Hudi、Delta的表格格式与维护策略
大数据·数据库·数据仓库·hive·hadoop·spark
中烟创新4 天前
灯塔AI智能体获评“2025-2026中国数智科技年度十大创新力产品”
大数据·人工智能·科技