Flink 集成和使用 Hive Metastore

想在 Flink 中使用 Hive Metastore 其实只需要将 Flink Hive Connector 以及 Hive Metastore 有关的 Jar 包部署到 `${FLINK_HOME}/lib` 下即可,稍后我们会介绍一下具体做法。但是,如果是 AWS EMR,会有所不同,主要是 EMR 中的默写包是改写过的,特别是和 Hive Metastore 的交互要多留心,因为 EMR 上还有另外一套 Metatstore:Glue Data Catalog,所以,简单的复制开源的 Jar 包可能会有问题,最好做法还是从 EMR 集群上拷贝本地带 `amzn` 后缀的 Jar 包。

EMR 官方文档给出了具体脚本:https://docs.aws.amazon.com/emr/latest/ReleaseGuide/flink-configure.html,以下是以 EMR 6.15 ( Flink 1.17.1)版本为例修改后的脚本:

bash 复制代码
sudo -u flink cp /usr/lib/hive/lib/antlr-runtime-3.5.2.jar /usr/lib/flink/lib 
sudo -u flink cp /usr/lib/hive/lib/hive-exec-3.1.3*.jar /usr/lib/flink/lib 
sudo -u flink cp /usr/lib/hive/lib/libfb303-0.9.3.jar /usr/lib/flink/lib 
sudo -u flink cp /usr/lib/flink/opt/flink-connector-hive_2.12-1.17.1-amzn-1.jar /usr/lib/flink/lib

部署好 Jar 包,如果是 Session 模式,需要重新启动新的 Session。在 Flink 中使用 Hive Metastore 的方法是:在 Flink Sql Client 中执行:

sql 复制代码
CREATE CATALOG hive WITH (
  'type' = 'hive',
  'hive-conf-dir' = '/etc/hive/conf'
);

USE CATALOG hive;

CREATE TABLE IF NOT EXISTS your_table (
...
);

如果是开源 Flink,需要根据 [https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/table/hive/overview/#dependencies\](https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/table/hive/overview/#dependencies) 提供的依赖项 (以 Flink 1.17.1 版本为例):

xml 复制代码
<dependency>
  <groupId>org.apache.flink</groupId>
  <artifactId>flink-connector-hive_2.12</artifactId>
  <version>1.17.1</version>
</dependency>

<dependency>
  <groupId>org.apache.flink</groupId>
  <artifactId>flink-table-api-java-bridge_2.12</artifactId>
  <version>1.17.1</version>
</dependency>

<!-- Hive Dependency -->
<dependency>
    <groupId>org.apache.hive</groupId>
    <artifactId>hive-exec</artifactId>
    <version>3.1.3</version>
</dependency>

根据 《快速下载Jar包及其依赖Jar包的方法》 一文第2节介绍的方法制作出依赖包并部署于 ${FLINK_HOME}/lib 下即可。

参考:

https://nightlies.apache.org/flink/flink-docs-master/docs/connectors/table/hive/hive_catalog/

相关推荐
雪芽蓝域zzs4 小时前
JavaWeb开发(十五)实战-生鲜后台管理系统(二)注册、登录、记住密码
数据仓库·hive·hadoop
TDengine (老段)6 小时前
TDengine 做为 FLINK 数据源技术参考手册
大数据·数据库·flink·时序数据库·tdengine·涛思数据
想做富婆8 小时前
Hive: Hive的优缺点,使用方式,判断Hive是否启动(jps),元数据的存储,Hive和Hadoop的关系
数据仓库·hive·hadoop
村口蹲点的阿三9 小时前
spark sql中对array数组类型操作函数列表
大数据·数据库·hive·sql·spark·database
大鳥11 小时前
Apache Hive 聚合函数与 OVER 窗口函数:从基础到高级应用
hive·hadoop·apache
Leven1995271 天前
Flink(八):DataStream API (五) Join
大数据·flink
一條狗1 天前
20250120 Flink 的 缓冲区超时(Buffer Timeout)
flink
金州饿霸1 天前
Ncat: bind to :::7777: Address already in use报错问题解决
flink
青云交1 天前
大数据新视界 -- Hive 数据倾斜实战案例分析(2 - 16 - 6)
大数据·hive·数据分析·解决方案·数据倾斜·电商平台·实战案例·sql 优化
青云交1 天前
大数据新视界 -- Hive 多租户资源分配与隔离(2 - 16 - 16)
大数据·hive·资源隔离·多租户·资源分配·监控评估·资源隔离机制·监控指标体系