【Hive 运维】JDBC使用Hive UDF:Hive UDF打通hiveserver2

文章目录

  • [一. 问题描述与方案分析](#一. 问题描述与方案分析)
    • [1. 问题描述](#1. 问题描述)
    • [2. 方案分析](#2. 方案分析)
    • [3. 方案优化](#3. 方案优化)
      • [3.1. 通过文件系统,来保证jar包的节点一致性](#3.1. 通过文件系统,来保证jar包的节点一致性)
      • [3.2. hiveserver2 session的更新优化](#3.2. hiveserver2 session的更新优化)
  • [二. 实现与操作](#二. 实现与操作)

一. 问题描述与方案分析

1. 问题描述

用户需要创建永久的Hive UDF供JDBC连接使用,一开始先通过hive client的方式注册(输入hive,进入hive交互界面)发现,udf存在,但是通过jdbc连接的时候无法找到此函数。

如下相关操作:

sql 复制代码
-- 1. 上传包到文件系统中
hadoop fs -put /home/hadoop/lib/hive-1.0-SNAPSHOT.jar /lib/
 
-- 创建永久函数
-- a.进入hive终端
hive
-- b. 注册hive永久函数
-- 注意:函数是绑定到某个库下的,此时是绑定到default库下。
CREATE FUNCTION sayhello AS 'com.gao.bigdata.HelloUDF' USING JAR 'hdfs://hadoop002:9000/lib/hive-1.0-SNAPSHOT.jar';
 
 
-- 查看函数列表 
show functions like '*sayhello*';

2. 方案分析

通过重启hiveserver2之后通过jdbc连接找到了此函数。

相关参考见:[cloudera] Error executing a hive UDF through jbdc

从上截图可以知道有两个要点

  1. 要将所有的jar都放到各个节点的hiveserver2下
  2. 重启所有的hiveserver

通过操作之后发现方案可行

3. 方案优化

上面的解决方案虽然可行,但运维成本较高,现进行优化。

3.1. 通过文件系统,来保证jar包的节点一致性

首先将所有的jar都放到各个hiveserver2节点下的原因是add jar使用了本地路径,导致每个jdbc连接hiveserver2的时候都是从本地找jar。我们可以把jar放到hdfs上,这样add jar每个hiveserver2都能够从远端拉去jar,这就是文件的状态一致性。

3.2. hiveserver2 session的更新优化

其次要重启所有的hiveserver2,这也造成一定的运维问题,甚至会影响正在运行任务的jdbc连接。

先看下hive架构图:

  • 如果我们通过hive终端添加UDF函数,那Hiveserver2中的session就不会同步到,需要你重启才能加载最新的Hive session。

  • 如上架构图我们通过beeline或者jdbc的方式注册,添加的UDF函数就直接会存在于HiveServer2中,这样就不用重启。

  • 但另外需要注意的是,JDBC连接不同的Hiveserver2(这里我们称之为H2)时,因为只在H1上注册了UDF,所以H2需要重启,或需要再通过JDBC连接测试一遍。

到这里我们就得到了较为简化后的执行方案,具体操作见下节。

二. 实现与操作

通过beeline方式登录hive

sql 复制代码
beeline -u jdbc:hive2://hiveserver2-hostname:10000 -n user -p password

udf绑定到某个库下

sql 复制代码
use databaseA

添加udf

sql 复制代码
ADD JAR hdfs:///xxx/hive-demo-1.0-SNAPSHOT.jar;
CREATE FUNCTION to_upper_xxx AS 'com.gao.udf.UpperCaseUDF' USING JAR 'hdfs:///xxx/hive-demo-1.0-SNAPSHOT.jar';

测试:

上述创建的udf是绑定到databaseA库下。

相关推荐
itachi-uchiha13 分钟前
使用vsftpd搭建FTP服务器(TLS/SSL显式加密)
运维·服务器·ssl
qq_4084133918 分钟前
spark 执行 hive sql数据丢失
hive·sql·spark
罗技12324 分钟前
我用Amazon Q写了一个Docker客户端,并上架了懒猫微服商店
运维·docker·容器
成工小白26 分钟前
【Linux】文件操作
linux·运维·服务器
itachi-uchiha1 小时前
关于dropbear ssh服务
运维·ssh
家庭云计算专家1 小时前
ONLYOFFICE协作空间3.1.1 企业版 介绍及部署说明:家庭云计算专家
运维·服务器·云计算·onlyoffice·协作空间
Ares-Wang1 小时前
负载均衡LB》》HAproxy
运维·数据库·负载均衡
wanhengidc2 小时前
高防服务器能够抵御哪些网络攻击呢?
运维·服务器
TDengine (老段)3 小时前
TDengine 替换 Hadoop,彻底解决数据丢失问题 !
大数据·数据库·hadoop·物联网·时序数据库·tdengine·涛思数据
凯勒姆4 小时前
6.linux文本内容显示cat,more,less
linux·运维·服务器