Ambari Hive 创建函数无权限

作者:櫰木

1、创建udf函数

参考文档:https://blog.csdn.net/helloxiaozhe/article/details/102498567

如果已经编写好,请使用自己的。如果没有请参考以上链接进行udf函数编写。

2、创建函数遇到的问题

由于集群开启了kerberos,但是没有开启ranger,导致用户没有权限创建函数。出现以下问题:

3、解决方案

修改或添加以下配置

hdp配置文件目录:/usr/hdp/current/hive-server2/conf/hiveserver2-site.xml

<property>
  <name>hive.security.authenticator.manager</name>
  <value>org.apache.hadoop.hive.ql.security.SessionStateUserAuthenticator</value>
</property>

<property>
  <name>hive.security.authorization.enabled</name>
  <value>true</value>
</property>

<property>
  <name>hive.security.authorization.manager</name>
  <value>org.apache.hadoop.hive.ql.security.authorization.plugin.fallback.FallbackHiveAuthorizerFactory</value>
</property>

hdp配置文件目录:/usr/hdp/current/hive-server2/conf/hive-site.xml

<property>
  <name>hive.users.in.admin.role</name>
  <value>hive</value>
</property>
<property>
  <name>hive.security.authorization.createtable.owner.grants</name>
  <value>ALL</value>
</property>
<property>
  <name>hive.security.authorization.task.factory</name>
  <value>org.apache.hadoop.hive.ql.parse.authorization.HiveAuthorizationTaskFactoryImpl</value>
</property>

4、验证

由于配置文件中写的是hive用户为admin。

使用kinit 认证hive keytab。拥有所有权限。

kinit hive/hdp01@HADOOP.COM -kt /etc/security/keytabs/hive.service.keytab

CREATE FUNCTION manghello AS 'org.dtstack.HelloUDF' USING JAR 'hdfs://ha/tmp/udf/helloudf-1.0-SNAPSHOT.jar';

使用udf函数

select manghello('zhang','sancc');

使用nn用户认证。进行创建函数就会报错

kinit -kt nn.service.keytab nn/hdp01@HADOOP.COM

更多技术信息请查看云掣官网https://yunche.pro/?t=yrgw

相关推荐
mizuhokaga9 小时前
Hive parquet表通过csv文件导入数据
数据仓库·hive·hadoop
全栈弟弟9 小时前
高级大数据开发协会
大数据·数据仓库·hadoop·flink·spark
lzhlizihang11 小时前
Hadoop的一些高频面试题 --- hdfs、mapreduce以及yarn的面试题
大数据·hadoop·hdfs·mapreduce·面试题·yarn
楠奕11 小时前
linux hadoop-3.3.6 hbase-2.5.7
linux·hadoop·hbase
学习3人组11 小时前
Hadoop分布式集群配置
大数据·hadoop·分布式
赵渝强老师14 小时前
【赵渝强老师】基于ZooKeeper实现Hadoop HA
大数据·hadoop·分布式·zookeeper
小王是个弟弟1 天前
HQL-计算不一样的 MUV
数据库·hive·sql
我的K84091 天前
解决Hive乱码问题
数据仓库·hive·hadoop
盼兮*1 天前
Centos7环境下Hive的安装
大数据·数据仓库·hive·hadoop