Hadoop proxy user

如何理解Proxy user(包括proxy、impersonation和常见的Proxy use case)
官方文档的一些configurations及相应解释

帮助理解的两个博客:
hadoop的用户代理机制
HDFS-- Hadoop中的ProxyUser

有了上面的前置知识,接下来,我们开始理解下面这段话:

Hive 的运行依赖于 Hadoop ( HDFS 、 MapReduce 、 YARN 都依赖),同时涉及到 HDFS 文件系统的访问

所以需要配置 Hadoop 的代理用户,即设置 hadoop 用户允许代理(模拟)其它用户

即需要配置如下内容在 Hadoop 的 core-site.xml 中,并分发到其它节点,且重启 HDFS 集群

python 复制代码
# hadoop.proxyuser.hadoop.hosts第2个hadoop可以替代成你信任的并想将其设置为proxy user的用户
<property>
    <name>hadoop.proxyuser.hadoop.hosts</name>
    <value>*</value>
</property>

<property>
    <name>hadoop.proxyuser.hadoop.groups</name>
    <value>*</value>
</property>

下面这几段话解决了我的困惑(即为什么明明是Hive存在与Hadoop的依赖和交互,照理说应该配置的HIve的Proxy,但是实际上配置的却是Hadoop):

Configuring a proxy user in Hadoop allows Hive to impersonate or act

on behalf of other users when accessing HDFS (Hadoop Distributed File

System). However, this doesn't mean that Hive itself inherently has

the capability to directly impersonate other users. Instead, Hive

leverages the proxy user settings configured in Hadoop to achieve this

functionality.

When a user submits a query or job to Hive, Hive interacts with Hadoop

components such as HDFS, MapReduce, or YARN on behalf of that user.

Hive uses the configured proxy user in Hadoop to authenticate and

execute actions on behalf of the user who submitted the query. This

ensures that the user's permissions and access controls are respected

when accessing data stored in HDFS or executing tasks on the Hadoop

cluster.

In summary, while Hive doesn't have its own built-in capability to

directly impersonate other users, it can utilize the proxy user

configuration in Hadoop to achieve user impersonation for accessing

HDFS or performing tasks within the Hadoop ecosystem.

简单说,就是当一个在上述配置文件中的user(针对上述配置文件来说,是任意user),试图利用Hive去和Hadoop产生交互时(例如对HDFS中的表进行查询),Hive就会利用proxy user(针对上述配置文件来说,是hadoop)来impersonate或act on behalf of 这个user来实现和Hadoop的交互,而无需作为这些用户进行身份验证。

proxy user'features

  • 值得信赖的;少;无需身份验证
  • 要去模拟或代表其他用户的
相关推荐
武子康15 小时前
大数据-242 离线数仓 - DataX 实战:MySQL 全量/增量导入 HDFS + Hive 分区(离线数仓 ODS
大数据·后端·apache hive
SelectDB2 天前
易车 × Apache Doris:构建湖仓一体新架构,加速 AI 业务融合实践
大数据·agent·mcp
武子康2 天前
大数据-241 离线数仓 - 实战:电商核心交易数据模型与 MySQL 源表设计(订单/商品/品类/店铺/支付)
大数据·后端·mysql
茶杯梦轩2 天前
从零起步学习RabbitMQ || 第三章:RabbitMQ的生产者、Broker、消费者如何保证消息不丢失(可靠性)详解
分布式·后端·面试
IvanCodes2 天前
一、消息队列理论基础与Kafka架构价值解析
大数据·后端·kafka
武子康3 天前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
回家路上绕了弯4 天前
深入解析Agent Subagent架构:原理、协同逻辑与实战落地指南
分布式·后端
字节跳动数据平台4 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
武子康4 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台5 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据