HDFS的超级用户

一. 解释原因

HDFS(Hadoop Distributed File System)和linux文件系统管理一样,也是存在权限控制的。

但是很不一样的是,

  • 在Linux文件系统中,超级用户Superuser是root
  • 而在HDFS中,超级用户Superuser是启动了namenode的用户,上图的node1(其实就是IP地址:192.168.88.101)中的用户hadoop就是启动了namenode的用户,所以用户hadoop为HDFS的超级用户

所以就可以解释了:root用户确实是Linux文件系统的超级用户,权限很大,但是到了HDFS中,也只是个普通用户罢了,所以权限会处处受限。所以想要获得HDFS的最高权限,就必须su - hadoop,切换成hadoop用户。

二. 解决方法

在HDFS中,使用和Linux一样的chownchomod的授权语句,给root用户授权即可。

  • 修改 文件/目录 所属的用户的和组,两句新旧版本的命令效果一样,-R表示递归授权目录下的全部子目录或者文件

  • Usage: hdfs dfs -chown [-R] [OWNER][:[GROUP]] URI [URI ]

    hadoop fs -chown [-R] root:root /xxx.txt
    hdfs fs -chown [-R] root:root /xxx.txt

  • 修改 文件/目录 的权限

  • Usage: hdfs dfs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI ...]

    hadoop fs -chmod [-R] 777 /xxx.txt
    hdfs fs -chmod[-R] 777 /xxx.txt

相关推荐
金融小师妹27 分钟前
AI视角下黄金避风港属性的量化验证:基于2000-2025年历史数据的时序分析
大数据·人工智能·深度学习·1024程序员节
一笑code30 分钟前
git常用命令
大数据·git·elasticsearch
8K超高清1 小时前
超高清科技引爆中国电影向“新”力
大数据·运维·服务器·网络·人工智能·科技
弘毅 失败的 mian1 小时前
Git 基本操作
大数据·经验分享·笔记·git·elasticsearch
路边草随风1 小时前
flink实现写orc对数据进行分目录(分区表)写入
java·大数据·flink
Jerry.张蒙1 小时前
SAP传输请求流程:从开发到生产的安全流转
大数据·网络·人工智能·学习·职场和发展·区块链·运维开发
risc1234562 小时前
【Elasticsearch】迁出节点”≠“恢复源节点
大数据·elasticsearch·搜索引擎
乐迪信息2 小时前
乐迪信息:皮带区域安全值守:AI摄像机杜绝煤矿人员闯入
大数据·运维·人工智能·安全·计算机视觉
渣渣盟2 小时前
Flink数据流高效写入HBase实战
大数据·flink·scala·apache·hbase
路边草随风2 小时前
flink实现变更算子checkpoint断点续传依然生效
大数据·人工智能·flink