远程访问,通过JDBC连接到Beeline对Hive进行操作报错

bash 复制代码
[root@hadoop02 conf]# beeline -u jdbc:hive2://hadoop01:10000
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/opt/lbl/install/hive/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/opt/lbl/install/hadoop/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]
Connecting to jdbc:hive2://hadoop01:10000
24/11/02 11:04:09 [main]: WARN jdbc.HiveConnection: Failed to connect to hadoop01:10000
Error: Could not open client transport with JDBC Uri: jdbc:hive2://hadoop01-lbl:10000: Failed to open new session: java.lang.RuntimeException: org.apache.hadoop.security.AccessControlException: Permission denied: user=anonymous, access=EXECUTE, inode="/tmp":root:supergroup:drwxrwx---
        at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkTraverse(FSPermissionChecker.java:266)

问题原因:

  1. 连接失败:你尝试通过 JDBC 连接到 Hive,但由于权限问题,连接未成功。

  2. 权限被拒绝 :错误提示中指出,用户 anonymous 没有权限执行某些操作,特别是访问 /tmp 目录。根据错误信息,目录的权限是 drwxrwx---,这意味着只有拥有者(root)和所在组(supergroup)的用户可以访问。

解决方法:

  1. 检查用户权限

    • 确保你使用的用户具有足够的权限来访问 /tmp 目录。可以考虑使用一个具有正确权限的用户来进行连接。
  2. 更改目录权限

    • 如果可以,尝试调整 /tmp 目录的权限,以允许匿名用户或你正在使用的用户进行访问。例如,可以使用以下命令更改权限:

      bash 复制代码
      hdfs dfs -chmod 1777 /tmp
  3. 配置 Hive 和 Hadoop

    • 确保你的 Hive 和 Hadoop 配置文件中,hive.exec.scratchdir 设置为一个有权限的目录。
    • 检查 Hive 的安全配置,确保允许你使用的用户连接。
  4. 使用认证用户

    • 如果 Hive 启用了 Kerberos 认证,确保你使用的是正确的 Kerberos 用户,并且已经获得了有效的票据。
相关推荐
呆呆小金人4 小时前
SQL入门:正则表达式-高效文本匹配全攻略
大数据·数据库·数据仓库·sql·数据库开发·etl·etl工程师
想ai抽12 小时前
大数据计算引擎-从源码看Spark AQE对于倾斜的处理
大数据·数据仓库·spark
呆呆小金人16 小时前
SQL入门:别名使用完全指南
大数据·数据库·数据仓库·sql·数据库开发·etl·etl工程师
B站_计算机毕业设计之家1 天前
python股票交易数据管理系统 金融数据 分析可视化 Django框架 爬虫技术 大数据技术 Hadoop spark(源码)✅
大数据·hadoop·python·金融·spark·股票·推荐算法
想ai抽2 天前
Spark的shuffle类型与对比
大数据·数据仓库·spark
随心............2 天前
sqoop采集完成后导致hdfs数据与Oracle数据量不符的问题。怎么解决?
hive·hadoop·sqoop
派可数据BI可视化2 天前
商业智能BI 浅谈数据孤岛和数据分析的发展
大数据·数据库·数据仓库·信息可视化·数据挖掘·数据分析
随心............2 天前
yarn面试题
大数据·hive·spark
Aurora_eye3 天前
记录之Ubuntu22.4虚拟机及hadoop为分布式安装
大数据·hadoop·分布式