hue可以插入数据到部署在docker上的cdh中的hive,但是datagrip连接的hive插入报错

42000\]\[30041\] Error while processing statement: FAILED: Execution Error, return code 30041 from org.apache.hadoop.hive.ql.exec.spark.SparkTask. Failed to create Spark client for Spark session a86472fe-cf0e-4a6a-ac69-214fe9c2cbb

  • datagrip连接时使用的用户名和密码都是hive(看配置文件)
  • 默认的引擎是spark,需要切换成mr,请在每个sql脚本前加上
sql 复制代码
SET hive.execution.engine=mr;

切换引擎后还是报错

08S01\]\[1\] Error while processing statement: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.mr.MapRedTask. Permission denied: user=hive, access=EXECUTE, inode="/tmp":root:supergroup:drwxrwx--- at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:506) at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkTraverse(FSPermissionChecker.java:422) at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:3 ...

原来是tmp文件权限问题,得去改权限

步骤 1: 进入 Namenode 容器

首先,找到 Namenode 容器的名称或 ID,并进入容器。

列出所有运行中的容器:

bash 复制代码
docker ps

确认容器名称(例如 namenode)或容器 ID。

进入 Namenode 容器:

bash 复制代码
docker exec -it namenode /bin/bash

如果 namenode 是你的容器名称,直接进入容器。

步骤 2: 检查 /tmp 的权限

进入容器后,查看 HDFS 根目录结构,确保 /tmp 存在,并检查其权限:

bash 复制代码
hdfs dfs -ls /

输出示例:

Found 2 items

drwxr-xr-x - hdfs supergroup 0 2024-12-03 12:00 /user

drwx------ - hdfs supergroup 0 2024-12-03 12:00 /tmp

如果权限不足(如 drwx------),需要进行修改。

步骤 3: 修改 /tmp 目录权限

设置 /tmp 目录为可读写:

bash 复制代码
hdfs dfs -chmod -R 1777 /tmp

1777 权限: 所有用户均可读写,并启用粘滞位(sticky bit),防止其他用户删除非自身文件。

步骤 4: 验证修改

再次检查 /tmp 目录的权限,确保更改生效:
hdfs dfs -ls /

输出示例:

Found 2 items

drwxr-xr-x - hdfs supergroup 0 2024-12-03 12:00 /user

drwxrwxrwt - hive hive 0 2024-12-03 12:05 /tmp

drwxrwxrwt: 表示权限已修改为 1777。

步骤 5: 退出容器

完成后,退出 Namenode 容器:

bash 复制代码
exit
相关推荐
天朝八阿哥3 小时前
使用Docker+vscode搭建离线的go开发调试环境
后端·docker·visual studio code
武子康5 小时前
大数据-240 离线数仓 - 广告业务 Hive ADS 实战:DataX 将 HDFS 分区表导出到 MySQL
大数据·后端·apache hive
阿虎儿1 天前
Docker安装(非sudo用户可用)
docker
字节跳动数据平台1 天前
5000 字技术向拆解 | 火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
甲鱼9291 天前
MySQL 实战手记:日志管理与主从复制搭建全指南
运维
武子康1 天前
大数据-239 离线数仓 - 广告业务实战:Flume 导入日志到 HDFS,并完成 Hive ODS/DWD 分层加载
大数据·后端·apache hive
字节跳动数据平台2 天前
代码量减少 70%、GPU 利用率达 95%:火山引擎多模态数据湖如何释放模思智能的算法生产力
大数据
得物技术2 天前
深入剖析Spark UI界面:参数与界面详解|得物技术
大数据·后端·spark
fetasty2 天前
rustfs加picgo图床搭建
docker
武子康2 天前
大数据-238 离线数仓 - 广告业务 Hive分析实战:ADS 点击率、购买率与 Top100 排名避坑
大数据·后端·apache hive