HIVE beeline连接报错Operation category READ is not supported in state standby

问题:hive连接报错Operation category READ is not supported in state standby

这个可能是因为hive配置的hdfs连接地址指定的是具体的namenode地址,但是hadoop集群配置的是HA,所以会发生主备切换,那么我们hive元数据配置就需要使用NameNode的逻辑名称而不是具体的主机名

解决方案

Hive的元数据存储在MySQL数据库中,可以直接使用SQL命令来更新LOCATION字段

bash 复制代码
UPDATE DBS SET DB_LOCATION_URI = REPLACE(DB_LOCATION_URI, 'oldpath', 'newpath');
UPDATE SDS SET LOCATION = REPLACE(LOCATION, 'oldpath', 'newpath');
相关推荐
D愿你归来仍是少年6 小时前
使用 PySpark 批量清理 Hive 表历史分区
大数据·数据仓库·hive·spark
End9287 小时前
Hadoop的三大结构及其作用?
大数据·hadoop·分布式
chat2tomorrow9 小时前
数据仓库 vs 数据湖:架构、应用场景与技术差异全解析
大数据·数据仓库·低代码·架构·数据湖·sql2api
461K.10 小时前
spark与hadoop的区别
大数据·运维·hadoop·分布式·spark·intellij-idea
懒惰的橘猫14 小时前
配置HADOOP_HOME环境变量和maven_HOME环境变量
大数据·hadoop·maven
YPrefY14 小时前
HADOOP 3.4.1安装和搭建(尚硅谷版~)
大数据·linux·hadoop
不剪发的Tony老师14 小时前
StarRocks:一款开源的高性能分析型数据仓库
starrocks·数据仓库
大肚晓东17 小时前
DBeaver连接hive
hive
StarRocks_labs21 小时前
StarRocks Community Monthly Newsletter (Mar)
starrocks·数据仓库·数据分析·olap·湖仓一体
IT成长日记1 天前
【HDFS】HDFS数据迁移与备份全攻略:从日常备份到灾难恢复
大数据·hadoop·hdfs·数据迁移与备份