HIVE beeline连接报错Operation category READ is not supported in state standby

问题:hive连接报错Operation category READ is not supported in state standby

这个可能是因为hive配置的hdfs连接地址指定的是具体的namenode地址,但是hadoop集群配置的是HA,所以会发生主备切换,那么我们hive元数据配置就需要使用NameNode的逻辑名称而不是具体的主机名

解决方案

Hive的元数据存储在MySQL数据库中,可以直接使用SQL命令来更新LOCATION字段

bash 复制代码
UPDATE DBS SET DB_LOCATION_URI = REPLACE(DB_LOCATION_URI, 'oldpath', 'newpath');
UPDATE SDS SET LOCATION = REPLACE(LOCATION, 'oldpath', 'newpath');
相关推荐
神奇侠20245 小时前
Hive SQL常见操作
hive·hadoop·sql
SelectDB技术团队9 小时前
从 ClickHouse、Druid、Kylin 到 Doris:网易云音乐 PB 级实时分析平台降本增效
大数据·数据仓库·clickhouse·kylin·实时分析
itachi-uchiha11 小时前
Docker部署Hive大数据组件
大数据·hive·docker
viperrrrrrrrrr712 小时前
大数据学习(131)-Hive数据分析函数总结
大数据·hive·学习
Leo.yuan15 小时前
API是什么意思?如何实现开放API?
大数据·运维·数据仓库·人工智能·信息可视化
qq_4084133915 小时前
spark 执行 hive sql数据丢失
hive·sql·spark
TDengine (老段)19 小时前
TDengine 替换 Hadoop,彻底解决数据丢失问题 !
大数据·数据库·hadoop·物联网·时序数据库·tdengine·涛思数据
workflower21 小时前
量子比特实现方式
数据仓库·服务发现·需求分析·量子计算·软件需求
yt948321 天前
如何在IDE中通过Spark操作Hive
ide·hive·spark
青春之我_XP1 天前
【基于阿里云搭建数据仓库(离线)】Data Studio创建资源与函数
大数据·数据仓库·sql·dataworks·maxcompute·data studio