hive表修改字段类型没有级连导致历史分区报错

一:问题背景

修改hive的分区表时有级连概念,指字段的最新状态,默认只对往后的分区数据生效,而之前的分区保留历史元数据状态。好处就是修改语句的效率很快,坏处就是如果历史分区的数据还有用,那就回发生分区元数据和表元数据的不一致报错

最终导致:presto或hive任务抽取历史分区会报如下的错误

bash 复制代码
There is a mismatch between the table and partition schemas. 
The types are incompatible and cannot be coerced. The column 'xxxx' 
in table 'xxxx' is declared as type 'string', 
but partition 'xxxx' declared column 'xxxxx' as type 'double'.

二:想要避免这样的问题,那元数据正确的改动方法,应该是使用hive的客户端,运行修改语句时,带上级连关键字CASCADE,如新增一个字段

bash 复制代码
alter table table_name add columns (column_1 string,column_2 string) CASCADE

而此时你已经发生没有级连问题时,只能用hive客户端把历史分区整个用alter的方式删掉,重新生成

三:特殊情况

1、如果你改的是一个全量表,此时没有级联的概念,你的修改最多的会导致数据改动时引擎发现已有数据类型和你要改的类型不一样,说白了就是无论做任何修改都要保证元数据的一致性

2、hive在改动字段元数据时一般不做前置检查,只会在你后期使用时报相应的错误,但是随着版本不同,后有前置检查的情况

3、上面这个问题如果你不想重新跑数据,那么情况允许可以使用spark引擎跑任务,因为spark没有级连的概念,始终和表元数据看齐,但是hive或者presto这些引擎有,遇到这样的情况就会报错

相关推荐
API_technology3 小时前
api开发及运用小红书笔记详情api如何获取笔记详情信息
大数据·开发语言·数据库·数据仓库·笔记·爬虫
PersistJiao8 小时前
数据仓库的复用性:设计和构建一个高复用性的数仓
大数据·数据仓库·spark
lisacumt11 小时前
【odbc】odbc连接kerberos认证的 hive和spark thriftserver
hive·hadoop·spark
小盼江17 小时前
Hadoop图书数据分析系统 大屏数据展示 智能图书推荐系统(协同过滤余弦函数) 代码 数据库 全套开发工具
大数据·数据库·hadoop
中东大鹅17 小时前
构建基于Hadoop的数据湖解决方案
大数据·hadoop·分布式
我要用代码向我喜欢的女孩表白20 小时前
hive迁移后修复分区慢,怎么办?
数据仓库·hive·hadoop
二进制_博客1 天前
Hive中没有超级管理员,如何进行权限控制
数据仓库·hive·hadoop
王有品1 天前
Hive集群的安装准备
hive·hadoop·硬件架构
中东大鹅1 天前
分布式数据存储基础与HDFS操作实践(副本)
hadoop·分布式·hdfs