hive多分隔符外表支持

在hive 外表关联文本的时候 有时会遇到不是一个长度的分割符比如"~@" 这种。这个时候使用shell命令多处理一步处理成单分隔符也可以,但是会有出错的风险。我们可以通过hive中指定的序列类来完成多分隔符的识别。

复制代码
CREATE EXTERNAL TABLE text_mid1(
id STRING ,name STRING 
)
ROW FORMAT SERDE 
  'org.apache.hadoop.hive.contrib.serde2.MultiDelimitSerDe' 
WITH SERDEPROPERTIES('input.delimited'='~@' )      -- 指定分隔符s
LOCATION '/tmp/multidelimit_txt'
;

需要在 SERDE中指定 'org.apache.hadoop.hive.contrib.serde2.MultiDelimitSerDe 类

然后在WITH SERDEPROPERTIES 指定'input.delimited'='@'

相关推荐
IvanCodes3 小时前
六、Hive 分桶
大数据·hive
IvanCodes3 小时前
七、深入 Hive DDL:管理表、分区与洞察元数据
数据仓库·hive·hadoop
七七-d3 小时前
配置Hadoop集群-上传文件
大数据·hadoop·eclipse
若兰幽竹3 小时前
【HBase整合Hive】HBase-1.4.8整合Hive-2.3.3过程
数据库·hive·hbase
lix的小鱼5 小时前
安装Hadoop并运行WordCount程序
大数据·linux·hadoop
RestCloud5 小时前
ETL 数据集成平台与数据仓库的关系及 ETL 工具推荐
数据仓库·etl·cdc·数据集成平台
Freedom℡8 小时前
使用scp命令拷贝hadoop100中文件到其他虚拟机中
数据库·hadoop·spark
依年南台8 小时前
Hadoop的目录结构和组成
大数据·hadoop·分布式
依年南台11 小时前
安装Hadoop并运行WordCount程序
大数据·hadoop
依年南台13 小时前
Spark处理过程-案例数据清洗
大数据·hadoop