CSV文件数据导入hive

一、加载CSV文件数据到hive表步骤:

1、Hive上建表,通常会指定字段分隔符为逗号(row format delimited fields terminated by ',' )

2、导入CSV文件

二、实操

以csv 文件中出现字段中含有逗号的场景为例:{"2020": "1","2022": "8","2024": "25"}

1、建表

sql 复制代码
CREATE TABLE ads.mem_continue_order_y (
member_id               string   comment '会员号'
,trans_info              string   comment '消费订单-年汇总信息')
COMMENT '会员连续下单_年_推送表'
row format serde 'org.apache.hadoop.hive.serde2.OpenCSVSerde' -- 使用 OpenCSVSerde 作为数据序列化程序
with serdeproperties (
'separatorChar' = ',', -- 分隔符
'quoteChar' = '"', -- 引号包围符号
'escapeChar' = '\' -- 转义字符
)
tblproperties("skip.header.line.count"="1") -- 跳过文件首行(当csv存在文件头的情况)
;

如果不使用tblproperties("skip.header.line.count"="1"),也可用sed -i '1d' 文件名 删除文件首行

2、加载CSV文件数据:

此处的文件目录是linux本地文件目录,所以是LOCAL INPATH

sql 复制代码
LOAD DATA LOCAL INPATH '/home/bgyetl/etl/tmp/mem_continue_order_y.csv' overwrite INTO TABLE ads.mem_continue_order_y;
相关推荐
莫叫石榴姐6 小时前
数据开发需求工时如何评估?
大数据·数据仓库·人工智能·数据分析·产品运营
xutSwIpZotzM9 小时前
量产HX711电子秤采集模块全套资料,包含原理图、PCB文件、BOM以及源码HEX,支持串口波...
hadoop
小邓睡不饱耶14 小时前
Hadoop 3.x实战:基于HDFS+Spark+Flink的实时用户行为分析平台(含Kerberos安全配置+冷热数据分层)
hadoop·hdfs·spark
xiaomici1 天前
SAC - Addin
数据仓库
edisao1 天前
第三章 合规的自愿
jvm·数据仓库·python·神经网络·决策树·编辑器·动态规划
Aloudata1 天前
NoETL 指标平台与现有数据中台、治理体系的融合之道
数据仓库·数据分析·自动化·etl·noetl
Francek Chen2 天前
【大数据存储与管理】分布式文件系统HDFS:01 分布式文件系统
大数据·hadoop·分布式·hdfs·架构
2501_927283582 天前
你的仓库,还停留在“人找货”的时代吗?
运维·数据仓库·人工智能·自动化·wms
莽撞的大地瓜2 天前
新浪舆情通秒级预警筑牢舆情应急第一防线
大数据·数据库·数据仓库·数据分析