CSV文件数据导入hive

一、加载CSV文件数据到hive表步骤:

1、Hive上建表,通常会指定字段分隔符为逗号(row format delimited fields terminated by ',' )

2、导入CSV文件

二、实操

以csv 文件中出现字段中含有逗号的场景为例:{"2020": "1","2022": "8","2024": "25"}

1、建表

sql 复制代码
CREATE TABLE ads.mem_continue_order_y (
member_id               string   comment '会员号'
,trans_info              string   comment '消费订单-年汇总信息')
COMMENT '会员连续下单_年_推送表'
row format serde 'org.apache.hadoop.hive.serde2.OpenCSVSerde' -- 使用 OpenCSVSerde 作为数据序列化程序
with serdeproperties (
'separatorChar' = ',', -- 分隔符
'quoteChar' = '"', -- 引号包围符号
'escapeChar' = '\' -- 转义字符
)
tblproperties("skip.header.line.count"="1") -- 跳过文件首行(当csv存在文件头的情况)
;

如果不使用tblproperties("skip.header.line.count"="1"),也可用sed -i '1d' 文件名 删除文件首行

2、加载CSV文件数据:

此处的文件目录是linux本地文件目录,所以是LOCAL INPATH

sql 复制代码
LOAD DATA LOCAL INPATH '/home/bgyetl/etl/tmp/mem_continue_order_y.csv' overwrite INTO TABLE ads.mem_continue_order_y;
相关推荐
孤雪心殇2 分钟前
快速上手数仓基础知识
数据仓库·hive·spark
渣渣盟3 小时前
数据仓库 vs 数据湖 vs 湖仓一体:架构演进与选型
数据仓库·架构
隐于花海,等待花开8 小时前
39.ROUND / FLOOR / CEIL 函数深度解析
hive·hadoop
juniperhan8 小时前
Flink 系列第22篇:Flink SQL 参数配置与性能调优指南:从 Checkpoint 到聚合优化
大数据·数据仓库·分布式·sql·flink
juniperhan17 小时前
Flink 系列第21篇:Flink SQL 函数与 UDF 全解读:类型推导、开发要点与 Module 扩展
java·大数据·数据仓库·分布式·sql·flink
看海的四叔1 天前
【SQL】SQL-管好你的字符串
大数据·数据库·hive·sql·数据分析·字符串
坚持就完事了1 天前
YARN资源管理器
大数据·linux·hadoop·学习
渣渣盟1 天前
大数据技术栈全景图:从零到一的入门路线(深度实战版)
大数据·hadoop·python·flink·spark
地球资源数据云1 天前
1960年-2024年中国棉花产量数据集
大数据·数据结构·数据仓库·人工智能
WL_Aurora1 天前
Hadoop 通过 Web 界面上传文件到 HDFS 失败解决方案
hadoop·hdfs