CSV文件数据导入hive

一、加载CSV文件数据到hive表步骤:

1、Hive上建表,通常会指定字段分隔符为逗号(row format delimited fields terminated by ',' )

2、导入CSV文件

二、实操

以csv 文件中出现字段中含有逗号的场景为例:{"2020": "1","2022": "8","2024": "25"}

1、建表

sql 复制代码
CREATE TABLE ads.mem_continue_order_y (
member_id               string   comment '会员号'
,trans_info              string   comment '消费订单-年汇总信息')
COMMENT '会员连续下单_年_推送表'
row format serde 'org.apache.hadoop.hive.serde2.OpenCSVSerde' -- 使用 OpenCSVSerde 作为数据序列化程序
with serdeproperties (
'separatorChar' = ',', -- 分隔符
'quoteChar' = '"', -- 引号包围符号
'escapeChar' = '\' -- 转义字符
)
tblproperties("skip.header.line.count"="1") -- 跳过文件首行(当csv存在文件头的情况)
;

如果不使用tblproperties("skip.header.line.count"="1"),也可用sed -i '1d' 文件名 删除文件首行

2、加载CSV文件数据:

此处的文件目录是linux本地文件目录,所以是LOCAL INPATH

sql 复制代码
LOAD DATA LOCAL INPATH '/home/bgyetl/etl/tmp/mem_continue_order_y.csv' overwrite INTO TABLE ads.mem_continue_order_y;
相关推荐
摩尔元数4 小时前
出入库管理智能升级,工厂管理更高效、透明
大数据·数据仓库·人工智能·制造
龙石数据6 小时前
【第三部分 实施篇】第7章 数据仓库及数据模型管理
数据仓库·数据管理·数据中台·数据模型·数据治理实战指南
且去填词15 小时前
DeepSeek :基于 Schema 推理与自愈机制的智能 ETL
数据仓库·人工智能·python·语言模型·etl·schema·deepseek
yumgpkpm1 天前
Cloudera CDH、CDP、Hadoop大数据+决策模型及其案例
大数据·hive·hadoop·分布式·spark·kafka·cloudera
小湘西1 天前
数仓分层架构详解2:ODS、DWD、DWS
大数据·数据库·数据仓库
小湘西1 天前
数仓分层架构详解:ODS、DWD、DWS
数据仓库·数据分析
鲨莎分不晴1 天前
大数据的“数字金库”:HDFS 核心原理与操作指令全解
大数据·hadoop·hdfs
鲨莎分不晴1 天前
给 Hadoop 插上 SQL 的翅膀:Apache Hive 架构与实战全解
hadoop·sql·apache
德彪稳坐倒骑驴1 天前
Hive电商数据分析项目 过程记录
hive·hadoop·数据分析
红队it1 天前
【Spark+Hadoop】基于spark+hadoop游戏评论数据分析可视化大屏(完整系统源码+数据库+开发笔记+详细部署教程+虚拟机分布式启动教程)✅
大数据·hadoop·分布式·算法·游戏·数据分析·spark