CSV文件数据导入hive

一、加载CSV文件数据到hive表步骤:

1、Hive上建表,通常会指定字段分隔符为逗号(row format delimited fields terminated by ',' )

2、导入CSV文件

二、实操

以csv 文件中出现字段中含有逗号的场景为例:{"2020": "1","2022": "8","2024": "25"}

1、建表

sql 复制代码
CREATE TABLE ads.mem_continue_order_y (
member_id               string   comment '会员号'
,trans_info              string   comment '消费订单-年汇总信息')
COMMENT '会员连续下单_年_推送表'
row format serde 'org.apache.hadoop.hive.serde2.OpenCSVSerde' -- 使用 OpenCSVSerde 作为数据序列化程序
with serdeproperties (
'separatorChar' = ',', -- 分隔符
'quoteChar' = '"', -- 引号包围符号
'escapeChar' = '\' -- 转义字符
)
tblproperties("skip.header.line.count"="1") -- 跳过文件首行(当csv存在文件头的情况)
;

如果不使用tblproperties("skip.header.line.count"="1"),也可用sed -i '1d' 文件名 删除文件首行

2、加载CSV文件数据:

此处的文件目录是linux本地文件目录,所以是LOCAL INPATH

sql 复制代码
LOAD DATA LOCAL INPATH '/home/bgyetl/etl/tmp/mem_continue_order_y.csv' overwrite INTO TABLE ads.mem_continue_order_y;
相关推荐
程序员小羊!1 小时前
数据仓库&OLTP&OLAP&维度讲解
数据仓库
最初的↘那颗心2 小时前
Flink Stream API - 源码开发需求描述
java·大数据·hadoop·flink·实时计算
Lx3523 小时前
MapReduce作业调试技巧:从本地测试到集群运行
大数据·hadoop
BYSJMG3 小时前
计算机大数据毕业设计推荐:基于Spark的气候疾病传播可视化分析系统【Hadoop、python、spark】
大数据·hadoop·python·信息可视化·spark·django·课程设计
励志成为糕手4 小时前
大数据MapReduce架构:分布式计算的经典范式
大数据·hadoop·mapreduce·分布式计算·批处理
RestCloud7 小时前
ETLCloud中的数据转化规则是什么意思?怎么执行
数据库·数据仓库·etl
老刘聊集成7 小时前
数据一致性校验:ETL保证信息准确无误的关键步骤
数据仓库·etl
计算机毕设-小月哥10 小时前
大数据毕业设计选题推荐:基于Hadoop+Spark的城镇居民食品消费分析系统源码
大数据·hadoop·课程设计
Viking_bird17 小时前
centos 7.5 + Hadoop 3.2.4 集群搭建
linux·运维·服务器·hadoop·centos
喂完待续17 小时前
【Tech Arch】Spark为何成为大数据引擎之王
大数据·hadoop·python·数据分析·spark·apache·mapreduce