hive的使用(本地数据上传到idea)

1.首先第一步是先启动hive,hive的启动指令如下

nohup hiveserver2 &

2.然后我们进入idea中

这里我们使用的是idea里的Apache Hive的插件,进行配置,等我们跟moba连接好后,就可以进行数据的导入了。

hive的sql和mysql里的sql语法类似,下面的代码

ROW FORMAT DELIMITED FIELDS TERMINATED BY ",";

复制代码
代表的是传入的文件,也就是在moba里的内容,使用“,”分隔开的,来进行处理。

之后我们可以使用下面的语句进行数据的传入了

复制代码
load data local inpath "/datl/warehouse/course/" into table course;

local代表的是本地路径,如果不是本地路径,比如说是Hadoop的路径,那么我们就要把它去掉了,后面双引号中就是本地路径了,运行可以将数据传入到我们建立的表中了。

相关推荐
曹牧20 分钟前
Java Web 开发:servlet-mapping‌
java·数据仓库·hive·hadoop
juniperhan22 分钟前
Flink 系列第20篇:Flink SQL 语法全解:从 DDL 到 DML,窗口、聚合、列转行一网打尽
大数据·数据仓库·分布式·sql·flink
菜鸟小码1 天前
HDFS 数据块(Block)机制深度解析:从原理到实战
大数据·hadoop·hdfs
早睡早起早日毕业1 天前
大数据管理与应用系列丛书《大数据平台架构》之第4章 Hadoop 分布式文件系统 (HDFS)
大数据·hadoop·架构
哥本哈士奇1 天前
数据仓库笔记 第五篇:Data Mart 层(数据集市)
数据仓库
juniperhan1 天前
Flink 系列第18篇:Flink 动态表、连续查询与 Changelog 机制
java·大数据·数据仓库·分布式·flink
juniperhan1 天前
Flink 系列第19篇:深入理解 Flink SQL 的时间语义与时区处理:从原理到实战
java·大数据·数据仓库·分布式·sql·flink
早睡早起早日毕业1 天前
大数据管理与应用系列丛书《大数据平台架构》之第2章 分布式理论基础:大数据系统的架构基石
大数据·hadoop·分布式·架构
菜鸟小码1 天前
HDFS 常用命令大全:从入门到生产实战
大数据·hadoop·hdfs
哥本哈士奇2 天前
数据仓库笔记 第三篇:常用缓慢变化维处理方式介绍
数据仓库