2023.11.14-hive之表操作练习和文件导入练习

目录

需求1.数据库基本操作

[需求2. 默认分隔符案例](#需求2. 默认分隔符案例)


需求1.数据库基本操作

-- 1.创建数据库test_sql,cs1,cs2,cs3

sql 复制代码
create database test_sql;
create database cs1;
create database cs2;
create database cs3;

-- 2.1删除数据库cs2

sql 复制代码
drop database cs2;

-- 2.2在cs3库中创建一个stu表,有id,name两个字段,然后删除cs3

sql 复制代码
use cs3;
create table stu(
    id int,
    name string);
drop database cs3 cascade ; --有表的库要加cascade

-- 3.切换数据库cs1

sql 复制代码
use cs1;

-- 4.1查询所有数据库

sql 复制代码
show databases ;

-- 4.2查看当前使用的数据库 select current_database

sql 复制代码
select current_database();

-- 4.3查看cs1数据库信息 desc database 表名

sql 复制代码
desc database cs1;

需求2. 默认分隔符案例

文件team_ace_player.txt中记录了手游《王者荣耀》主要战队内最受欢迎的王牌选手信息,内容如下,分隔符是hive的默认分隔符,要求在Hive中建表,把对应的数据存储到hdfs中

1成都AG超玩会一诺 2重庆QGhappyHurt 3DYG久诚 4上海EDG.M浪浪 5武汉eStarProCat 6RNG.M暴风锐 7RW侠渡劫 8TES滔搏迷神 9杭州LGD大鹅伪装 10南京Hero久竞清融

字段:id、team_name(战队名称)、ace_player_name(王牌选手名字)

分析一下:数据都是原生数据类型,且字段之间分隔符是\001,因此在建表的时候可以省去row format语句,因为hive默认的分隔符就是\001

提示: 可以直接使用insert方式插入数据,也可以提前建文件把对应的文件上传到hdfs中

1.创建表
sql 复制代码
--步骤1创建表
create table team_ace(
    id int,
    team_name string,
    ace_player_name string
)row format delimited
fields terminated by ''
;
2.加载数据

txt文件如下

sql 复制代码
--步骤2加载数据,手动将此题目里的txt文件上传到hdfs中 ,然后加载到表中
load data inpath '/input/team_ace_player.txt' into table team_ace;
3.验证数据
sql 复制代码
--步骤3验证数据
select * from team_ace;
--结果如下

--1,成都AG超玩会,一诺
-- 2,重庆QGhappy,Hurt
-- 3,DYG,久诚
-- 4,上海EDG.M,浪浪
-- 5,武汉eStarPro,Cat
-- 6,RNG.M,暴风锐
-- 7,RW侠,渡劫
-- 8,TES滔搏,迷神
-- 9,杭州LGD大鹅,伪装
-- 10,南京Hero久竞,清融
--需求:请查询来自上海战队的ace选手名字
sql 复制代码
select ace_player_name from team_ace where team_name like '%上海%';
相关推荐
杂家5 小时前
Hive on Spark && Spark on Hive配置
大数据·数据仓库·hive·hadoop·spark
沧海寄馀生15 小时前
Apache Hadoop生态组件部署分享-Hadoop
大数据·hadoop·分布式·apache
毕设源码-朱学姐15 小时前
【开题答辩全过程】以 基于Hadoop的豆瓣电影数据分析系统设计与实现为例,包含答辩的问题和答案
大数据·hadoop·分布式
@小红花20 小时前
从零到精通 Hadoop 的系统学习文档
大数据·hadoop·学习
BD_Marathon1 天前
java.io.FileNotFoundException: File does not exist: hdfs://master:9000/sparklog
大数据·hadoop·hdfs
sunxunyong1 天前
flink/spark/hive 使用paimon
hive·flink·spark
howard20051 天前
5.4 Hive删除数据实战
hive·删除数据
无级程序员1 天前
datasophon安装hive3.1.3手记
大数据·hive
Q26433650231 天前
【有源码】spark与hadoop-情感挖掘+画像建模的携程酒店评价数据分析可视化系统-基于机器学习的携程酒店评价情感分析与竞争态势可视化
大数据·hadoop·python·机器学习·数据分析·spark·毕业设计
howard20052 天前
5.1 Hive加载数据实战
hive·数据加载