六、Hive的基本使用

文章目录

一、启动Hive

1、启动hive

复制代码
1.启动HDFS
start-dfs.sh
2.启动yarn
start-yarn.sh
3.开启历史服务器
mapred --daemon start historyserver
4.进入目录
cd /export/server/hive
5.后台启动
nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
6.启动 (前提是后台启动了nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &)
bin/hive

2.基本操作

复制代码
1.创建表
create table students (id int,name string);
2.查看表
show tables;
3.插入数据
insert into students values(1,'张三'),(2,'李四');
4.查看表数据
select * from students;
5.按照学生的id进行分组,然后统计每个id出现的次数。
select id,COUNT(*) AS CNT from students group by id;

3.查看Hadoop数据的存放位置

复制代码
1.查看hadoop服务器下的根目录
hadoop fs -ls/
2.查看students文件夹下的所有内容
hadoop fs -cat /user/hive/warehouse/students/*

4.查看Mysql中元数据存放的位置

复制代码
1.登录数据库
mysql -u root -p
2.使用数hive据库
use hive;
3.查看表格
show tables;
4.查看数据
 select * from TBLS;

二、beeline的使用

1.HiveServer2服务

复制代码
中转站
HiveServer2可以对外提供一个端口10000,利用HiveServer2去连接其他的可视化操作工具,例如Navicat

2.启动HiveServer2服务

复制代码
cd /export/server/hive文件夹中去启动
1.先启动metastore服务
nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
2.然后启动HiveSever2
nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &
3.查看生成的日志文件
tail -f logs/hiveserver2.log

3.启动beeline服务

复制代码
cd /export/server/hive文件夹中去启动
1.启动beeline
bin/beeline
2.连接HiveServer2
!connect jdbc:hive2://hadoop01:10000
    用户名hadoop
    密码不输入直接回车
3.连接失败的话重启hdfs集群
停止 ''
stop-dfs.sh
stop-yarn.sh
开启
start-dfs.sh
4.查看效果
show databases;
相关推荐
德彪稳坐倒骑驴7 小时前
Sqoop入门常用命令
数据库·hadoop·sqoop
俊哥大数据8 小时前
【项目6】基于Hadoop+Hive+Springboot+vue新闻资讯大数据仓库项目
数据仓库·hive·hadoop
俊哥大数据8 小时前
【实战项目4】Hadoop金融信贷大数据离线分析项目
大数据·hadoop·金融
梦想画家1 天前
从选型到落地:Trino赋能智能制造数据驱动实践
数据仓库·trino·分布式查询·联邦查询
奕成则成1 天前
Flink全面入门指南:从基础认知到BI数据仓库实践
大数据·数据仓库·flink
鹿衔`2 天前
Hadoop HDFS 核心机制与设计理念浅析文档
大数据·hadoop·hdfs
`林中水滴`2 天前
数仓系列:一文读懂仓湖一体架构
数据仓库
Justice Young2 天前
Sqoop复习笔记
hadoop·笔记·sqoop
大厂技术总监下海2 天前
从Hadoop MapReduce到Apache Spark:一场由“磁盘”到“内存”的速度与范式革命
大数据·hadoop·spark·开源
zgl_200537792 天前
ZGLanguage 解析SQL数据血缘 之 Python提取SQL表级血缘树信息
大数据·数据库·数据仓库·hive·hadoop·python·sql