六、Hive的基本使用

文章目录

一、启动Hive

1、启动hive

复制代码
1.启动HDFS
start-dfs.sh
2.启动yarn
start-yarn.sh
3.开启历史服务器
mapred --daemon start historyserver
4.进入目录
cd /export/server/hive
5.后台启动
nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
6.启动 (前提是后台启动了nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &)
bin/hive

2.基本操作

复制代码
1.创建表
create table students (id int,name string);
2.查看表
show tables;
3.插入数据
insert into students values(1,'张三'),(2,'李四');
4.查看表数据
select * from students;
5.按照学生的id进行分组,然后统计每个id出现的次数。
select id,COUNT(*) AS CNT from students group by id;

3.查看Hadoop数据的存放位置

复制代码
1.查看hadoop服务器下的根目录
hadoop fs -ls/
2.查看students文件夹下的所有内容
hadoop fs -cat /user/hive/warehouse/students/*

4.查看Mysql中元数据存放的位置

复制代码
1.登录数据库
mysql -u root -p
2.使用数hive据库
use hive;
3.查看表格
show tables;
4.查看数据
 select * from TBLS;

二、beeline的使用

1.HiveServer2服务

复制代码
中转站
HiveServer2可以对外提供一个端口10000,利用HiveServer2去连接其他的可视化操作工具,例如Navicat

2.启动HiveServer2服务

复制代码
cd /export/server/hive文件夹中去启动
1.先启动metastore服务
nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
2.然后启动HiveSever2
nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &
3.查看生成的日志文件
tail -f logs/hiveserver2.log

3.启动beeline服务

复制代码
cd /export/server/hive文件夹中去启动
1.启动beeline
bin/beeline
2.连接HiveServer2
!connect jdbc:hive2://hadoop01:10000
    用户名hadoop
    密码不输入直接回车
3.连接失败的话重启hdfs集群
停止 ''
stop-dfs.sh
stop-yarn.sh
开启
start-dfs.sh
4.查看效果
show databases;
相关推荐
杂家1 天前
Hadoop完全分布式部署(超详细)
大数据·hadoop·分布式
BD_Marathon1 天前
【Hadoop】hadoop3.3.1完全分布式配置
大数据·hadoop·分布式
Q26433650231 天前
【有源码】基于Hadoop+Spark的起点小说网大数据可视化分析系统-基于Python大数据生态的网络文学数据挖掘与可视化系统
大数据·hadoop·python·信息可视化·数据分析·spark·毕业设计
yumgpkpm2 天前
CMP(类Cloudera CDP 7.3 404版华为泰山Kunpeng)和Apache Doris的对比
大数据·hive·hadoop·spark·apache·hbase·cloudera
呆呆小金人2 天前
SQL字段对齐:性能优化与数据准确的关键
大数据·数据仓库·sql·数据库开发·etl·etl工程师
口_天_光健2 天前
制造企业的数据目录编写
大数据·数据库·数据仓库·数据分析
梦里不知身是客113 天前
spark读取table中的数据【hive】
大数据·hive·spark
DashVector3 天前
向量检索服务 DashVector产品计费
数据库·数据仓库·人工智能·算法·向量检索
yumgpkpm3 天前
Doris在CMP7(类Cloudera CDP 7 404版华为Kunpeng)启用 Kerberos部署Doris
大数据·hive·hadoop·python·oracle·flink·cloudera
Mr_Art893 天前
金融行业湖仓实践:Apache Paimon 小文件治理之道
数据仓库·金融·apache