六、Hive的基本使用

文章目录

一、启动Hive

1、启动hive

复制代码
1.启动HDFS
start-dfs.sh
2.启动yarn
start-yarn.sh
3.开启历史服务器
mapred --daemon start historyserver
4.进入目录
cd /export/server/hive
5.后台启动
nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
6.启动 (前提是后台启动了nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &)
bin/hive

2.基本操作

复制代码
1.创建表
create table students (id int,name string);
2.查看表
show tables;
3.插入数据
insert into students values(1,'张三'),(2,'李四');
4.查看表数据
select * from students;
5.按照学生的id进行分组,然后统计每个id出现的次数。
select id,COUNT(*) AS CNT from students group by id;

3.查看Hadoop数据的存放位置

复制代码
1.查看hadoop服务器下的根目录
hadoop fs -ls/
2.查看students文件夹下的所有内容
hadoop fs -cat /user/hive/warehouse/students/*

4.查看Mysql中元数据存放的位置

复制代码
1.登录数据库
mysql -u root -p
2.使用数hive据库
use hive;
3.查看表格
show tables;
4.查看数据
 select * from TBLS;

二、beeline的使用

1.HiveServer2服务

复制代码
中转站
HiveServer2可以对外提供一个端口10000,利用HiveServer2去连接其他的可视化操作工具,例如Navicat

2.启动HiveServer2服务

复制代码
cd /export/server/hive文件夹中去启动
1.先启动metastore服务
nohup bin/hive --service metastore >> logs/metastore.log 2>&1 &
2.然后启动HiveSever2
nohup bin/hive --service hiveserver2 >> logs/hiveserver2.log 2>&1 &
3.查看生成的日志文件
tail -f logs/hiveserver2.log

3.启动beeline服务

复制代码
cd /export/server/hive文件夹中去启动
1.启动beeline
bin/beeline
2.连接HiveServer2
!connect jdbc:hive2://hadoop01:10000
    用户名hadoop
    密码不输入直接回车
3.连接失败的话重启hdfs集群
停止 ''
stop-dfs.sh
stop-yarn.sh
开启
start-dfs.sh
4.查看效果
show databases;
相关推荐
源码之家5 小时前
计算机毕业设计:Python智慧交通大数据分析平台 Flask框架 requests爬虫 出行速度预测 拥堵预测(建议收藏)✅
大数据·hadoop·爬虫·python·数据分析·flask·课程设计
@insist1235 小时前
数据库系统工程师-分布式数据库与数据仓库核心考点及应用体系
数据库·数据仓库·分布式·软考·数据库系统工程师·软件水平考试
莫叫石榴姐9 小时前
本体论:企业智能化转型的核心引擎
大数据·数据仓库·人工智能·面试·职场和发展
武子康11 小时前
大数据-257 离线数仓 - 数据质量监控详解:从理论到Apache Griffin实践
大数据·hadoop·后端
孤影过客2 天前
驯服数据巨兽:Hadoop如何重塑大数据的黄金时代
大数据·hadoop·分布式
极光代码工作室2 天前
基于Hadoop的日志数据分析系统设计
大数据·hadoop·python·数据分析·数据可视化
tumeng07113 天前
HDFS的架构优势与基本操作
hadoop·hdfs·架构
蓝眸少年CY3 天前
Hive - 函数、压缩与优化
数据仓库·hive·hadoop
仗剑_走天涯3 天前
Hadoop 安装
大数据·hadoop·分布式
sunxunyong3 天前
HDFS nnsdy重新配置启动
大数据·hadoop·hdfs