Hive的安装配置、初始化元数据、启动

Hive的安装配置、初始化元数据、启动

1、解压hive到指定目录/usr/local/src 改名,将mysql的驱动包拷贝到hive的lib目录下

2、环境变量

1)

vi /etc/profile

export HIVE_HOME=/usr/local/src/hive

export PATH= P A T H : PATH: PATH:HIVE_HOME/bin

echo 'export HIVE_HOME=/usr/local/src/hive' >> /etc/profile

echo 'export PATH= P A T H : PATH: PATH:HIVE_HOME/bin' >> /etc/profile

source /etc/profile

查看hive版本:hive --version

3、修改hive配置文件 /usr/local/src/hive/conf下

2)hive-site.xml(配置元数据的存储数据库信息,可以新建也可以直接复制模板修改)

复制代码
<property>
	<name>javax.jdo.option.ConnectionURL</name>
	<value>jdbc:mysql://master:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false&amp;useUnicode=true&amp;characterEncoding=UTF-8</value>
</property>

<property>
	<name>javax.jdo.option.ConnectionDriverName</name>
	<value>com.mysql.jdbc.Driver</value>
</property>

<property>
	<name>javax.jdo.option.ConnectionUserName</name>
	<value>root</value>
</property>

<property>
	<name>javax.jdo.option.ConnectionPassword</name>
	<value>123456</value>
</property>

4、初始化hive元数据:

schematool -dbType mysql -initSchema

5、启动进入hive命令行:直接输入hive

常见问题:

1)启动hive时出现hdfs in safemode

将hadoop退出安全模式

hdfs dfsadmin -safemode leave

2)驱动不存在ClassNotFoundException,将mysql的驱动包拷贝到hive的lib目录下

3)账号密码错误

4)mysql远程授权未成功会导致无法连接数据库

6、创建数据库

create database xxxx;

复制代码
 查看数据库
 show databases;

 使用数据库:
 use 数据库名;

复制代码
create table tb_emp(eid int,name string,salary float,designation string) 
comment 'employee details'  row format delimited  
fields terminated by '\t' lines terminated by '\n';
相关推荐
云器科技4 小时前
无需CDP:基于现有数据仓库构建高效用户画像系统
数据仓库·湖仓一体·lakehouse·无需 cdp
xerthwis9 小时前
HDFS:那座正在云化与解构的“古老高墙”
大数据·数据仓库·人工智能·hdfs·数据库开发·数据库架构
xerthwis1 天前
Hadoop:大数据世界的“古老基石”与“沉默的共生者”
大数据·人工智能·hadoop
yumgpkpm1 天前
Cloudera CDH5|CDH6|CDP7.1.7|CDP7.3|CMP 7.3的产品优势分析(在华为鲲鹏 ARM 麒麟KylinOS、统信UOS)
大数据·人工智能·hadoop·深度学习·spark·transformer·cloudera
ghgxm5201 天前
EXCEL使用VBA代码实现按条件查询数据库--简单实用
开发语言·数据仓库·笔记·excel·数据库开发
yumgpkpm1 天前
Hadoop如何用Flink支持实时数据分析需求
大数据·hadoop·分布式·hdfs·flink·kafka·cloudera
喻师傅2 天前
Hive 中 NULL 值在逻辑判断中的“陷阱”(踩坑复盘)
数据仓库·hive·hadoop
涤生大数据2 天前
放弃Canal后,我们用Flink CDC实现了99.99%的数据一致性
大数据·数据仓库·flink·大数据开发·flink cdc·数据开发·实时数据
jinxinyuuuus3 天前
订阅指挥中心:数据可移植性、Schema设计与用户数据主权
数据仓库·人工智能
老徐电商数据笔记3 天前
技术复盘第四篇:Kimball维度建模在电商场景的实战应用
大数据·数据仓库·技术面试