30-Hive SQL-DML-Load加载数据

1.上传数据

复制代码
1.1 暴力方式

 1.2命令行方式 
 首先在 /export/data 下面创建  文件件 hivedata
 上传记事本文件到 hivedata下面 
 使用cd 命令切换到 /export/data/hivedata 下面
bash 复制代码
[root@node1 hivedata]# hadoop fs -put team_ace_player.txt /user/hive/warehouse/liushao.db/t_team_ace_player

2.Hive中的show语法

复制代码
2.1显示当前数据库下面的表
show tables ;

 show tables [in database_name];

3. Load命令 加载数据

复制代码
load data [local] inpath 'filepath' into table tablename;

filepath 等待移动的数据的路径 
相对路径 project/data1
绝对路径 /user/hive/project/data1
完整的路径: hdfs://node1:9000/user/hive/project/data1
完整路径 == schema的完整路径 

local
本地文件相对路径 
 file://user/hive/project/data1
复制代码
本地文件系统指的是Hiveserver2服务所在机器的本地Linux文件系统,不是Hive客户端所在的本地文件系统。
bash 复制代码
--  4.使用Load加载数据
-- 4.1 根据students.txt创建数据库表
-- 95001,李勇,男,20,CS
create  table liushao.student_local(
    num int comment '编号',
    name string comment '姓名',
    sex string comment '性别',
    age int comment '年龄',
    dept string comment '部门'
)
row format delimited
fields terminated by ',';

use liushao;
--  使用load装载数据
load data local inpath '/export/data/hivedata/students.txt' into table student_local;


select * from student_local;

select * from luoshao.student_local;

use luoshao;

load data local inpath '/export/data/hivedata/students.txt' into table student_local;

use liushao;


create  table liushao.student_hdfs(
    num int comment '编号',
    name string comment '姓名',
    sex string comment '性别',
    age int comment '年龄',
    dept string comment '部门'
)
row format delimited
fields terminated by ',';


load data  inpath '/students.txt' into table student_hdfs;

select * from liushao.student_hdfs;
相关推荐
鲲志说3 小时前
数据洪流时代,如何挑选一款面向未来的时序数据库?IoTDB 的答案
大数据·数据库·apache·时序数据库·iotdb
步行cgn10 小时前
HttpSessionBindingListener
java·开发语言·数据仓库·servlet
psgogogo202511 小时前
Apache POI:Java操作Office文档的利器
java·开发语言·其他·apache
北冥SP11 小时前
etl介绍
数据仓库·etl
亚林瓜子12 小时前
Spring中使用Apache Http客户端调第三方系统接口临时查看请求体参数
spring·http·apache·log
zz-zjx12 小时前
Apache 生产环境操作与 LAMP 搭建指南
linux·运维·apache
DolphinScheduler社区13 小时前
(二)3.1.9 生产“稳”担当:Apache DolphinScheduler Worker 服务源码全方位解析
apache
计算机毕设残哥13 小时前
【Spark+Hive+hadoop】人类健康生活方式数据分析
大数据·hive·hadoop·python·数据分析·spark·dash
心止水j18 小时前
hive的安装
数据仓库·hive·hadoop
SeaTunnel19 小时前
一文掌握 Apache SeaTunnel 构建系统与分发基础架构
apache