【hadoop】案例:Sqoop迁移仓库数据

1 数据导出:Hive导入MySQL

复制代码
[hadoop@hadoop1 sqoop]$ bin/sqoop export \
> --connect 'jdbc:mysql://localhost/weather \
> --username root \
> --password 123456  \
> --table mean_temperature \
> --export-dir /user/hive/warehouse/mydb/mean_temperature \
> --input-fields-terminated-by "," \
> -m 1;
查询导出结果
mysql> select * from mean_temperature limit 10;

sqoop export命令相关参数含义:

--connect:连接MySQL的URL(可以指定数据库)

--username:连接MySQL的用户名

--password:连接MySQL的密码

--table:数据导入到MySQL中的表名

--export-dir:导出数据在HDFS中的位置

--input-fields-terminated-by:指定Hive表文件数据的分隔符,默认是"\001"(我们之前是逗号)

-m:Map任务的并行度

2 数据导入:MySQL导入Hive

复制代码
[hadoop@hadoop1 sqoop]$ bin/sqoop import \
> --connect 'jdbc:mysql://localhost/weather \
> --username root \
> --password 123456  \
> --table mean_temperature \
> --fields-terminated-by ',' \
> --delete-target-dir \
> -m 1 \
> --hive-import \
> --hive-database weather \
> --hive-table ods_mean_temperature;
查看导入结果
hive> use weather;
hive> select * from ods_mean_temperature limit 10;

sqoop import命令相关参数含义:

--connect:连接MySQL的URL(可以指定数据库)

--username:连接MySQL的用户名 -

-password:连接MySQL的密码

--table:MySQL中需要导出的表名

--fields-terminated-by:指定Hive表文件数据的分隔符,默认是"\001",建议用逗号

--delete-target-dir:若对应的Hive表已存在则删除

-m:Map任务的并行度 --hive-import:表示导入到hive中

--hive-database:指定导入的数据库

--hive-table:指定导入的表名称

相关推荐
大鳥18 小时前
数据仓库知识体系
hive·hadoop
计算机毕业编程指导师19 小时前
大数据可视化毕设:Hadoop+Spark交通分析系统从零到上线 毕业设计 选题推荐 毕设选题 数据分析 机器学习 数据挖掘
大数据·hadoop·python·计算机·spark·毕业设计·城市交通
计算机毕业编程指导师19 小时前
【计算机毕设选题】基于Spark的车辆排放分析:2026年热门大数据项目 毕业设计 选题推荐 毕设选题 数据分析 机器学习 数据挖掘
大数据·hadoop·python·计算机·spark·毕业设计·车辆排放
talle202119 小时前
Hive | 行列转换
数据仓库·hive·hadoop
talle202121 小时前
Hive | json数据处理
hive·hadoop·json
CTO Plus技术服务中21 小时前
Hive开发与运维教程
数据仓库·hive·hadoop
Gain_chance21 小时前
28-学习笔记尚硅谷数仓搭建-DWD层交易域加购事务事实表建表语句及详细分析
数据仓库·hive·笔记·学习·datagrip
小邓睡不饱耶1 天前
Hive 实战:数据仓库建模、SQL 进阶与企业级案例
数据仓库·hive·sql
ha_lydms1 天前
Hadoop 架构
大数据·hadoop·hdfs·架构·mapreduce·yarn·数据处理
小邓睡不饱耶2 天前
Sqoop 实战:数据迁移核心案例、优化技巧与企业级落地
hive·hadoop·sqoop