Hive 数据同步

一、需求

同步集团的数据到断直连环境。

二、思路

三、同步数据(方案)

1、环境:断直连模拟环境

2、操作机器:ETL 机器 XX.14.36.216

3、工作路径:cd /usr/local/fqlhadoop/hadoop/bin

4、执行命令:

shell 复制代码
命令格式:./hadoop distcp hdfs://${NameNode_IP}:${NameNode_RPC_IP}/${源文件} hdfs://${NameNode_IP}:${NameNode_RPC_IP}/${目标路径}
举例:./hadoop distcp hdfs://XX.10.28.36:8020/spark_udfs hdfs://XX.14.36.216:8020/

会运行一个MapReduce任务,来执行拷贝数据的操作。

四、同步数据(实际操作)

shell 复制代码
# 1、表
## 1.1、分区表
dp_fklh_mart.order_red_blue_flag_hawkeye
f_p_date2023-01-05~2023-01-12

## 1.2、非分区表
dp_dict.fund_manage_db_t_merchant_channel

# 2、实际操作
2.1、登录到对应环境
先登录到 XX.14.36.220
sudo su - biadmin
然后执行 ssh -p 39000 XX.14.36.217

2.2、分区表
## 1. 元数据
提前建表
## 2. 迁移数据
/usr/local/fqlhadoop/hadoop/bin/hadoop distcp \    
hdfs://XX.10.28.36:8020/user/hive/warehouse/dp_fklh_mart.db/order_red_blue_flag_hawkeye/f_p_date=2023-01-05 \
hdfs://XX.14.36.216:8020/user/hive/warehouse/dp_fklh_mart.db/order_red_blue_flag_hawkeye
	
## 3. 关联
/usr/local/fqlhadoop/hive/bin/hive 进入交互环境
MSCK REPAIR TABLE order_red_blue_flag_hawkeye;

## 4. 验证
/usr/local/fqlhadoop/hive/bin/hive 进入交互环境
SHOW TABLES;
SELECT * FROM ${TABLE_NAME} LIMIT 10;

2.3、非分区表
(比分区表操作少了第三步,关联)

迁移数据
/usr/local/fqlhadoop/hadoop/bin/hadoop distcp \    
hdfs://XX.10.28.36:8020/user/hive/warehouse/dp_dict.db/fund_manage_db_t_merchant_channel \    
hdfs://XX.14.36.216:8020/user/hive/warehouse/dp_dict.db/
相关推荐
那我掉的头发算什么3 小时前
【数据库】增删改查 高阶(超级详细)保姆级教学
java·数据库·数据仓库·sql·mysql·性能优化·数据库架构
2501_938773997 小时前
《Hadoop 与 Spark 融合路径:基于 Spark on YARN 的部署与调优技巧》
大数据·hadoop·spark
2501_938773998 小时前
大数据离线处理:使用 Airflow 调度 Hive 脚本的工作流设计
大数据·hive·hadoop
智海观潮8 小时前
Hive的架构设计和建表语义
大数据·hadoop·apache hive
Timer_Cooker9 小时前
Hive 分区表变更字段长度不生效
数据仓库·hive·hadoop
B站_计算机毕业设计之家19 小时前
python电商商品评论数据分析可视化系统 爬虫 数据采集 Flask框架 NLP情感分析 LDA主题分析 Bayes评论分类(源码) ✅
大数据·hadoop·爬虫·python·算法·数据分析·1024程序员节
2501_9387820920 小时前
《Ubuntu 系统下 MySQL 安装前的环境检查与依赖准备指南》
hive·mysql·ubuntu·adb
RestCloud1 天前
让数据流动更智能:元数据如何重塑DataOps与ETL
数据仓库·etl·数据处理·数据传输·元数据·数据集成平台·dataops
2501_938782091 天前
《大数据框架选型指南:Hadoop 与 Spark 的性能、成本与扩展性对比》
大数据·hadoop·spark
梦里不知身是客111 天前
hive的SQL语句练习2
hive·hadoop·sql