Hive 数据同步

一、需求

同步集团的数据到断直连环境。

二、思路

三、同步数据(方案)

1、环境:断直连模拟环境

2、操作机器:ETL 机器 XX.14.36.216

3、工作路径:cd /usr/local/fqlhadoop/hadoop/bin

4、执行命令:

shell 复制代码
命令格式:./hadoop distcp hdfs://${NameNode_IP}:${NameNode_RPC_IP}/${源文件} hdfs://${NameNode_IP}:${NameNode_RPC_IP}/${目标路径}
举例:./hadoop distcp hdfs://XX.10.28.36:8020/spark_udfs hdfs://XX.14.36.216:8020/

会运行一个MapReduce任务,来执行拷贝数据的操作。

四、同步数据(实际操作)

shell 复制代码
# 1、表
## 1.1、分区表
dp_fklh_mart.order_red_blue_flag_hawkeye
f_p_date2023-01-05~2023-01-12

## 1.2、非分区表
dp_dict.fund_manage_db_t_merchant_channel

# 2、实际操作
2.1、登录到对应环境
先登录到 XX.14.36.220
sudo su - biadmin
然后执行 ssh -p 39000 XX.14.36.217

2.2、分区表
## 1. 元数据
提前建表
## 2. 迁移数据
/usr/local/fqlhadoop/hadoop/bin/hadoop distcp \    
hdfs://XX.10.28.36:8020/user/hive/warehouse/dp_fklh_mart.db/order_red_blue_flag_hawkeye/f_p_date=2023-01-05 \
hdfs://XX.14.36.216:8020/user/hive/warehouse/dp_fklh_mart.db/order_red_blue_flag_hawkeye
	
## 3. 关联
/usr/local/fqlhadoop/hive/bin/hive 进入交互环境
MSCK REPAIR TABLE order_red_blue_flag_hawkeye;

## 4. 验证
/usr/local/fqlhadoop/hive/bin/hive 进入交互环境
SHOW TABLES;
SELECT * FROM ${TABLE_NAME} LIMIT 10;

2.3、非分区表
(比分区表操作少了第三步,关联)

迁移数据
/usr/local/fqlhadoop/hadoop/bin/hadoop distcp \    
hdfs://XX.10.28.36:8020/user/hive/warehouse/dp_dict.db/fund_manage_db_t_merchant_channel \    
hdfs://XX.14.36.216:8020/user/hive/warehouse/dp_dict.db/
相关推荐
泯仲16 小时前
项目实践|ETL Pipeline 完整解析:从多源文档到向量库的全链路实现
数据仓库·agent·etl·rag
被摘下的星星18 小时前
Hadoop伪分布式集群搭建实验原理概要
大数据·hadoop·分布式
武子康20 小时前
大数据-258 离线数仓 - Livy与Griffin编译安装指南:大数据环境配置实战
大数据·hadoop·后端
GlobalInfo1 天前
2026全球及中国数据仓库和 ETL 测试服务市场风险评估及前景规划建议报告
数据仓库·etl
苛子2 天前
2026国产化iPaaS集成平台选型与替换实战指南
数据仓库·etl
源码之家2 天前
计算机毕业设计:Python智慧交通大数据分析平台 Flask框架 requests爬虫 出行速度预测 拥堵预测(建议收藏)✅
大数据·hadoop·爬虫·python·数据分析·flask·课程设计
@insist1232 天前
数据库系统工程师-分布式数据库与数据仓库核心考点及应用体系
数据库·数据仓库·分布式·软考·数据库系统工程师·软件水平考试
莫叫石榴姐2 天前
本体论:企业智能化转型的核心引擎
大数据·数据仓库·人工智能·面试·职场和发展
武子康2 天前
大数据-257 离线数仓 - 数据质量监控详解:从理论到Apache Griffin实践
大数据·hadoop·后端
孤影过客4 天前
驯服数据巨兽:Hadoop如何重塑大数据的黄金时代
大数据·hadoop·分布式