三面技术(运维)

1、说下hdfs读写流程

2、hdfs写的流程中block 大小为何是128m

A:block大小设置原则:最小化寻址开销,减少网络传输.

3、为什么HDFS中块(block)不能设置太大,也不能设置太小?

4、HDFS中块(block)的大小为什么设置为128M?

hdfs中存储以块的形式存储在DataNode,block块大小可以通过

HADOOP_HOME/etc/hadoop/hdfs-site.xml中dfs.blocksize实现(设置时先stop集群,修改完restart集群)。在Hadoop2.x之后的版本中,文件块的默认大小是128M,老版本中默认是64M;

5、你懂spark嘛?说下spark执行流程

6、doris和clickhouse比较

clickhouse做数据分析的数据库,拓展性不如doris。doris可以通过增加

OLAP数据库选型指南:Doris与ClickHouse的深入对比与分析-腾讯云开发者社区-腾讯云

7.数据迁移怎么做的?(数据迁移的步骤,纯听他人口述)

1、mysql中建有orcle对应的表,mysql有些数据类型不一样,比如:vachar,把orclr存

0、先备份orcle数据库

1、建好对应的表字段

2、

3、迁移过来,要确保数据一致性和完整性 查:count(*)orcle 一般多少多少条 (测试数据用的200多万条,每天大概增量数据 10个 200-300万条 和全量数据有一千万)

4、看是否会漏字段,看新建字段是否 一张表:自己看字段是否相同

5、在orcle和mysql

需求分析:

评估数据量

数据库orcle数据库备份

建好对应表

看orcle对应的数据类型和mysql有什么不一样,和orcle不一样的对应存储

写sqoop配置(写sqoop配置)--检测:全量的数据是否同步--先检查临时表

相关推荐
许白掰2 小时前
Linux入门篇学习——Linux 工具之 make 工具和 makefile 文件
linux·运维·服务器·前端·学习·编辑器
AmosTian8 小时前
【系统与工具】Linux——Linux简介、安装、简单使用
linux·运维·服务器
YC运维9 小时前
RIP实验以及核心原理
运维·网络·智能路由器
leo__52011 小时前
自动化运维:使用Ansible简化日常任务
运维·自动化·ansible
霖0011 小时前
C++学习笔记三
运维·开发语言·c++·笔记·学习·fpga开发
CodeWithMe11 小时前
【Note】《Kafka: The Definitive Guide》 第九章:Kafka 管理与运维实战
运维·分布式·kafka
bug攻城狮12 小时前
Alloy VS Promtail:基于 Loki 的日志采集架构对比与选型指南
运维·架构·grafana·数据可视化
CodeWithMe13 小时前
【Note】《深入理解Linux内核》 第十九章:深入理解 Linux 进程通信机制
linux·运维·php
睿思达DBA_WGX13 小时前
由 DB_FILES 参数导致的 dg 服务器无法同步问题
运维·数据库·oracle