Hive进阶(2)----HDFS写入数据流程(赋图助君理解)

HDFS写入数据流程

一、写入流程

1、 Client向NameNode发起RPC请求,来确定请求文件block所在的位置;

2、 NameNode会视情况返回文件的部分或者全部block列表,对于每个block,NameNode都会返回含有该block副本的DataNode地址;

3、 这些返回的DN地址,会按照集群拓扑结构得出DataNode与客户端的距离,然后进行排序,排序两个规则:

网络拓扑结构中距离Client近的排靠前;

心跳机制中超时汇报的DN状态为STALE,这样的排靠后;

4、 Client选取排序靠前的DataNode来读取block,如果客户端本身就是DataNode,那么将从本地直接获取数据;

5、 底层上本质是建立FSDataInputStream,重复的调用父类DataInputStream的read方法,直到这个块上的数据读取完毕;一旦到达块的末尾,DFSInputStream 关闭连接并继续定位下一个块的下一个 DataNode;

6、 当读完列表的block后,若文件读取还没有结束,客户端会继续向NameNode获取下一批的block列表;一旦客户端完成读取,它就会调用 close() 方法。

7、 读取完一个block都会进行checksum验证,如果读取DataNode时出现错误,客户端会通知NameNode,然后再从下一个拥有该block副本的DataNode继续读。

8、 NameNode只是返回Client请求包含块的DataNode地址,并不是返回请求块的数据;

9、 最终读取来所有的block会合并成一个完整的最终文件。

二、图形化流程

相关推荐
Francek Chen10 小时前
【大数据基础】大数据处理架构Hadoop:02 Hadoop生态系统
大数据·hadoop·分布式·hdfs·架构
德彪稳坐倒骑驴10 小时前
DataX将数据在MySQL和HDFS之间互相迁移
数据库·mysql·hdfs
zhixingheyi_tian12 小时前
Hadoop 之 行业生态
hadoop
徐先生 @_@|||12 小时前
大数据技术演进(从传统Hadoop到Spark到云原生的技术演进路径)
大数据·hadoop·spark
查士丁尼·绵1 天前
hadoop集群存算分离
hive·hdfs·zookeeper·spark·hbase·yarn·galera
weixin_457297101 天前
Hadoop面试题
大数据·hadoop·分布式
何亚告1 天前
记一次项目上hadoop数据迁移
大数据·hadoop·分布式
默默在路上2 天前
apache-hive-3.1.3 show databases;报错
hive·hadoop·apache
talle20212 天前
Hadoop分布式计算框架【MapReduce】
大数据·hadoop·mapreduce
走遍西兰花.jpg2 天前
Oracle,hive,gaussdb的区别
hive·oracle·gaussdb