HDFS的读写流程

HDFS的写数据流程

HDFS的读写流程

  1.  客户端需要上传文件,客户端就会创建一个Distributed FileSystem,向NameNode请求上传文件。
  2. 此时,NameNode要检查,该客户端是否有权限进行操作。然后开始检查目录结构能否创建成功。检查完成后,Namenode就会响应,通知客户端上传文件。
  3. 客户端此时会请求上传第一个Block,需要NN返回DataNode,告知客户端上传的位置。
  4. NN会返回几个DataNode,例如返回了3个节点。表示告知客户端要用返回的三个节点存储数据。
  5. 此时HDFS客户端会创建一个FSDataOutPutSystream,用该流来传输数据。创建完成后,首先先向第一个DataNode,请求建立传输通道。(注意:此时我们只需要向一个DataNode建立即可,该DataNode会与剩下的DataNode建立通道。即我们只需要将数据传输给第一个Node,之后客户端就可以关闭,让DataNode与DataNode之间传递数据(创建副本))
  6. 所有DataNode建立好传输通道,就回头输出应答结果,当应答结果传递给客户端,客户端就开始传递数据
  7. 客户端传递数据,传递数据的大小是以package为单位一个包是64k,而一个包中含有很多个chunk,每一个chunk由512byte的数据以及一个4byte的统计量构成。即数据先组装成chunk,再组装成包,最后依次去填满。(一次传递一个Block)
  8. 传输完成(一个block)后,若还有Block需要你传递,重复2-7 。若已经完全完成。客户端会通知NameNode,此时客户端可以关闭。DataNode1拿到了数据,此时可以向别的DataNode传递副本信息。

那么在HDFS写数据的过程中,NameNode会选择上传到数据最近距离的DataNode节点。

节点的距离:两个节点到达最近的共同祖先的距离总和。

选择好主要的存储节点后,我们需要选择副本节点。

第一个副本会在Client所处的节点上,如果客户端在集群外,随机选一个。

第二个副本在另一个机架的的随机一个节点(保证可靠性)

第三个副本(如果有)在第二个副本所在的机架的随机节点。(保证效率)

HDFS的读数据流程

HDFS的读写流程

  1. 客户端通过创建DistributedFileSystem向NameNode请求下载文件,NameNode通过查询元数据,找到文件块所在的DataNdoe地址。
  2. 选择一台DataNode(就近原则)服务器,请求读取数据。
  3. DataNode开始传输数据给客户端(从磁盘里面读取数据流,以包为单位校验)
  4. 客户端以Packet为单位接收,先在本地缓存,然后写入目标文件。

如果一个文件是大于一个Block的。那么此时需要注意,在DataNode里,我们并不是Block1和Block2一起读的。而是先读到第一个Block,再读第二个Block,进行组装。

 

 

上一篇:HDFS的SaveMode


下一篇:HDFS写数据流程