当前位置: 首页 > news >正文

HDFS的数据流

1.HDFS写数据流程

(1)客户端通过Distributed FileSystem模块向NameNode请求上传文件,NameNode检查目标文件是否已存在,父目录是否存在。

(2)NameNode返回是否可以上传。

(3)客户端请求第一个 Block上传到哪几个DataNode服务器上。

(4)NameNode返回3个DataNode节点,分别为dn1、dn2、dn3。

(5)客户端通过FSDataOutputStream模块请求dn1上传数据,dn1收到请求会继续调用dn2,然后dn2调用dn3,将这个通信管道建立完成。

(6)dn1、dn2、dn3逐级应答客户端。

(7)客户端开始往dn1上传第一个Block(先从磁盘读取数据放到一个本地内存缓存),以Packet为单位,dn1收到一个Packet就会传给dn2,dn2传给dn3;dn1每传一个packet会放入一个应答队列等待应答

(8)当一个Block传输完成之后,客户端再次请求NameNode上传第二个Block的服务器。(重复执行3-7步)。

源码解析:org.apache.hadoop.hdfs.DFSOutputStream

2.HDFS读数据流程

(1)客户端通过DistributedFileSystem向NameNode请求下载文件,NameNode通过查询元数据,找到文件块所在的DataNode地址。

(2)挑选一台DataNode(就近原则,然后随机)服务器,请求读取数据。

(3)DataNode开始传输数据给客户端(从磁盘里面读取数据输入流,以Packet为单位来做校验)。

(4)客户端以Packet为单位接收,先在本地缓存,然后写入目标文件。

http://www.lryc.cn/news/69901.html

相关文章:

  • [230531] 托福听力真题|TPO67配套词汇|10:23-11:23
  • 每日学术速递5.21
  • 【SpringBoot】SpringBoot 纯后端项目如何自定义异常页面(Whitelabel Error Page)
  • Netty核心技术三--NIO编程
  • 机器人的运动范围:DFS
  • Rshiny编写ui中具有web依赖项的控件{该问题的具体阐述请看引言}
  • 1700页,卷S人的 软件测试《八股文》PDF手册,涨薪跳槽拿高薪就靠它了
  • bundle的常用命令
  • 一、数据字典介绍
  • 常见的SQL优化
  • Sonic新生态Sonic IDE体验
  • [VRTK4.0]安装VRTKv4Tilia软件包导入程序
  • SpringBoot开发实用篇2---与数据层技术有关的替换和整合
  • 科普ChatGPT
  • Spring MVC的核心类和注解
  • Java 创建一个大文件
  • 董小姐大意了
  • Java高并发核心编程—内置锁原理篇
  • opencv文字识别
  • bool、python集合
  • 从零开始学架构——可扩展架构模式
  • Day03 01-MySQL数据完整性详解
  • DJ 5-4 以太网 Ethernet
  • 华为OD机试真题 Java 实现【区块链文件转储系统】【2023Q2 200分】
  • Java 实现 二叉树的 后序遍历
  • rk3588安装qt虚拟键盘
  • HCIP-RIP双向重发布综合实验
  • Flask的使用例子
  • 【基础6】存储过程的 创建与调用
  • 如何快速实现接口自动化测试,常规接口断言封装实践