当前位置: 首页 > news >正文

HDFS的设计架构

HDFS 是 Hadoop 生态系统中的分布式文件系统,设计用于存储和处理超大规模数据集。它具有高可靠性、高扩展性和高吞吐量的特点,适合运行在廉价硬件上。

1. HDFS 的设计思想

HDFS 的设计目标是解决大规模数据存储和处理的问题,其核心设计思想包括:

(1)分布式存储

   - 数据被分割成多个块(Block),并分布存储在集群中的多个节点上。

   - 每个数据块默认大小为 128MB 或 256MB,可以根据需求配置。

(2)高容错性

   - 通过数据冗余(默认 3 副本)确保数据可靠性。

   - 如果某个节点故障,系统可以从其他节点的副本中恢复数据。

(3)高吞吐量

   - 适合批量数据处理,而不是低延迟的随机读写。

   - 通过流式数据访问模式,优化了大文件的读写性能。

   (4)廉价硬件

   - 设计运行在普通商用硬件上,通过软件层面的容错机制弥补硬件可靠性不足的问题。

(5)数据本地性

   - 将计算任务调度到存储数据的节点上,减少数据传输开销,提高处理效率。

(6)一次写入,多次读取

   - 适合写入一次、读取多次的场景,不支持文件的随机修改。

 2. HDFS 的框架结构

HDFS 采用主从架构(Master-Slave),主要由以下组件组成:

 (1)NameNode(主节点)

   NameNode 是 HDFS 的核心组件,负责管理文件系统的元数据。

主要职责:维护文件系统的命名空间(如目录树、文件信息)。管理数据块(Block)与 DataNode 的映射关系。处理客户端的元数据请求(如打开、关闭、重命名文件)。NameNode 是单点故障(SPOF),因此通常需要配置高可用性(HA)方案,如使用双 NameNode(Active-Standby)。

 (2)DataNode(从节点)

   DataNode 是工作节点,负责存储实际的数据块。

   主要职责:存储和检索数据块。定期向 NameNode 发送心跳信号和数据块报告。执行数据块的创建、删除和复制操作。DataNode 通常是集群中的多个节点,共同提供分布式存储能力。

 (3)Secondary NameNode(辅助节点)

Secondary NameNode 不是 NameNode 的备份,而是辅助 NameNode 完成元数据的管理。

   主要职责:定期合并 NameNode 的编辑日志(EditLog)和文件系统镜像(FsImage),减少 NameNode 的启动时间。不提供故障恢复功能。

 (4)客户端(Client)

客户端是与 HDFS 交互的应用程序或用户工具。

   主要职责:与 NameNode 通信,获取元数据(如文件位置)。与 DataNode 通信,读写数据块。

 3. HDFS 的工作流程

 (1)文件写入流程

   1. 客户端向 NameNode 请求写入文件。

   2. NameNode 检查文件是否存在,并确定数据块存储的 DataNode 列表。

   3. 客户端将数据块写入第一个 DataNode,第一个 DataNode 将数据复制到第二个 DataNode,依此类推。

   4. 写入完成后,客户端通知 NameNode,NameNode 更新元数据。

 (2)文件读取流程

   1. 客户端向 NameNode 请求读取文件。

   2. NameNode 返回文件的数据块位置(DataNode 列表)。

   3. 客户端直接从 DataNode 读取数据块。

 (3)数据块复制流程

   当某个 DataNode 故障或数据块损坏时,NameNode 会检测到并触发数据块的复制操作,确保数据冗余。

 4. HDFS 的核心特性

 (1)高可靠性

   - 通过数据冗余(默认 3 副本)确保数据不会丢失。

   - NameNode 的高可用性(HA)方案进一步提升了系统的可靠性。

 (2)高扩展性

   - 可以通过增加 DataNode 节点来扩展存储容量和处理能力。

   - 支持 PB 级甚至 EB 级数据存储。

 (3)高吞吐量

   - 适合批量数据处理,能够高效地读写大文件。

   - 通过数据本地性优化计算任务的执行效率。

 (4)廉价硬件支持

   - 设计运行在普通商用硬件上,降低了成本。

 (5)一次写入,多次读取

   - 适合数据仓库、日志存储等场景,但不适合频繁修改的文件。

HDFS 是一个分布式文件系统,设计用于存储和处理超大规模数据集。其核心设计思想包括分布式存储、高容错性、高吞吐量和廉价硬件支持。HDFS 的框架结构由 NameNode、DataNode 和 Secondary NameNode 组成,采用主从架构。HDFS 适合大数据批处理场景,但不适合低延迟的随机读写和频繁修改的文件。

http://www.lryc.cn/news/547498.html

相关文章:

  • 为wordpress自定义一个留言表单并可以在后台进行管理的实现方法
  • tauri-plugin-shell插件将_blank的a标签用浏览器打开了,,,解决办法
  • 【大模型基础_毛玉仁】1.1 基于统计方法的语言模型
  • 使用 Docker 部署 RabbitMQ 并实现数据持久化
  • Pandas的数据转换函数
  • 影刀 RPA 实战开发阶段总结
  • Linux系统上安装kafka
  • DeepSeek如何快速开发PDF转Word软件
  • 虚拟机 | Ubuntu图形化系统: open-vm-tools安装失败以及实现文件拖放
  • Mysql-经典故障案例(1)-主从同步由于主键问题引发的故障
  • Linux下学【MySQL】中如何实现:多表查询(配sql+实操图+案例巩固 通俗易懂版~)
  • ubuntu局域网部署stable-diffusion-webui记录
  • 最基于底层的运算符——位运算符
  • 代码随想录算法训练营第三十二天 | 509. 斐波那契数 70. 爬楼梯 746. 使用最小花费爬楼梯
  • 3-9 WPS JS宏单元格复制、重定位应用(拆分单表到多表)
  • C++ 中前置 `++` 与后置 `++` 运算符重载
  • Scala:case class(通俗易懂版)
  • Vue、React、原生小程序的写法对比差异
  • 【AIGC系列】6:HunyuanVideo视频生成模型部署和代码分析
  • java 初学知识点总结
  • Android MVC、MVP、MVVM三种架构的介绍和使用。
  • AI视频领域的DeepSeek—阿里万相2.1图生视频
  • IDEA 2024.1.7 Java EE 无框架配置servlet
  • STM32---FreeRTOS中断管理试验
  • 深色系B端系统界面,在何种场景下更加适合?
  • 如何使用 Python+Flask+win32print 实现简易网络打印服务1
  • 深度学习DNN实战
  • 课程3. 分批训练与数据规范、标准化
  • 《机器学习数学基础》补充资料:过渡矩阵和坐标变换推导
  • linux指令学习--sudo apt-get install vim