当前位置: 首页 > news >正文

Kafka的一条消息的写入和读取过程原理介绍

Apache Kafka 是一个分布式流处理平台,其核心设计围绕高吞吐、低延迟和可扩展性。以下是 Kafka 中一条消息的写入和读取过程的原理详解:


一、消息写入过程(Producer → Broker)

1. 生产者发送消息
  • 分区选择

    • Producer 根据 Topic 的分区策略(如轮询、哈希键、自定义)将消息发送到某个 Partition。

    • 若指定了 key,则通过哈希算法确定 Partition,保证相同 Key 的消息分配到同一分区。

  • 序列化与压缩

    • 消息(Key 和 Value)被序列化(如 Avro、JSON),可选压缩(Snappy、GZIP)以减少网络开销。

2. Broker 处理写入请求
  • 写入 Leader 副本

    • Producer 向 Partition 的 Leader Broker 发送消息(通过 ZooKeeper 或 Metadata 缓存获取 Leader 信息)。

    • Leader 将消息以 顺序追加(Append-Only) 的方式写入本地 Log Segment(物理日志文件)。

  • 副本同步(ISR 机制)

    • Leader 将消息同步到所有 In-Sync Replicas (ISR) 的 Follower 副本,确保数据冗余。

    • 同步方式:Follower 主动从 Leader 拉取(Pull)消息,保证最终一致性。

  • ACK 确认机制

    • Producer 通过 acks 参数控制可靠性:

      • acks=0:不等待确认(可能丢失数据)。

      • acks=1:仅 Leader 确认(默认,平衡可靠性和性能)。

      • acks=all:所有 ISR 副本确认(最高可靠性)。

3. 日志存储
  • 分段存储

    • 每个 Partition 的日志被拆分为多个 Segment(如 0000000000.log),每个 Segment 大小可配置(如 1GB)。

    • 每个 Segment 包含索引文件(.index 和 .timeindex),加速消息查找。


二、消息读取过程(Consumer ← Broker)

1. 消费者订阅与分配
  • 消费者组(Consumer Group)

    • 消费者以 Group 为单位订阅 Topic,同一 Group 内的消费者分摊 Partition。

    • 每个 Partition 只能被 Group 内的一个 Consumer 读取(实现并行消费)。

  • 分区分配策略

    • 通过 partition.assignment.strategy 配置策略(如 Range、Round-Robin、Sticky)。

2. 拉取消息(Pull 模型)
  • Offset 管理

    • Consumer 维护当前消费的 Offset(位置指针),记录在 Kafka 内部 Topic __consumer_offsets 或外部存储。

    • 消费者从当前 Offset 开始顺序读取消息。

  • 零拷贝优化

    • Broker 通过 sendfile 系统调用直接将磁盘文件发送到网络,避免数据复制到用户空间。

  • 批量拉取

    • 消费者通过 fetch.min.bytes 和 fetch.max.wait.ms 配置批量拉取消息,提升吞吐量。

3. 消息投递语义
  • 至少一次(At Least Once)

    • 消费者处理完消息后手动提交 Offset(enable.auto.commit=false)。

  • 至多一次(At Most Once)

    • 消费者自动提交 Offset,可能丢失未处理的消息。

  • 精确一次(Exactly Once)

    • 需事务支持(Producer 和 Consumer 均启用事务)。


三、关键机制保障

1. 高可用性
  • 副本机制:每个 Partition 有多个副本(Replica),Leader 故障时通过 Controller 选举新 Leader。

  • ISR 动态维护:Broker 定期检查副本同步状态,落后副本会被移出 ISR。

2. 高性能
  • 顺序 I/O:消息追加写入磁盘,避免随机访问。

  • 页缓存(Page Cache):利用操作系统缓存加速读写。

  • 批处理:Producer 和 Consumer 均支持批量操作。

3. 水平扩展
  • 分区扩容:增加 Partition 数可提升 Topic 的并行处理能力。

  • Broker 扩展:新增 Broker 可分担负载。


四、流程图解

text

写入过程:
Producer → 选择 Partition → 发送到 Leader → 顺序写入 Log → 同步到 Follower → ACK 确认读取过程:
Consumer Group → 分配 Partition → 拉取消息(从 Offset)→ 处理消息 → 提交 Offset

总结

Kafka 通过分区、副本、顺序 I/O 和批量处理等机制,实现了高吞吐、低延迟的消息传输。写入时依赖 ISR 和 ACK 机制保障可靠性,读取时通过消费者组和 Offset 管理实现灵活消费。理解这些原理有助于优化 Kafka 集群配置(如分区数、副本数、ACK 策略)和排查性能问题。

http://www.lryc.cn/news/618388.html

相关文章:

  • excel-随笔记
  • 基于Hadoop的农产品价格数据分析与可视化【Springboot】
  • 关于数据库的restful api接口工具SqlRest的使用
  • Next.js 中间件:自定义请求处理
  • 自动驾驶 HIL 测试:构建 “以假乱真” 的实时数据注入系统
  • 【Go】Gin 超时中间件的坑:fatal error: concurrent map writes
  • [java八股文][Mysql面试篇]架构
  • 虚拟机一站式部署Claude Code 可视化UI界面
  • 从裸机到云原生:Linux 操作系统实战进阶的“四维跃迁”
  • C++11-下
  • 系统架构设计师备考之架构设计实践知识
  • Perl——文件操作
  • 导入文件到iPhone实现
  • 【网站深入seo方法】
  • Rocky Linux 10 部署 Kafka 集群
  • 工业相机镜头选型
  • 云计算核心技术
  • iPhone 17 Pro 为何被指像充电宝?
  • Stereolabs ZED相机 选型指南:双目 / 单目、短距 / 长距,如何为机器人视觉系统匹配最优方案?
  • 力扣11:盛水最多的容器
  • 深入C#异步编程基石:BeginInvoke与EndInvoke全解析
  • 使用ceph-deploy安装和配置RADOS Gateway (RGW)并使用S3访问集群
  • 串口超时参数深度解析:ReadTotalTimeoutMultiplier、ReadIntervalTimeout等
  • JVM宝典
  • 在IDEA中设置SQL解析作用域解决无法解析表的问题(详细图解)
  • Docker部署kafka实操+Java中访问
  • 【KO】大厂常见问题
  • damn the jvm again(2)
  • DDIA第五章:无主复制(去中心化复制)详解
  • 华为发布AI推理新技术,降低对HBM内存依赖