当前位置: 首页 > news >正文

深入解析Kafka消息传递的可靠性保证机制

深入解析Kafka消息传递的可靠性保证机制

Kafka在设计上提供了不同层次的消息传递保证,包括at most once(至多一次)、at least once(至少一次)和exactly once(精确一次)。每种保证通过不同的机制实现,下面详细介绍Kafka如何实现这些消息传递保证。

1. At Most Once(至多一次)

在这种模式下,消息可能会丢失,但不会被重复传递。这通常发生在消费者在处理消息之前提交了偏移量,导致即使消息处理失败,也认为已经处理完成。

实现机制:

  • 消费者配置enable.auto.commit=true,并且默认提交偏移量的时间间隔较短(auto.commit.interval.ms)。
  • 消费者在处理消息之前提交偏移量,处理过程中如果发生故障,消息不会被重新处理。

2. At Least Once(至少一次)

在这种模式下,消息不会丢失,但可能会被重复传递。消费者确保在处理消息后才提交偏移量,故障恢复后会重新处理未提交偏移量的消息。

实现机制:

  • 消费者配置enable.auto.commit=false,手动提交偏移量。
  • 消费者在处理完每条消息后调用consumer.commitSync()或consumer.commitAsync()提交偏移量。

示例代码

Properties props = new Properties();
props.put("bootstrap.servers", "your_kafka_broker:9092");
props.put("group.id", "test_group");
props.put("enable.auto.commit", "false");
props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");KafkaConsumer<String, String> consumer = new KafkaConsumer<>(props);
consumer.subscribe(Arrays.asList("your_topic"));try {while (true) {ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));for (ConsumerRecord<String, String> record : records) {// 处理消息}consumer.commitSync(); // 确保消息处理后提交偏移量}
} finally {consumer.close();
}

3. Exactly Once(精确一次)

在这种模式下,消息既不会丢失也不会重复传递。Kafka通过引入幂等性生产者和事务性API来实现这种保证。

实现机制

  • 幂等性生产者:确保生产者在重试发送时不会产生重复消息。通过配置enable.idempotence=true启用幂等性。
  • 事务性生产者和消费者:确保在生产和消费过程中可以使用事务,使消息的生产和消费操作要么全部成功要么全部失败。

配置幂等性生产者

Properties props = new Properties();
props.put("bootstrap.servers", "your_kafka_broker:9092");
props.put("acks", "all");
props.put("retries", Integer.MAX_VALUE);
props.put("enable.idempotence", "true");
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");KafkaProducer<String, String> producer = new KafkaProducer<>(props);

使用事务性生产者和消费者

// 配置事务性生产者
Properties props = new Properties();
props.put("bootstrap.servers", "your_kafka_broker:9092");
props.put("acks", "all");
props.put("retries", Integer.MAX_VALUE);
props.put("enable.idempotence", "true");
props.put("transactional.id", "my-transactional-id"); // 唯一的事务ID
props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");KafkaProducer<String, String> producer = new KafkaProducer<>(props);
producer.initTransactions(); // 初始化事务try {producer.beginTransaction(); // 开始事务producer.send(new ProducerRecord<>("your_topic", "key", "value"));// 其他的发送操作producer.commitTransaction(); // 提交事务
} catch (ProducerFencedException | OutOfOrderSequenceException | AuthorizationException e) {producer.close();
} catch (KafkaException e) {producer.abortTransaction(); // 中止事务producer.close();
}

在消费者端,可以使用Kafka Streams API或者事务性消费模式确保精确一次语义。

总结

Kafka提供了不同层次的消息传递保证,通过合适的配置和使用模式,用户可以根据应用需求选择合适的保证模式:

  • At Most Once:适用于对数据丢失不敏感的应用。
  • At Least Once:适用于不能接受数据丢失但可以接受重复数据的应用。
  • Exactly Once:适用于对数据一致性要求非常高的应用。

通过合理配置生产者、消费者和broker,可以在不同场景下实现合适的消息传递保证。

http://www.lryc.cn/news/367443.html

相关文章:

  • jEasyUI 设置排序
  • MySQL之查询性能优化(十二)
  • 7-16 二分查找
  • 对Java中二维数组的深层认识
  • C++的STL 中 set.map multiset.multimap 学习使用详细讲解(含配套OJ题练习使用详细解答)
  • 【Java笔记】第10章:接口
  • Angular知识概览
  • 经典文献阅读之--Online Monocular Lane Mapping(使用Catmull-Rom样条曲线完成在线单目车道建图)
  • frida timed out
  • 51单片机-独立按键控制灯灯灯
  • 【C++】用红黑树封装map、set
  • 【中颖】SH79F9202 串口通信
  • IDEA创建Maven项目
  • [每周一更]-(第100期):介绍 goctl自动生成代码
  • 碳素钢化学成分分析 螺纹钢材质鉴定 钢材维氏硬度检测
  • C++ list链表的使用和简单模拟实现
  • dependencies?devDependencies?peerDependencies
  • 在LUAT中使用MQTT客户端,游戏脚本,办公脚本自动操作
  • 如何解决maven中snapshot相关jar无法拉取问题
  • 类似crossover的容器软件有哪些 除了crossover还有什么 Mac虚拟机替代品
  • 以sqlilabs靶场为例,讲解SQL注入攻击原理【54-65关】
  • 详解 Flink 的时间语义和 watermark
  • Unreal Engine项目结构与关卡设置详解
  • Access数据中的SQL偏移注入
  • Unity 编辑器扩展,获取目录下所有的预制件
  • 【Python】解决Python报错:ValueError: not enough values to unpack (expected 2, got 1)
  • 政安晨【零基础玩转各类开源AI项目】解析开源:gradio:改进真实虚拟试穿的扩散模型
  • 深入解读Prometheus Adapter:云原生监控的核心组件
  • 【计算机视觉】数字图像处理基础:以像素为单位的图像基本运算(点运算、代数运算、逻辑运算、几何运算、插值)
  • Spring Boot整合WebSocket和Redis实现直播间在线人数统计功能