0


Kafka-Java四:Spring配置Kafka消费者提交Offset的策略

一、Kafka消费者提交Offset的策略

Kafka消费者提交Offset的策略有

  1. 自动提交Offset: 1. 消费者将消息拉取下来以后未被消费者消费前,直接自动提交offset。2. 自动提交可能丢失数据,比如消息在被消费者消费前已经提交了offset,有可能消息拉取下来以后,消费者挂了
  2. 手动提交Offset 1. 消费者在消费消息时/后,再提交offset,在消费者中实现2. 手动提交Offset分为:手动同步提交、手动异步提交
  3. 什么是Offset 1. 参考文章:Linux:【Kafka三】组件介绍

二、自动提交策略

  1. Kafka消费者默认是自动提交Offset的策略
  2. 可设置自动提交的时间间隔
  1. package com.demo.lxb.kafka;
  2. import org.apache.kafka.clients.consumer.ConsumerConfig;
  3. import org.apache.kafka.clients.consumer.ConsumerRecord;
  4. import org.apache.kafka.clients.consumer.ConsumerRecords;
  5. import org.apache.kafka.clients.consumer.KafkaConsumer;
  6. import org.apache.kafka.common.serialization.StringSerializer;
  7. import java.time.Duration;
  8. import java.util.Arrays;
  9. import java.util.Properties;
  10. /**
  11. * @Description: kafka消费者消费消息,自动提交offset
  12. * @Author: lvxiaobu
  13. * @Date: 2023-10-24 16:26
  14. **/
  15. public class MyConsumerAutoSubmitOffset {
  16. private final static String CONSUMER_GROUP_NAME = "GROUP1";
  17. private final static String TOPIC_NAME = "topic0921";
  18. public static void main(String[] args) {
  19. Properties props = new Properties();
  20. // 一、设置参数
  21. // 配置kafka地址
  22. // props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,
  23. // "192.168.151.28:9092"); // 单机配置
  24. props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,
  25. "192.168.154.128:9092,192.168.154.128:9093,192.168.154.128:9094"); // 集群配置
  26. // 配置消息 键值的序列化规则
  27. props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
  28. props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
  29. // 配置消费者组
  30. props.put(ConsumerConfig.GROUP_ID_CONFIG,CONSUMER_GROUP_NAME);
  31. // 设置消费者offset的提交方式
  32. // 自动提交:默认配置
  33. props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"true");
  34. // 自动提交offset的时间间隔
  35. props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG,"1000");
  36. // 二、创建消费者
  37. KafkaConsumer<String,String> consumer = new KafkaConsumer<String,String>(props);
  38. // 三、消费者订阅主题
  39. consumer.subscribe(Arrays.asList(TOPIC_NAME));
  40. // 四、拉取消息,开始消费
  41. while (true){
  42. // 从kafka集群中拉取消息
  43. ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(1000));
  44. // 消费消息,当前是自动提交模式,在消息上一行消息被拉取下来以后,offset就自动被提交了,下面的代码如果出错,或者此时
  45. // 消费者挂掉了,那么消费其实是没有进行消费的(也就是业务逻辑处理)
  46. for (ConsumerRecord<String, String> record : records) {
  47. System.out.println("接收到的消息: 分区: " + record.partition() + ", offset: " + record.offset()
  48. + ", key值: " + record.key() + " , value值: "+record.value());
  49. }
  50. }
  51. }
  52. }

上述代码中的如下代码是自动提交策略的相关设置

  1. // 设置消费者offset的提交方式
  2. // 自动提交:默认配置
  3. props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"true");
  4. // 自动提交offset的时间间隔
  5. props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG,"1000");

三、手动提交策略

3.1、手动同步提交策略

  1. 手动同步提交,会在提交offset处阻塞。当消费者接收到 kafka集群返回的消费者提交offset成功的ack后,才开始执行消费者中后续的代码。
  2. 因为使用异步提交容易丢失消息,固一般使用同步提交,在同步提交后不要再做其他逻辑处理。
  1. package com.demo.lxb.kafka;
  2. import org.apache.kafka.clients.consumer.ConsumerConfig;
  3. import org.apache.kafka.clients.consumer.ConsumerRecord;
  4. import org.apache.kafka.clients.consumer.ConsumerRecords;
  5. import org.apache.kafka.clients.consumer.KafkaConsumer;
  6. import org.apache.kafka.common.serialization.StringSerializer;
  7. import java.time.Duration;
  8. import java.util.Arrays;
  9. import java.util.Properties;
  10. /**
  11. * @Description: kafka消费者消费消息,手动同步提交offset
  12. * @Author: lvxiaobu
  13. * @Date: 2023-10-24 16:26
  14. **/
  15. public class MyConsumerMauSubmitOffset {
  16. private final static String CONSUMER_GROUP_NAME = "GROUP1";
  17. private final static String TOPIC_NAME = "topic0921";
  18. public static void main(String[] args) {
  19. Properties props = new Properties();
  20. // 一、设置参数
  21. // 配置kafka地址
  22. // props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,
  23. // "192.168.151.28:9092"); // 单机配置
  24. props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,
  25. "192.168.154.128:9092,192.168.154.128:9093,192.168.154.128:9094"); // 集群配置
  26. // 配置消息 键值的序列化规则
  27. props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
  28. props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
  29. // 配置消费者组
  30. props.put(ConsumerConfig.GROUP_ID_CONFIG,CONSUMER_GROUP_NAME);
  31. // 设置消费者offset的提交方式
  32. // 手动提交offset
  33. props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"false");
  34. // 自动提交offset的时间间隔:此时不再需要设置该值
  35. // props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG,"1000");
  36. // 二、创建消费者
  37. KafkaConsumer<String,String> consumer = new KafkaConsumer<String,String>(props);
  38. // 三、消费者订阅主题
  39. consumer.subscribe(Arrays.asList(TOPIC_NAME));
  40. // 四、拉取消息,开始消费
  41. while (true){
  42. // 从kafka集群中拉取消息
  43. ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(1000));
  44. // 业务逻辑处理
  45. for (ConsumerRecord<String, String> record : records) {
  46. System.out.println("接收到的消息: 分区: " + record.partition() + ", offset: " + record.offset()
  47. + ", key值: " + record.key() + " , value值: "+record.value());
  48. }
  49. // 当for循环业务逻辑处理结束以后,再手动提交offset
  50. // 同步方式提交,此时会产生阻塞,当kafka集群返回了提交成功的ack以后,才会消除阻塞,进行后续的代码逻辑。
  51. // 一般使用同步提交,在同步提交后不再做其他逻辑处理
  52. consumer.commitAsync();
  53. // do anything
  54. }
  55. }
  56. }

3.2、手动异步提交策略

  1. 异步提交,不会在提交offset代码处阻塞,即消费者提交了offset后,不需要等待kafka集群返回的ack即可继续执行后续代码。但是在提交offset时需要提供一个回调方法,供kafka集群回调,来告诉消费者提交offset的结果。
  1. package com.demo.lxb.kafka;
  2. import com.alibaba.fastjson.JSONObject;
  3. import org.apache.kafka.clients.consumer.*;
  4. import org.apache.kafka.common.TopicPartition;
  5. import org.apache.kafka.common.serialization.StringSerializer;
  6. import java.time.Duration;
  7. import java.util.Arrays;
  8. import java.util.Map;
  9. import java.util.Properties;
  10. /**
  11. * @Description: kafka消费者消费消息,手动异步提交offset
  12. * @Author: lvxiaobu
  13. * @Date: 2023-10-24 16:26
  14. **/
  15. public class MyConsumerMauSubmitOffset2 {
  16. private final static String CONSUMER_GROUP_NAME = "GROUP1";
  17. private final static String TOPIC_NAME = "topic0921";
  18. public static void main(String[] args) {
  19. Properties props = new Properties();
  20. // 一、设置参数
  21. // 配置kafka地址
  22. // props.put(ProducerConfig.BOOTSTRAP_SERVERS_CONFIG,
  23. // "192.168.151.28:9092"); // 单机配置
  24. props.put(ConsumerConfig.BOOTSTRAP_SERVERS_CONFIG,
  25. "192.168.154.128:9092,192.168.154.128:9093,192.168.154.128:9094"); // 集群配置
  26. // 配置消息 键值的序列化规则
  27. props.put(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG, StringSerializer.class.getName());
  28. props.put(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,StringSerializer.class.getName());
  29. // 配置消费者组
  30. props.put(ConsumerConfig.GROUP_ID_CONFIG,CONSUMER_GROUP_NAME);
  31. // 设置消费者offset的提交方式
  32. // 手动提交offset
  33. props.put(ConsumerConfig.ENABLE_AUTO_COMMIT_CONFIG,"false");
  34. // 自动提交offset的时间间隔:此时不再需要设置该值
  35. // props.put(ConsumerConfig.AUTO_COMMIT_INTERVAL_MS_CONFIG,"1000");
  36. // 二、创建消费者
  37. KafkaConsumer<String,String> consumer = new KafkaConsumer<String,String>(props);
  38. // 三、消费者订阅主题
  39. consumer.subscribe(Arrays.asList(TOPIC_NAME));
  40. // 四、拉取消息,开始消费
  41. while (true){
  42. // 从kafka集群中拉取消息
  43. ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(1000));
  44. for (ConsumerRecord<String, String> record : records) {
  45. System.out.println("接收到的消息: 分区: " + record.partition() + ", offset: " + record.offset()
  46. + ", key值: " + record.key() + " , value值: "+record.value());
  47. }
  48. // 异步提交,不影响后续的内容。
  49. // new OffsetCommitCallback是kafka集群会回调的方法,告诉消费者提交offset的结果
  50. consumer.commitAsync(new OffsetCommitCallback() {
  51. @Override
  52. public void onComplete(Map<TopicPartition, OffsetAndMetadata> map, Exception e) {
  53. if(e != null){
  54. // 可将提交失败的消息记录到日志
  55. System.out.println("记录提交offset失败的消息到日志");
  56. System.out.println("消费者提交offset抛出异常:" + Arrays.toString(e.getStackTrace()));
  57. System.out.println("消费者提交offset异常的消息信息:" + JSONObject.toJSONString(map));
  58. }
  59. }
  60. });
  61. // 后续逻辑处理,不需要等到kafka集群返回了提交成功的ack以后才开始处理。
  62. //do anything
  63. }
  64. }
  65. }
标签: java kafka spring

本文转载自: https://blog.csdn.net/qq_36769100/article/details/134029496
版权归原作者 叫我吕小布 所有, 如有侵权,请联系我们删除。

“Kafka-Java四:Spring配置Kafka消费者提交Offset的策略”的评论:

还没有评论