0


搭建大型分布式服务(四十四)SpringBoot 无代码侵入实现多Kafka数据源:单分区提升至十万级消费速度!

系列文章目录


文章目录


前言

在过去的一段时间里,我们利用了AI大模型写了一个多线程并发框架,那么,我们怎样集成到Kafka组件里,让消费速度提升N倍呢?

  • 《AI大模型编写多线程并发框架(六十一):从零开始搭建框架》
  • 《AI大模型编写多线程并发框架(六十二):限流和并发度优化》
  • 《AI大模型编写多线程并发框架(六十三):监听器优化·上》
  • 《AI大模型编写多线程并发框架(六十四):监听器优化·下》
  • 《AI大模型编写多线程并发框架(六十五):发布和应用》

国籍惯例,先上源码:Github源码

一、本文要点

本文将介绍通过封装一个starter,来实现多kafka数据源的配置,通过通过源码,可以学习以下特性。系列文章完整目录

  • SpringBoot 整合多个kafka数据源
  • SpringBoot 批量消费kafka消息
  • SpringBoot 优雅地启动或停止消费kafka
  • SpringBoot kafka本地单元测试(免集群)
  • SpringBoot 利用map注入多份配置
  • SpringBoot BeanPostProcessor 后置处理器使用方式
  • SpringBoot 将自定义类注册到IOC容器
  • SpringBoot 注入bean到自定义类成员变量
  • Springboot 取消限定符
  • SpringBoot 支持消费protobuf类型的kafka消息
  • SpringBoot Aware设计模式
  • SpringBoot 获取kafka消息中的topic、offset、partition、header等参数
  • SpringBoot 使用任意生产者发送kafka消息
  • SpringBoot 配置任意数量的kafka生产者
  • SpringBoot Kafka单次batch消息内并发处理

二、开发环境

  • jdk 1.8
  • maven 3.6.2
  • springboot 2.4.3
  • kafka-client 2.6.6
  • idea 2020
  • mmc-juc 1.1

三、原项目

1、接前文,我们已经发布了Kafka组件到中央仓库,所有开发者都可以下载使用本组件。虽然本组件支持批量消费Kafka消息,但是毕竟它是串行顺序处理的,尤其涉及高IO耗时调用时,比如消费Kafka,然后读写DB多表操作这种场景,会使消费速度下降。能否并发处理这些Kafka消息呢?

答案是可以的、但我们要升级和优化一下。

四、修改项目

1、新增

ContainerConfig

接口类,用于获取多线程任务容器配置,便于后续使用Apollo、Disconf、Consul等配置中心。

publicinterfaceContainerConfig{/**
     * Get the execute rate.
     *
     * @return rate
     */intgetRate();/**
     * Get the max task count for per thread.
     *
     * @return max count
     */intgetThreshold();/**
     * The max thread count, default is numbers of processor.
     * @return count
     */defaultintgetParallelism(){returnRuntime.getRuntime().availableProcessors();}}

2、修改

MmcMultiKafkaProperties

配置类,增加容器配置;

@ToString@Data@ConfigurationProperties(prefix ="spring")publicclassMmcMultiKafkaProperties{// 省略其他代码/**
     * MmcKafkaProperties.
     */@DatastaticclassMmcKafkaProperties{// 省略其他代码/**
         * 并发设置.
         */privateContainer container =newContainer();}@DatapublicstaticclassContainerimplementsContainerConfig{/**
         * 是否启用多线程消费.
         */privateboolean enabled =true;/*
         * 消费消息的速率(每秒接收的记录数),默认值为1000.
         */privateint rate =1000;/*
         * 最小批次数量,默认为2.
         */privateint threshold =2;/*
         * 设置并行度,默认值为可用处理器数量.
         */privateint parallelism =Runtime.getRuntime().availableProcessors();}}

3、修改

MmcMultiConsumerAutoConfiguration

配置类,主要是增加inputer的初始化方法,用于后续构建多线程任务容器实例。

publicinterfaceMmcInputer{// 省略其他代码/**
     * 初始化kafka容器.
     */voidinit();}@Slf4j@Configuration@EnableConfigurationProperties(MmcMultiKafkaProperties.class)@ConditionalOnProperty(prefix ="spring.kafka", value ="enabled", matchIfMissing =true)publicclassMmcMultiConsumerAutoConfigurationextendsBaseConsumerConfiguration{// 省略其他代码@BeanpublicMmcKafkaInputerContainermmcKafkaInputerContainer(MmcKafkaProcessorFactory factory,MmcKafkaBeanPostProcessor beanPostProcessor)throwsException{// 省略其他代码// 逐个遍历,并生成consumerfor(Map.Entry<String,MmcMultiKafkaProperties.MmcKafkaProperties> entry : kafkas.entrySet()){// 省略其他代码// 是否开启if(properties.isEnabled()&&CommonUtil.isNotBlank(properties.getGroupId())){// 省略其他代码// 设置容器
                inputer.setContainer(container);
                inputer.setName(name);
                inputer.setProperties(properties);
                inputer.init();// 增加初始化// 省略其他代码}}returnnewMmcKafkaInputerContainer(inputers);}}

4、由于增加了inputer增加了init方法,所以超级父类KafkaAbstractProcessor也增加一个默认实现。

@Slf4j@SetterpublicabstractclassKafkaAbstractProcessor<T>implementsMmcInputer{// 省略其他代码@Overridepublicvoidinit(){}}

5、新增MmcKafkaParallelAbstractProcessor并发处理类,根据多线程并发框架mmc-juc的特性,配置初始化多线程任务容器,并保留很多回调函数,方便子类覆盖重写。

@Slf4j@SetterpublicabstractclassMmcKafkaParallelAbstractProcessor<T,R>extendsMmcKafkaAbstractProcessor<T>{/**
     * taskExecutor.
     */protectedMmcTaskExecutor<T,R> taskExecutor;/**
     * init.
     */publicvoidinit(){ContainerConfig config = properties.getContainer();this.taskExecutor =MmcTaskExecutor.<T,R>builder().taskProcessor(this::handelBatchDatas).threshold(config.getThreshold()).rateLimiter(buildRateLimiter(config.getRate())).taskMerger(this::mergeResult).forkJoinPoolConcurrency(config.getParallelism()).build();}@OverrideprotectedvoiddealMessage(List<T> datas)throwsExecutionException,InterruptedException{if(properties.getContainer().isEnabled()){// 开启并发处理R result = taskExecutor.execute(MmcTask.<T,R>builder().taskSource(datas).taskName(getTaskName(datas)).build());dealMessageCallBack(result);}else{// 同步处理R result =handelBatchDatas(datas);dealMessageCallBack(result);}}/**
     * 合并小任务结果(默认不合并).
     *
     * @param left 左边处理结果
     * @param right 右边处理结果
     * @return 合并后的结果
     */protectedRmergeResult(R left,R right){returnnull;}/**
     * 构建速率限制器.
     *
     * @param rate qps
     * @return 速率限制器
     */protectedRateLimiterbuildRateLimiter(int rate){returnnewTokenBucket(rate, rate);}/**
     * 当所有消息处理完后,会调用该方法.
     *
     * @param result 处理结果
     */protectedvoiddealMessageCallBack(R result){// default null}/**
     * 获取任务名称.
     */protectedStringgetTaskName(List<T> datas){return name;}/**
     * 真正处理消息的方法.
     *
     * @param datas 待处理消息
     * @return 小任务处理完的结果
     */protectedabstractRhandelBatchDatas(List<T> datas);}

五、测试一下

1、引入mmc-juc需要的jar。参考文章:kafka单元测试

<dependency><groupId>io.github.vipjoey</groupId><artifactId>mmc-juc</artifactId><version>1.1</version></dependency>

2、增加并发消费者配置,生产者配置不变。

## json消息消费者
spring.kafka.five.enabled=true
spring.kafka.five.consumer.bootstrapServers=${spring.embedded.kafka.brokers}
spring.kafka.five.topic=mmc-topic-five
spring.kafka.five.group-id=group-consumer-five
spring.kafka.five.processor=fiveProcessor
spring.kafka.five.duplicate=true
spring.kafka.five.snakeCase=false
spring.kafka.five.consumer.auto-offset-reset=latest
spring.kafka.five.consumer.max-poll-records=10
spring.kafka.five.consumer.value-deserializer=org.apache.kafka.common.serialization.StringDeserializer
spring.kafka.five.consumer.key-deserializer=org.apache.kafka.common.serialization.StringDeserializer
## 并发配置
spring.kafka.five.container.threshold=2
spring.kafka.five.container.rate=1000
spring.kafka.five.container.parallelism=8

## json消息生产者
spring.kafka.five.enabled=true
spring.kafka.five.producer.name=fiveKafkaSender
spring.kafka.five.producer.bootstrap-servers=${spring.embedded.kafka.brokers}
spring.kafka.five.producer.key-serializer=org.apache.kafka.common.serialization.StringSerializer
spring.kafka.five.producer.value-serializer=org.apache.kafka.common.serialization.StringSerializer

3、编写测试类。

@Slf4j@Service("fiveProcessor")publicclassFiveProcessorextendsMmcKafkaParallelAbstractProcessor<ParalleMsg,Void>{@OverrideprotectedVoidhandelBatchDatas(List<ParalleMsg> datas){
        datas.forEach(x ->{
            log.info("handelBatchDatas one: {}", x);});returnnull;}}@Slf4j@ActiveProfiles("dev")@ExtendWith(SpringExtension.class)@SpringBootTest(classes ={MmcMultiProducerAutoConfiguration.class,MmcMultiConsumerAutoConfiguration.class,FiveProcessor.class})@TestPropertySource(value ="classpath:application-paralle.properties")@DirtiesContext@EmbeddedKafka(partitions =1, brokerProperties ={"listeners=PLAINTEXT://localhost:9092","port=9092"},
        topics ={"${spring.kafka.five.topic}"})publicclassKafkaParalleMessageTest{@Value("${spring.kafka.five.topic}")privateString fiveTopic;@Resource(name ="fiveKafkaSender")privateMmcKafkaSender mmcKafkaSender;@TestvoidtestDealMessage()throwsException{Thread.sleep(2*1000);// 模拟生产数据produceMessage();Thread.sleep(10*1000);}voidproduceMessage(){for(int i =0; i <10; i++){DemoMsg msg =newDemoMsg();
            msg.setRoutekey("routekey"+ i);
            msg.setName("name"+ i);
            msg.setTimestamp(System.currentTimeMillis());String json =JsonUtil.toJsonStr(msg);

            mmcKafkaSender.sendStringMessage(fiveTopic,"aaa", json);}}}

5、运行一下,测试通过,可以看到能正常发送消息和消费。
在这里插入图片描述

五、小结

将本项目代码构建成starter,就可以大大提升我们开发效率,我们只需要关心业务代码的开发,github项目源码:轻触这里。如果对你有用可以打个星星哦。

  • 《搭建大型分布式服务(三十六)SpringBoot 零代码方式整合多个kafka数据源》
  • 《搭建大型分布式服务(三十七)SpringBoot 整合多个kafka数据源-取消限定符》
  • 《搭建大型分布式服务(三十八)SpringBoot 整合多个kafka数据源-支持protobuf》
  • 《搭建大型分布式服务(三十九)SpringBoot 整合多个kafka数据源-支持Aware模式》
  • 《搭建大型分布式服务(四十)SpringBoot 整合多个kafka数据源-支持生产者》
  • 《搭建大型分布式服务(四十一)SpringBoot 整合多个kafka数据源-支持亿级消息生产者》
  • 《搭建大型分布式服务(四十二)SpringBoot 无代码侵入实现多Kafka数据源整合插件发布》
  • 《搭建大型分布式服务(四十三)SpringBoot 多Kafka数据源发布到Maven中央仓库:让世界看到你的作品!》
  • 《搭建大型分布式服务(四十四)SpringBoot 无代码侵入实现多Kafka数据源:单分区提升至十万级消费速度!》

加我加群一起交流学习!更多干货下载、项目源码和大厂内推等着你


本文转载自: https://blog.csdn.net/hanyi_/article/details/141788426
版权归原作者 hanyi_ 所有, 如有侵权,请联系我们删除。

“搭建大型分布式服务(四十四)SpringBoot 无代码侵入实现多Kafka数据源:单分区提升至十万级消费速度!”的评论:

还没有评论