0


Spring Cloud Stream与Kafka(一)

Spring Cloud Stream与Kafka(一)

​ 在实际开发过程中,消息中间件用于解决应用解耦,异步消息,流量削峰等问题,实现高可用、高性能、可伸缩和最终一致性架构。不同的消息中间件实现方式不同,内部结构是不一样的。比如常见的RabbitMQ和Kafka,RabbitMQ有exchange,kafka有topic、partition,这些中间件的差异性导致我们在实际项目开发过程中造成了一定的干扰。如果采用了其中的一种,后面的业务需求,我想往另一种消息队列迁移,有一堆东西需要重做。Spring Cloud Stream是一种解耦的方式。

文章目录

简单介绍

  1. Spring Cloud Stream是由一个中间件中立的核心组成,应用通过Spring Cloud Stream插入的input(相当于消费者)和output(相当于生产者)通道与外界交流。通道通过指定中间件的Binder与外部代理连接,业务开发者不需要关注具体的消息中间件,只需要关注Binder对应程序提供的抽象概念来使用中间件实现业务就可以了。Spring Cloud Stream许多抽象和原语,简化了消息驱动微服务应用程序的开发。

SCSt-with-binder

  • 最底层是消息服务,中间层是绑定层,绑定层和底层的消息服务进行绑定,顶层是消息生产者和消费者,顶层可以向绑定层生产消费、获取消息。
  1. Binder绑定器作为中间层,实现了应用程序与消息中间件细节之间的隔离。通过向应用程序暴露统一的Channel通道,使得应用程序不需要考虑具体的中间件实现。当需要升级或更换中间件产品时,我们要做的就是更换对应的Binder绑定器而不需要修改任何应用逻辑。
  2. 在Spring Cloud Stream中的消息通信方式遵循发布订阅模式,当一条消息被投递到消息中间件后,它会通过共享的主题进行广播,消费者在订阅的主题收到消息后触发自身的业务逻辑处理。这里的主题是抽象概念,代表发布共享消息给消费者的地方。在不同的消息中间中,主题可能对应着不同的概念。
  3. Destination Binders是负责提供与外部消息系统集成的组件。Destination Bindings是外部消息系统和最终用户提供的应用程序代码(生产者/消费者)之间的桥梁。Message是生产者和消费者用于与目标绑定器通信的规范化数据结构。

Kafka实例

  1. 分别创建生产者kafka-producer和消费者kafka-consumer,引入依赖。
<dependencies><dependency><groupId>org.springframework.cloud</groupId><artifactId>spring-cloud-starter-stream-kafka</artifactId></dependency></dependencies>
生产者
  1. 添加配置文件application.yml
spring:cloud:stream:kafka:binder:# 绑定器brokers: 192.168.182.171:9092# broker的IP和端口application:name: kafka-provider

server:port:8301
  1. 添加启动类
packageorg.lxx.stream.kafka.producer;importorg.springframework.boot.SpringApplication;importorg.springframework.boot.autoconfigure.SpringBootApplication;@SpringBootApplicationpublicclassKafkaProducerApplication{publicstaticvoidmain(String[] args){SpringApplication.run(KafkaProducerApplication.class, args);}}
  1. 添加配置文件
packageorg.lxx.stream.kafka.producer.config;importorg.springframework.cloud.stream.annotation.Output;importorg.springframework.messaging.SubscribableChannel;importorg.springframework.stereotype.Component;@ComponentpublicinterfaceMyProcessor{StringMESSAGE_OUTPUT="log_output";//在Kafka中创建主题log_output@Output(MESSAGE_OUTPUT)SubscribableChannellogOutput();}
  1. 创建实体类
packageorg.lxx.stream.kafka.producer.entity;importlombok.Data;importjava.util.Date;@DatapublicclassLogInfo{privateString clientVersion;privateString userId;privateString clientIP;privateDate time;}
  1. 创建控制器
packageorg.lxx.stream.kafka.producer.controller;importlombok.extern.slf4j.Slf4j;importorg.lxx.stream.kafka.producer.config.MyProcessor;importorg.lxx.stream.kafka.producer.entity.LogInfo;importorg.springframework.cloud.stream.annotation.EnableBinding;importorg.springframework.messaging.Message;importorg.springframework.messaging.support.MessageBuilder;importorg.springframework.web.bind.annotation.GetMapping;importorg.springframework.web.bind.annotation.RestController;importjavax.annotation.Resource;importjava.sql.Date;importjava.time.Instant;@Slf4j@RestController@EnableBinding(value ={MyProcessor.class})publicclassMessageController{@ResourceprivateMyProcessor myProcessor;@GetMapping("sendLogMessage")publicvoidsendLogMessage(String message){Message<String> strMessage =MessageBuilder.withPayload(message).build();
        myProcessor.logOutput().send(strMessage);}@GetMapping("sendObjLogMessage")publicvoidsendObjLogMessage(){LogInfo logInfo =newLogInfo();
        logInfo.setClientIP("192.168.1.111");
        logInfo.setClientVersion("1.0");
        logInfo.setUserId("198663383837434");
        logInfo.setTime(Date.from(Instant.now()));Message<LogInfo> strMessage =MessageBuilder.withPayload(logInfo).build();
        myProcessor.logOutput().send(strMessage);}}
消费者
  1. 添加配置文件application.yml
spring:cloud:stream:kafka:binder:# 绑定器brokers: 192.168.182.171:9092# broker的IP和端口application:name: kafka-consumer

server:port:8302
  1. 添加启动类
packageorg.lxx.stream.kafka.consumer;importorg.lxx.stream.kafka.consumer.config.MyProcessor;importorg.springframework.boot.SpringApplication;importorg.springframework.boot.autoconfigure.SpringBootApplication;importorg.springframework.cloud.stream.annotation.EnableBinding;@EnableBinding(value =MyProcessor.class)@SpringBootApplicationpublicclassKafkaConsumerApplication{publicstaticvoidmain(String[] args){SpringApplication.run(KafkaConsumerApplication.class, args);}}
  1. 添加配置类
packageorg.lxx.stream.kafka.consumer.config;importorg.springframework.cloud.stream.annotation.Input;importorg.springframework.cloud.stream.annotation.Output;importorg.springframework.messaging.SubscribableChannel;importorg.springframework.stereotype.Component;@ComponentpublicinterfaceMyProcessor{StringMESSAGE_INPUT="log_input";StringMESSAGE_OUTPUT="log_output";StringLOG_FORMAT_INPUT="log_format_input";StringLOG_FORMAT_OUTPUT="log_format_output";@Input(MESSAGE_INPUT)SubscribableChannellogInput();@Output(MESSAGE_OUTPUT)SubscribableChannellogOutput();@Input(LOG_FORMAT_INPUT)SubscribableChannellogFormatInput();@Output(LOG_FORMAT_OUTPUT)SubscribableChannellogFormatOutput();}
  1. 添加监听器
packageorg.lxx.stream.kafka.consumer.service;importlombok.extern.slf4j.Slf4j;importorg.lxx.stream.kafka.consumer.config.MyProcessor;importorg.springframework.cloud.stream.annotation.StreamListener;importorg.springframework.messaging.handler.annotation.SendTo;importorg.springframework.stereotype.Component;@Slf4j@ComponentpublicclassMessageListener{@StreamListener(MyProcessor.MESSAGE_INPUT)@SendTo(MyProcessor.LOG_FORMAT_OUTPUT)publicStringprocessLogMessage(String message){//通过MyProcessor.MESSAGE_INPUT接收消息//然后通过SendTo把处理后的消息发送到MyProcessor.LOG_FORMAT_OUTPUT
        log.info("GET Message:"+ message);return message;}@StreamListener(MyProcessor.LOG_FORMAT_INPUT)publicvoidprocessFormatLogMessage(String message){//接收来自MyProcessor.LOG_FORMAT_INPUT 的消息//也就是SendTo发送的加工后的消息
        log.info("接收到格式化后的消息:"+ message);}}
标签: kafka 分布式

本文转载自: https://blog.csdn.net/dolly_baby/article/details/141570536
版权归原作者 快乐江小鱼 所有, 如有侵权,请联系我们删除。

“Spring Cloud Stream与Kafka(一)”的评论:

还没有评论