0


【Kafka】超详细介绍

文章目录

概念

Kafka 是消息引擎(Messaging System),其是一组规范。企业利用这组规范在不同系统之间传递语义准确的消息,实现松耦合的异步式数据传递。

实现的目标,就是 系统A 发消息给 消息引擎,系统B 从消息引擎读取 A发送的消息。

Kafka 用二进制存储数据。其同时支持点对点模型、发布/订阅模型两种。

  • 点对点模型:也叫消息队列模型。如果拿上面那个“民间版”的定义来说,那么系统 A 发送的消息只能被系统 B 接收,其他任何系统都不能读取 A 发送的消息。日常生活的例子比如电话客服就属于这种模型:同一个客户呼入电话只能被一位客服人员处理,第二个客服人员不能为该客户服务。
  • 发布 / 订阅模型:与上面不同的是,它有一个主题(Topic)的概念,你可以理解成逻辑语义相近的消息容器。该模型也有发送方和接收方,只不过提法不同。发送方也称为发布者(Publisher),接收方称为订阅者(Subscriber)。和点对点模型不同的是,这个模型可能存在多个发布者向相同的主题发送消息,而订阅者也可能存在多个,它们都能接收到相同主题的消息。生活中的报纸订阅就是一种典型的发布 / 订阅模型。

消息引擎的作用:

  • 削峰填谷:缓冲上下游瞬时突发流量,使其更平滑。特别是对于那种发送能力很强的上游系统,如果没有消息引擎的保护,“脆弱”的下游系统可能会直接被压垮导致全链路服务“雪崩”。但是,一旦有了消息引擎,它能够有效地对抗上游的流量冲击,真正做到将上游的“峰”填满到“谷”中,避免了流量的震荡。
  • 发送方和接收方的松耦合,这也在一定程度上简化了应用的开发,减少了系统间不必要的交互。

名词术语如下:

  • 消息:Record。Kafka 是消息引擎嘛,这里的消息就是指 Kafka 处理的主要对象。
  • 主题:Topic。主题是承载消息的逻辑容器,在实际使用中多用来区分具体的业务。
  • 分区:Partition。一个有序不变的消息序列。每个主题下可以有多个分区。
  • 消息位移:Offset。表示分区中每条消息的位置信息,是一个单调递增且不变的值。
  • 副本:Replica。Kafka 中同一条消息能够被拷贝到多个地方以提供数据冗余,这些地方就是所谓的副本。副本还分为领导者副本和追随者副本,各自有不同的角色划分。副本是在分区层级下的,即每个分区可配置多个副本实现高可用。
  • 生产者:Producer。向主题发布新消息的应用程序。
  • 消费者:Consumer。从主题订阅新消息的应用程序。
  • 消费者位移:Consumer Offset。表征消费者消费进度,每个消费者都有自己的消费者位移。
  • 消费者组:Consumer Group。多个消费者实例共同组成的一个组,同时消费多个分区以实现高吞吐。
  • 重平衡:Rebalance。消费者组内某个消费者实例挂掉后,其他消费者实例自动重新分配订阅主题分区的过程。Rebalance 是 Kafka 消费者端实现高可用的重要手段。

在这里插入图片描述

Kafka的副本为何不允许对外提供服务?

  • 如果允许follower副本对外提供读服务(主写从读),首先会存在数据一致性的问题,消息从主节点同步到从节点需要时间,可能造成主从节点的数据不一致。主写从读无非就是为了减轻leader节点的压力,将读请求的负载均衡到follower节点,如果Kafka的分区相对均匀地分散到各个broker上,同样可以达到负载均衡的效果,没必要刻意实现主写从读增加代码实现的复杂程度

Consumer Group:

  • 在一个消费者组下,一个分区只能被一个消费者消费,但一个消费者可能被分配多个分区,因而在提交位移时也就能提交多个分区的位移。
  • 如果Consumer Group内 consumer的数量 > partition 的数量,则有一个消费者将无法分配到任何分区,处于idle状态。

Producer:

  • 如果producer指定了要发送的目标分区,消息自然是去到那个分区;否则就按照producer端参数partitioner.class指定的分区策略来定;如果你没有指定过partitioner.class,那么默认的规则是:看消息是否有key,如果有则计算key的murmur2哈希值%topic分区数;如果没有key,按照轮询的方式确定分区。

监控:

  • JMXTrans + InfluxDB + Grafana(推荐)
  • Kafka manager
  • kafka eagle

部署方案

磁盘

根据保留的消息数量,预估磁盘占用:

  • 新增消息数
  • 消息留存时间
  • 平均消息大小
  • 备份数
  • 是否启用压缩
假设你所在公司有个业务每天需要向 Kafka 集群发送 1 亿条消息,每条消息保存两份以防止数据丢失,另外消息默认保存两周时间。现在假设消息的平均大小是 1KB,那么你能说出你的 Kafka 集群需要为这个业务预留多少磁盘空间吗?

我们来计算一下:每天 1 亿条 1KB 大小的消息,保存两份且留存两周的时间,那么总的空间大小就等于 1 亿 * 1KB * 2 / 1000 / 1000= 200GB。一般情况下 Kafka 集群除了消息数据还有其他类型的数据,比如索引数据等,故我们再为这些数据预留出 10% 的磁盘空间,因此总的存储容量就是 220GB。既然要保存两周,那么整体容量即为 220GB * 14,大约 3TB 左右。Kafka 支持数据的压缩,假设压缩比是 0.75,那么最后你需要规划的存储空间就是 0.75 * 3=2.25TB。

网络

根据QPS和带宽,预估服务器数量:(注意:业界带宽资源一般用Mbps而不是MBps衡量)

假设你公司的机房环境是千兆网络,即 1Gbps,现在你有个业务,其业务目标或 SLA 是在 1 小时内处理 1TB 的业务数据。那么问题来了,你到底需要多少台 Kafka 服务器来完成这个业务呢?

让我们来计算一下,由于带宽是 1Gbps,即每秒处理 1Gb 的数据,假设每台 Kafka 服务器都是安装在专属的机器上,也就是说每台 Kafka 机器上没有混布其他服务,毕竟真实环境中不建议这么做。通常情况下你只能假设 Kafka 会用到 70% 的带宽资源,因为总要为其他应用或进程留一些资源。

根据实际使用经验,超过 70% 的阈值就有网络丢包的可能性了,故 70% 的设定是一个比较合理的值,也就是说单台 Kafka 服务器最多也就能使用大约 700Mb 的带宽资源。

稍等,这只是它能使用的最大带宽资源,你不能让 Kafka 服务器常规性使用这么多资源,故通常要再额外预留出 2/3 的资源,即单台服务器使用带宽 700Mb / 3 ≈ 240Mbps。需要提示的是,这里的 2/3 其实是相当保守的,你可以结合你自己机器的使用情况酌情减少此值。

好了,有了 240Mbps,我们就可以计算 1 小时内处理 1TB 数据所需的服务器数量了。根据这个目标,我们每秒需要处理 2336Mb 的数据,除以 240,约等于 10 台服务器。如果消息还需要额外复制两份,那么总的服务器台数还要乘以 3,即 30 台。

CPU

通常情况下Kafka不太占用CPU,因此没有这方面的最佳实践出来。但有些情况下Kafka broker是很耗CPU的:

  1. server和client使用了不同的压缩算法;
  2. server和client版本不一致造成消息格式转换;3
  3. broker端解压缩校验

不过相比带宽资源,CPU通常都不是瓶颈

partition的数量

网上有一些分区制定的建议,我觉得这个粗粒度的方法就很好,值得一试:

  1. 首先你要确定你业务的SLA,比如说你希望你的producer TPS是10万条消息/秒,假设是T1
  2. 在你的真实环境中创建一个单分区的topic测试一下TPS,假设是T2
  3. 你需要的分区数大致可以等于T1 / T2

命令

2.2以上用–bootstrap-server, 2.2以下用–zookeeper

查看版本

cd kafka/libs
其中有kafka_2.12-2.8.0.jar,则版本为2.8.0

找kafka和zookeeper的ip/port

root@master~# kubectl get svc -n kafka -o wide
NAME        TYPE        CLUSTER-IP      EXTERNAL-IP   PORT(S)             AGE   SELECTOR
bootstrap   ClusterIP   10.109.83.55    <none>9092/TCP            15d   app=kafka
broker      ClusterIP   None            <none>9092/TCP            15d   app=kafka
outside-0   NodePort    10.108.34.0     <none>32400:32400/TCP     15d   app=kafka,kafka-broker-id=0
outside-1   NodePort    10.104.65.215   <none>32401:32401/TCP     15d   app=kafka,kafka-broker-id=1
outside-2   NodePort    10.99.118.241   <none>32402:32402/TCP     15d   app=kafka,kafka-broker-id=2
pzoo        ClusterIP   None            <none>2888/TCP,3888/TCP   15d   app=zookeeper,storage=persistent
zoo         ClusterIP   None            <none>2888/TCP,3888/TCP   15d   app=zookeeper,storage=persistent-regional
zookeeper   ClusterIP   10.103.22.130   <none>2181/TCP            15d   app=zookeeper

topic

  • 如果遇到client向某些topic建立producer时报错kafka: client has run out of available brokers to talk to (Is your cluster reachable?), 可以手动删掉topic再手动重建topic

创建 topic

./kafka-topics.sh --zookeeper 10.103.22.130:2181 --create --topic ttt1 --partitions 1 --replication-factor 1

查看

get topic 列表

./kafka-topics.sh  --list --bootstrap-server 192.168.2.165:9092
./kafka-topics.sh --zookeeper 10.103.22.130:2181/kafka --list

# out
__consumer_offsets
topic1
kafka-image-topic2

get topic 详情

./kafka-topics.sh --zookeeper 10.103.22.130:2181 --describe --topic topic-a

修改topic

修改分区级别参数(如增加partition)

./kafka-topics.sh --zookeeper 10.103.22.130:2181 --alter --topic ttt1 --partitions 2## out
WARNING: If partitions are increased for a topic that has a key, the partition logic or ordering of the messages will be affected
Adding partitions succeeded

删除topic

  • 前提是把kafka配置文件server.properties中的delete.topic.enable设置为true
./kafka-topics.sh --zookeeper 192.168.2.165:2181 --delete  --topic <topic_name>

设置消息大小上限

  • topic级别静态参数用–zookeeper, 动态参数才用–bootstrap-server
./kafka-configs.sh --zookeeper 10.103.22.130:2181 --entity-type topics --entity-name ttt1 --alter --add-config max.message.bytes=10485760## out
Completed Updating config for entity: topic 'ttt1'.

生产

查看生产

./kafka-console-producer.sh --broker-list 192.168.2.158:9092 --topic topic-a

生产消息

./kafka-console-producer.sh --topic topic-a --bootstrap-server broker:9092
> 进站去重车数据如下:
>{"Ts":1677507305663,"Data":"99990000","Info":1080}}

参考

查看消费

server

# 输入
   ./kafka-console-consumer.sh --bootstrap-server 192.168.2.111:9092  --from-beginning --topic topic-a --property print.timestamp=true

或 ./kafka-console-consumer.sh --zookeeper        127.0.0.1:2181/kafka --topic topic-a
```bash
zk启动 brew services start zookeeper或zkServer start
/usr/local/Cellar/kafka/2.4.0/libexec/bin

查看 offset

如果希望根据时间,找offset,可以有如下方法:

  • 找到指定时间的 *.index 和 *.log 文件,文件名即为 offset。
-rw-r--r--  1 root root       43 Nov 282021 partition.metadata
-rw-r--r--  1 root root       10 Nov  812:30 00000000000000380329.snapshot
-rw-r--r--  1 root root 10485756 Nov  812:31 00000000000000380329.timeindex
-rw-r--r--  1 root root 10485760 Nov  812:31 00000000000000380329.index
drwxr-xr-x  2 root root     4096 Nov  812:31 ./
-rw-r--r--  1 root root     3622 Nov  812:33 00000000000000380329.log
drwxr-xr-x 77 root root     4096 Nov  812:34 ../

查看积压

server

# 输入cd ~/deep/kafka/kafka/bin
watch -n 1 ./kafka-consumer-groups.sh --bootstrap-server 192.168.2.111:9092 --describe --group topic-a

# 输出:其中lag有值表示积压。
Note: This will only show information about consumers that use the Java consumer API (non-ZooKeeper-based consumers).
TOPIC                          PARTITION  CURRENT-OFFSET  LOG-END-OFFSET  LAG        CONSUMER-ID                                       HOST                           CLIENT-ID
topic-a                 01599551599550          UBUNTU.local-61e8b3d0-1456-49ce-8656-fe18cab4026a    

client has run out of available brokers to talk to (Is your cluster reachable?)报错的调试

  • kafka基于zookeeper做一致性校验,一个topic必须对应一个broker才行,如果importer出现报错 [ERROR] kafka %v create producer failed:client has run out of available brokers to talk to (Is your cluster reachable?) 的话,可能是kafka有问题,可能是因为offset不一致导致紊乱,比较暴力的方式是删掉zookeeper和kafka的日志。

原理

  • producer=》分为多个partition存(例如分为p1、p2、p3…p10)=》每个consumer分别从一个不同的partition读(consumer1读p1的话,consumer2就不能读p1了)。

UI 工具

Kafka Offset Explorer 支持Mac、Win、Linux

go sarama库使用

Shopify/sarama库

consumer

可以用 NewConsumerGroup() 创建,也可以先 NewClient() 再 NewConsumerGroupFromClient() 创建。

我们需要实现 Setup()、ConsumeClaim()、CleanUp() 三个回调函数,sarama 库会调度上述函数。

如果需要重置 Offset,可以在 Setup() 内通过 ResetOffset() 实现。

完整代码如下:

package kafka

import("context""github.com/Shopify/sarama"
    log "github.com/siruspen/logrus""lonk/configs""strconv""time")funcStartConsumerGroup(ctx context.Context, conf *configs.KafkaInputConfig, msgHandler KafkaMsgHandler){
    cli, err :=newConsumerGroup(conf)// 新建一个 client 实例if err !=nil{
        log.Fatalf("[newConsumerGroup] conf: %v, err: %v", conf, err)}
    k := kafkaConsumerGroup{
        msgHandler:                msgHandler,
        ready:make(chanbool,0),// 标识 consumer 是否 ready
        partitionInitialOffsetMap: conf.PartitionInitialOffsetMap,}gofunc(){defer cli.Close()for{// Consume().newSession().newConsumerGroupSession() 先调用 Setup(); 再开多个协程(每个协程都用for循环持续调用consume().ConsumeClaim()来处理消息); Consume() 内部的 <-sess.ctx.Done() 会阻塞if err := cli.Consume(ctx,[]string{conf.Topic},&k); err !=nil{
                log.Errorln("Error from consumer", err)}if ctx.Err()!=nil{// 若 ctx.cancel() 而会引发 cli.Consume() 内部对 ctx.Done() 的监听,从而结束 cli.Consume() 的阻塞, 并return}
            k.ready =make(chanbool,0)// 当 rebalanced 时 cli.Consume() 会退出且 ctx.Err() == nil, 则重置此 channel, 继续在下一轮 for 循环调用 Consume()}}()<-k.ready // 直到 close(consumer.ready) 解除阻塞
    log.Infoln("Sarama consumer up and running!...")}funcnewConsumerGroup(conf *configs.KafkaInputConfig)(sarama.ConsumerGroup,error){
    sConf := sarama.NewConfig()
    sConf.Version = sarama.V2_8_0_0
    sConf.Consumer.Offsets.Initial = sarama.OffsetOldest
    sConf.Consumer.Offsets.Retention =7*24* time.Hour
    cli, err := sarama.NewClient(conf.Brokers, sConf)if err !=nil{
        log.Fatalf("[NewClient] conf: %v, err: %v", sConf, err)}
    consumerGroup, err := sarama.NewConsumerGroupFromClient(conf.Group, cli)if err !=nil{
        log.Fatalf("[NewConsumerGroupFromClient] conf: %v, err: %v", sConf, err)}return consumerGroup,nil}// Consumer represents a Sarama consumer group consumertype kafkaConsumerGroup struct{
    msgHandler                func(message *sarama.ConsumerMessage)
    ready                     chanbool
    partitionInitialOffsetMap map[string]int64}// Setup 回调函数 is run at the beginning of a new session, before ConsumeClaimfunc(k *kafkaConsumerGroup)Setup(session sarama.ConsumerGroupSession)error{for topic, partitions :=range session.Claims(){for_, partition :=range partitions {
            initialOffset, ok := k.partitionInitialOffsetMap[strconv.Itoa(int(partition))]if!ok {
                log.Fatalf("invalid topic:%v, partition: %v", topic, partition)}
            log.Infof("Sarama Consumer is resetting offset to %v:%v:%v", topic, partition, initialOffset)
            session.ResetOffset(topic, partition, initialOffset,"")}}close(k.ready)// 启动后此处会标记 ready, 使 StartKafkaConsumer() 不再阻塞returnnil}// Cleanup 回调函数 is run at the end of a session, once all ConsumeClaim goroutines have exitedfunc(k *kafkaConsumerGroup)Cleanup(sarama.ConsumerGroupSession)error{
    log.Infoln("Sarama Consumer is cleaning up!...")returnnil}// ConsumeClaim 回调函数 must start a consumer loop of ConsumerGroupClaim's Messages().func(k *kafkaConsumerGroup)ConsumeClaim(session sarama.ConsumerGroupSession, claim sarama.ConsumerGroupClaim)error{// NOTE: Do not move the code below to a goroutine. The `ConsumeClaim` itself is called within a goroutine, see: https://github.com/Shopify/sarama/blob/master/consumer_group.go#L27-L29for{select{case message :=<-claim.Messages():
            k.msgHandler(message)
            session.MarkMessage(message,"")// Should return when `session.Context()` is done. If not, will raise `ErrRebalanceInProgress` or `read tcp <ip>:<port>: i/o timeout` when kafka rebalance. see: https://github.com/Shopify/sarama/issues/1192case<-session.Context().Done():returnnil}}}

producer

参考:官方 consumerGroup 的 example
参考:sarama consumer group 的使用
参考:sarama partition consumer 根据 time 指定 offset

标签: kafka java 分布式

本文转载自: https://blog.csdn.net/jiaoyangwm/article/details/126338452
版权归原作者 呆呆的猫 所有, 如有侵权,请联系我们删除。

“【Kafka】超详细介绍”的评论:

还没有评论