0


【大数据学习 | kafka】kafka的shell操作

1. topic的管理命令(kafka-topics.sh

参数如下:

1.1 创建

  1. # 创建
  2. kafka-topics.sh --bootstrap-server nn1:9092 --create --topic topic_a --partitions 3 --replication-factor 2
  3. # --bootstrap-server 指定集群地址,因为每个节点都存在controller所以想要获取元数据只需要指定集群中的一台机器就行了
  4. # --create是创建命令
  5. # --topic 指定topic的名称
  6. # --partitions 分区数量,分区数量没有限定
  7. # --replication-factor 副本数量,副本数量必须小于等集群的机器的个数,因为一个节点上面不能存在多个副本

1.2 查看 list

  1. # list查看所有topic
  2. kafka-topics.sh --bootstrap-server nn1:9092 --list

1.3 描述 desc

  1. # 描述 desc
  2. kafka-topics.sh --bootstrap-server nn1:9092 --describe --topic topic_a

describe命令展示的topic信息如下:

  1. topic名称
  2. topic_id随机id
  3. partition_count 分区数量
  4. replicationFactor 副本数量
  5. Topic: topic_a Partition: 0 Leader: 1 Replicas: 1,2 Isr: 1,2
  6. 内容解释:topic_a,0号分区在,leader分区在brokerid1broker上面,副本在brokerid12两个节点上面
  7. isr是数据的备份情况,先进broker1然后进入到broker2

1.4 删除 delete

  1. # 删除
  2. kafka-topics.sh --bootstrap-server nn1:9092 --delete --topic topic_a

1.5 修改 alter

  1. # 重新创建
  2. kafka-topics.sh --bootstrap-server nn1:9092 --create --topic topic_a --partitions 3 --replication-factor 2
  3. # alter修改topic
  4. kafka-topics.sh --bootstrap-server nn1:9092 --alter --topic topic_a --partitions 2
  5. # 分区数量不能减少只能增加,减少分区会使得数据丢失
  6. kafka-topics.sh --bootstrap-server nn1:9092 --alter --topic topic_a --partitions 4
  1. # 修改副本数据
  2. # 在创建完毕的topic以后,我们在使用的时候可能会遇见,副本不足的情况,这个时候我们可以动态增加topic的副本数量,但是增加的副本数量要在原有的基础上进行增加
  3. # 首先我们创建一个json文件,用于支配topic的分区副本和节点的对应关系
  4. vim json.txt
  5. # 以原有分区分配的策略基础之上做二次变化
  6. {"partitions":[{"topic":"topic_a","partition":0,"replicas":[4,3,2]},{"topic":"topic_a","partition":1,"replicas":[1,0,2]},{"topic":"topic_a","partition":2,"replicas":[2,4,0]},{"topic":"topic_a","partition":3,"replicas":[2,3,1]}],"version":1}
  7. # 执行重新分配命令
  8. kafka-reassign-partitions.sh --bootstrap-server nn1:9092 --reassignment-json-file json.txt --execute

2. 数据的生产消费命令(kafka-console-producer.sh

  1. # 生产者命令
  2. kafka-console-producer.sh --bootstrap-server nn1:9092 --topic topic_a
  3. # 消费者命令 --from-beginning 从头消费数据 --partition 指定分区消费
  4. kafka-console-consumer.sh --bootstrap-server nn1:9092 --topic topic_a
  1. # 指定分区,并且消费历史数据
  2. kafka-console-consumer.sh --bootstrap-server nn1:9092 --topic topic_a --from-beginning --partition 2
标签: 大数据 学习 kafka

本文转载自: https://blog.csdn.net/2301_80912559/article/details/143315970
版权归原作者 Vez'nan的幸福生活 所有, 如有侵权,请联系我们删除。

“【大数据学习 | kafka】kafka的shell操作”的评论:

还没有评论