- zookeeper+Kafka- 两个都是消息队列的工具- 消息队列- 出现原因:生产者产生的消息与消费者处理消息的效率相差很大。为了避免出现数据丢失而设立的中间件。- 在消息的生产者与消费之间设置一个系统,负责缓存生产者与消费者之间的消息的缓存。将消息排序。- 优点:- 解耦- 将生产者与消费者的关系解开,这样避免一端的程序出问题导致整个两端程序都不可用。- 冗余- 为生产者与消费者之间产生的数据做了冗余- 扩展性- 利用zookeeper可以具备良好的扩展性。- 灵活性- 消息队列的对象可以是各种不同的程序- 峰值处理能力- 生产者产生的消息如果具有波动性,某一时刻峰值很高,利用消息队列就可以承载压力,然后慢慢分配给消息的消费者。- 可恢复性- 可以采用群集备份- 顺序保证- 消息以排序的方式存在- 缓存- 在生产者与消费者之间起到了一个缓冲的作用- 异步通信- 生产者产生的消息与消费者消费消息可以不再同一时间。- 消息队列产品- kafka- apache旗下的产品- 一种高吞吐量分布式发布/订阅消息队列的开源系统- kafka术语- broker- 每一个安装了kafka的服务器都可以称为一个broker- topic- 一类消息的集合被称为主题,一个broker可以有多个topic。- producer- 消息生产者- consumer- 消息消费者- partition- 存放消息的区域,每一个topic可以有多个partition,但是处理还是一个一个区域处理。每一个区域内的消息都会被分配一个id。offset (偏移量)- consumer GROUP- 消费者组- messages- 消息,通信的基本单位。- kafka架构- - 需要注意的是,kafka作为一个支持多生产者多消费者的架构,再写入消息时允许多个生产者写道同一个partition,但是消费者读取的时候一个partition仅允许一个消费者消费,但一个消费者可以消费多个partition。- kafka支持消息持久化存储,消息会被存储在缓冲区内,达成一定条件就会被写入磁盘。在写入磁盘是是按照顺序的。- topic与partition的关系- partition的数量决定了组成topic的log的数量, 因此推荐partition的数量要大于同时允许的consumer数量,要小于等于集群broker的数量。- zookeeper- 一种分布式协调技术,用于解决分布式环境中多个进程之间的同步控制,让他们有序的访问某种共享资源,尽量减少脑裂的发生。- 开源的分布式协调服务- 解决问题- 单点故障- 工作原理- master启动- 节点向zookeeper注册信息,在选举产生master时采用最小编号算法,既最先的编号最小。- master故障- 出现故障的节点信息会被自动删除,再通过选举投票产生新的master。- zookeeper判断节点故障的依据: 节点必须与zookeeper保持心跳连接。 节点能够及时响应zookeeper的请求。- master恢复- master恢复后,会再次向zookeeper注册自身节点信息,编号就会变淡。- 架构图- - 四个角色- leader:领导者- 负责发起投票与决议,更新系统状态- 3888,选举通信端口- follower:追随者- 负责请求客户端的请求并将结果给客户端,在选举过程中参与投票。- observer:观察者角色- 负责接收客户端请求,并将请求转发给leader。但不参与投票,目的是扩展系统,提高伸缩性。- watcher:观察者,监视者- sentinel:哨兵- client:客户端- 负责向zookeeper发起请求。- zookeeper在kafka中的作用- broker注册- 每一个kafka的master节点都会在zookeeper中注册信息,提供id,每个master整个id都必须唯一。- topic注册- 每一个主题也会在zookeeper注册信息。- 生产者与消费者的负载均衡(实际上是高可用)- 分区与消费者的联系- 消费进度offset记录- 消费者注册- 根据注册信息将消费者分配到不同的分区,以达到负载均衡的目的。- zookeeper+kafka部署- 本案例以zookeeper3.6版本与kafka2.13版本为例- 单节点部署kafka进行测试- 可以设置hosts文件进行域名通信- 安装依赖环境- yum -y install java 注意是1.8版本。- 解压即可用移动到/etc/zookeeper- 修改配置文件- 可以单独指定数据目录- dataDir=/etc/zookeeper/zookeeper-data- 然后将指定的目录创建出来- 启动查看状态- ./bin/zkServer.sh start- 单节点部署zookeeper+kafka做测试- 部署zookeeper- 可以设置hosts文件进行域名通信- 安装依赖环境- yum -y install java 注意是1.8版本。- 解压即可用移动到/etc/zookeeper- 修改配置文件- 可以单独指定数据目录- dataDir=/etc/zookeeper/zookeeper-data- 然后将指定的目录创建出来- 之后启动查看状态- 部署kafka- 同样的解压即可用移动到/etc/kafka- 同样的可以修改配置文件指定日志文件目录并将目录创建出来- log.dirs=/etc/kafka/kafka-logs- mkdir /etc/kafka/kafka-logs- 启动kafka需要指定配置文件并可以设置为后台启动。- bin/kafka-server-start.sh config/server.properties &- 需要注意启动时要先启动zookeeper,结束时要先结束kafka。- 测试- 创建topic- kafka-topics.sh --create --zookeeper kafka1:2181 --replication-factor 1 --partitions 1 --topic test- kafka-topic.sh --create --zookeeper broker域名或IP:端口一般2181 --replication-factor 集群master数量 --partitions 1 topic中分区数量 --topic 分区名- 列出topic- kafka-topics.sh --list --zookeeper brokerIP/域名:端口(2181)- 查看topic- kafka-topics.sh --describe --zookeeper kafka1:2181 --topic test- describ :描述- 生产消息进入命令行模式- /kafka-console-producer.sh --broker-list kafka1:9092 -topic tes- 9092kafka监听客户端连接的端口- 消费消息,进入查看产生消费消息的界面- kafka-console-consumer.sh --bootstrap-server kafka1:9092 --topic test- 删除topic- kafka-topic.sh --delete --zookeeper Kafka服务器:端口 --topic 主题名- 集群部署zookeeper+kafka- 修改主机hosts文件,使之可以使用域名访问- 安装zookeeper三台主机安装部署略有不同- 准备前奏- 防火墙与内核机制处理- 安装依赖环境java- 解压移动- tar zxvf apache-zookeeper-3.6.0-bin.tar.gz- mv apache-zookeeper-3.6.0-bin /etc/zookeeper- 创建数据保存目录- mkdir zookeeper-data- 修改配置文件- dataDir=/etc/zookeeper/zookeeper-data- 指定数据保存目录- clientPort=2181- 确定监听端口- 添加节点注册信息有几个添加几个- server.1=192.168.10.101:2888:3888- 2888:集群内部通信端口,主要用于选举leader- 3888:其他服务器在选举leader时监听的端口。- 创建id文件- echo '1' > /etc/zookeeper/zookeeper-data/myid- 每个节点IP不同- 最后启动并查看状态- 安装kafka,节点配置相同- 解压并移动- tar zxvf kafka_2.13-2.4.1.tgz- mv kafka_2.13-2.4.1 /etc/kafka- 修改配置文件- listeners=PLAINTEXT://192.168.10.101:9092- 监听客户端连接- log.dirs=/etc/kafka/kafka-logs- 指定日志文件位置- num.partitions=1- 分区数量,不能超过节点数。- 集群地址信息- zookeeper.connect=192.168.10.101:2181,192.168.10.102:2181,192.168.10.103:2181- 创建日志目录- mkdir /etc/kafka/kafka-logs- 最后启动查看状态- 测试- 在任意一节点上创建topic- 列出任意一节点的topic- 进行生产与消费的对应- ELK日志系统添加接口对接Kafka- input { beats { port => "5044" codec => "json" } } output { kafka { bootstrap_servers => "192.168.10.101:9092,192.168.10.102:9092,192.168.10.103:9092" topic_id => "httpd-filebeat" batch_size => "5" codec => "json" } }- 该集群中用到的端口- zookeeper客户端连接的端口:2181- zookeerper内部通信端口:2888- zookeeper监听选举过程的端口:3888- kafka监听客户端的接口:9092
本文转载自: https://blog.csdn.net/Q7758521adc/article/details/140449739
版权归原作者 星耀寰宇x 所有, 如有侵权,请联系我们删除。
版权归原作者 星耀寰宇x 所有, 如有侵权,请联系我们删除。