0


Kafka系列 - 06 Kafka 集群环境搭建(三台服务器)

文章目录

1. 克隆虚拟机

kafka集群搭建,需要3台虚拟机环境,但是我目前只安装了一台虚拟机,因此还需要准备两台虚拟机环境,正常情况下应该再安装2台虚拟机,这里为了方便直接克隆出3台虚拟机。

① 选中 CentOs7 右键—> 管理—> 克隆—> 执行克隆操作:

在这里插入图片描述

② 下一页,选择创建完整克隆:

在这里插入图片描述

③ 填入虚拟机名称和安装位置:

在这里插入图片描述

④ 按照上面的步骤创建3台虚拟机环境,先不要开机不然会ip地址冲突:

在这里插入图片描述

⑤ 修改每台虚拟机的IP地址:

vi /etc/sysconfig/network-scripts/ifcfg-ens33

hadoop-101 虚拟机的 IPADDR 的地址改为:192.168.38.23;hadoop-102 的改为192.168.38.24;hadoop-103 虚拟机的 IPADDR 的地址改为:192.168.38.25;

在这里插入图片描述

⑥ 修改每台虚拟机的主机名称 hostname:

vi /etc/hostname

hadoop-101 虚拟机的 hostname 改为:hadoop101;hadoop-102 虚拟机的改为:hadoop102;hadoop-103 虚拟机的 hostname 的地址改为:hadoop103;

在这里插入图片描述

⑦ 将每台虚拟机的 hostname 和 ip 绑定,添加下面三行:

vi /etc/hosts

在这里插入图片描述

⑧ 执行 reboot 命令重启每台虚拟机,然后使用 mobaxterm/xshell工具连接每台虚拟机。

2. Zookeeper 集群搭建

在前面文章 Kafka - 03 Kafka安装 | 单机环境搭建 | 伪集群环境搭建 (一台虚拟机) 中,我使用一台虚拟机环境搭建了kafka伪集群,而我们现在的3台虚拟机是基于这台虚拟机克隆的,因此 jdk 、 zookeeper 、kafka 已经安装了,我们只需要修改一些配置文件就行了,他们的安装目录如下:

在这里插入图片描述

zookeeper-01、zookeeper-02、zookeeper-03 这三个安装目录是搭建伪集群使用的,这里搭建真正的集群环境可以不用管他们,我们直接使用每个节点的 zookeeper-3.4.14 安转目录:

在这里插入图片描述

① 配置每一个 zookeeper 节点的 dataDir,克隆之前已经配置过,这里直接删除重新创建data目录:

在这里插入图片描述

② 在每个zookeeper的 data 目录下创建一个 myid 文件,内容分别是0、1、2 。myid 这个文件就是记录每个服务器的ID

[root@hadoop101 zookeeper-3.4.14]# cd data
[root@hadoop101 data]# vi myid
[root@hadoop101 data]#
0
[root@hadoop102 zookeeper-3.4.14]# cd data
[root@hadoop102 data]# vi myid
[root@hadoop102 data]#
1
[root@hadoop103 zookeeper-3.4.14]# cd data
[root@hadoop103 data]# vi myid
[root@hadoop103 data]#
2

③ 在每一个zookeeper 的 zoo.cfg 配置集群服务器IP列表

server.服务器ID=服务器IP地址:服务器之间通信端口:服务器之间投票选举端口

后面的两个端口在三个节点中只要不同即可,服务器ID就是myid文件中的值。

server.0=192.168.38.23:2888:3888
server.1=192.168.38.24:2888:3888
server.2=192.168.38.25:2888:3888

在这里插入图片描述

在这里插入图片描述

④ 启动集群:启动集群就是分别启动每个实例,启动后我们查询一下每个实例的运行状态。

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

查看启动状态报错 Error contacting service. It is probably not running 原因:

  • 必须3个服务都启动再查看状态,否则在查看状态时会报错;
  • 必须关闭防火墙;

在这里插入图片描述

3. Kafka 集群搭建

在前面文章 Kafka - 03 Kafka安装 | 单机环境搭建 | 伪集群环境搭建 (一台虚拟机) 中,我使用一台虚拟机环境搭建了kafka伪集群,而我们现在的3台虚拟机是基于这台虚拟机克隆的,因此 jdk 、 zookeeper 、kafka 已经安装了,我们只需要修改一些配置文件就行了,他们的安装目录如下:

在这里插入图片描述

kafka-01、 kafka-02、 kafka-03这三个安装目录是搭建伪集群使用的,这里搭建真正的集群环境可以不用管他们,我们直接使用每个节点的 kafka_2.12-2.2.1安转目录:

在这里插入图片描述

修改每个kafka节点的server.properties配置文件:

在这里插入图片描述

broker.id=0
listeners=PLAINTEXT://192.168.38.23:9092
advertised.listeners=PLAINTEXT://192.168.38.23:9092
zookeeper.connect=hadoop101:2181,hadoop102:2181,hadoop103:2181/kafka_cluster
broker.id=1
listeners=PLAINTEXT://192.168.38.24:9092
advertised.listeners=PLAINTEXT://192.168.38.24:9092
zookeeper.connect=hadoop101:2181,hadoop102:2181,hadoop103:2181/kafka_cluster
broker.id=2
listeners=PLAINTEXT://192.168.38.25:9092
advertised.listeners=PLAINTEXT://192.168.38.25:9092
zookeeper.connect=hadoop101:2181,hadoop102:2181,hadoop103:2181/kafka_cluster

① 配置 log.dirs,克隆之前已经配置过,因此直接删除重新创建logs目录

在这里插入图片描述

② 配置 broker.id,这是Kafka在整个集群当中的唯一身份标识,每个节点不能重复。

③ 配置 zookeeper.connect,zookeeper根目录下有个 zookeeper节点,正常情况我们可以按照下面这样配置,那么kafka集群信息就会放入zookeeper节点的各个目录中:

zookeeper.connect=hadoop101:2181,hadoop102:2181,hadoop103:2181 

如果我们想把kafka集群信息放到一个文件夹kafka_cluster下,可以添加在按照下面这样配置:

zookeeper.connect=hadoop101:2181,hadoop102:2181,hadoop103:2181/kafka_cluster

④ 配置 listeners,允许外部端口连接。

⑤ 配置 advertised.listeners,外部代理地址。

⑥ 启动每个 kafka 实例:

bin/kafka-server-start.sh config/server.properties

在这里插入图片描述

4. 测试消息发送和消费

1. 主题操作

在这里插入图片描述

1. 创建主题:

[root@hadoop101 kafka_2.12-2.2.1]# bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --create --partitions 1 --replication-factor 3 --topic test1

2. 查看主题详情:

[root@hadoop101 kafka_2.12-2.2.1]# bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --describe --topic test1
Topic:test1     PartitionCount:1   ReplicationFactor:3   Configs:segment.bytes=1073741824
Topic: test1    Partition: 0    Leader: 0       Replicas: 0,1,2 Isr: 0,1,2

3. 查看所有主题:

[root@hadoop101 kafka_2.12-2.2.1]# bin/kafka-topics.sh --bootstrap-server hadoop101:9092 --list
__consumer_offsets
test
test1

2. 生产者生产消息

在这里插入图片描述

[root@hadoop101 kafka_2.12-2.2.1]# bin/kafka-console-producer.sh --broker-list hadoop101:9092 --topic test1

在这里插入图片描述

3. 消费者消费消息

在这里插入图片描述

[root@hadoop101 kafka_2.12-2.2.1]# bin/kafka-console-consumer.sh --bootstrap-server hadoop101:9092 --topic test1

在这里插入图片描述

标签: kafka hadoop 大数据

本文转载自: https://blog.csdn.net/qq_42764468/article/details/128064714
版权归原作者 我一直在流浪 所有, 如有侵权,请联系我们删除。

“Kafka系列 - 06 Kafka 集群环境搭建(三台服务器)”的评论:

还没有评论