【Kafka-3.x-教程】专栏:
【Kafka-3.x-教程】-【一】Kafka 概述、Kafka 快速入门
【Kafka-3.x-教程】-【二】Kafka-生产者-Producer
【Kafka-3.x-教程】-【三】Kafka-Broker、Kafka-Kraft
【Kafka-3.x-教程】-【四】Kafka-消费者-Consumer
【Kafka-3.x-教程】-【五】Kafka-监控-Eagle
【Kafka-3.x-教程】-【六】Kafka 外部系统集成 【Flume、Flink、SpringBoot、Spark】
【Kafka-3.x-教程】-【七】Kafka 生产调优、Kafka 压力测试
【Kafka-3.x-教程】-【五】-Kafka-监控-Eagle
Kafka-Eagle 框架可以监控 Kafka 集群的整体运行情况,在生产环境中经常使用。
1)MySQL 环境准备
Kafka-Eagle 的安装依赖于 MySQL,MySQL 主要用来存储可视化展示的数据。如果集群中之前安装过 MySQL 可以跨过该步。
2)Kafka 环境准备
1、关闭 Kafka 集群
kf.sh stop
2、修改/opt/module/kafka/bin/kafka-server-start.sh 命令中
vim bin/kafka-server-start.sh
#修改如下参数值:if["x$KAFKA_HEAP_OPTS"="x"];thenexportKAFKA_HEAP_OPTS="-Xmx1G -Xms1G"fi#为if["x$KAFKA_HEAP_OPTS"="x"];thenexportKAFKA_HEAP_OPTS="-server -Xms2G -Xmx2G -
XX:PermSize=128m -XX:+UseG1GC -XX:MaxGCPauseMillis=200 -
XX:ParallelGCThreads=8 -XX:ConcGCThreads=5 -
XX:InitiatingHeapOccupancyPercent=70"exportJMX_PORT="9999"#export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"fi
注意:修改之后在启动 Kafka 之前要分发之其他节点、分发脚本第一章中有给大家提供。
xsync kafka-server-start.sh
3)Kafka-Eagle 安装
官网:https://www.kafka-eagle.org/
1、上传压缩包 kafka-eagle-bin-2.0.8.tar.gz 到集群 /opt/software 目录
2、解压到本地
tar-zxvf kafka-eagle-bin-2.0.8.tar.gz
3、进入刚才解压的目录
ll
#总用量 79164#-rw-rw-r--. 1 atguigu atguigu 81062577 10 月 13 00:00 efak-web-2.0.8-bin.tar.gz
4、将 efak-web-2.0.8-bin.tar.gz 解压至 /opt/module
tar-zxvf efak-web-2.0.8-bin.tar.gz -C /opt/module/
5、修改名称
mv efak-web-2.0.8/ efak
6、修改配置文件 /opt/module/efak/conf/system-config.properties
vim system-config.properties
####################################### multi zookeeper & kafka cluster list# Settings prefixed with 'kafka.eagle.' will be deprecated, use 'efak.'
instead
######################################efak.zk.cluster.alias=cluster1
cluster1.zk.list=hadoop102:2181,hadoop103:2181,hadoop104:2181/kafka
####################################### zookeeper enable acl######################################cluster1.zk.acl.enable=false
cluster1.zk.acl.schema=digest
cluster1.zk.acl.username=test
cluster1.zk.acl.password=test123
####################################### broker size online list######################################cluster1.efak.broker.size=20####################################### zk client thread limit######################################kafka.zk.limit.size=32####################################### EFAK webui port######################################efak.webui.port=8048####################################### kafka jmx acl and ssl authenticate######################################cluster1.efak.jmx.acl=false
cluster1.efak.jmx.user=keadmin
cluster1.efak.jmx.password=keadmin123
cluster1.efak.jmx.ssl=false
cluster1.efak.jmx.truststore.location=/data/ssl/certificates/kafka.truststor
e
cluster1.efak.jmx.truststore.password=ke123456
####################################### kafka offset storage####################################### offset 保存在 kafkacluster1.efak.offset.storage=kafka
####################################### kafka jmx uri######################################cluster1.efak.jmx.uri=service:jmx:rmi:///jndi/rmi://%s/jmxrmi
####################################### kafka metrics, 15 days by default######################################efak.metrics.charts=true
efak.metrics.retain=15####################################### kafka sql topic records max######################################efak.sql.topic.records.max=5000efak.sql.topic.preview.records.max=10####################################### delete kafka topic token######################################efak.topic.token=keadmin
####################################### kafka sasl authenticate######################################cluster1.efak.sasl.enable=false
cluster1.efak.sasl.protocol=SASL_PLAINTEXT
cluster1.efak.sasl.mechanism=SCRAM-SHA-256
cluster1.efak.sasl.jaas.config=org.apache.kafka.common.security.scram.ScramL
oginModule required username="kafka"password="kafka-eagle";cluster1.efak.sasl.client.id=cluster1.efak.blacklist.topics=cluster1.efak.sasl.cgroup.enable=false
cluster1.efak.sasl.cgroup.topics=cluster2.efak.sasl.enable=false
cluster2.efak.sasl.protocol=SASL_PLAINTEXT
cluster2.efak.sasl.mechanism=PLAIN
cluster2.efak.sasl.jaas.config=org.apache.kafka.common.security.plain.PlainL
oginModule required username="kafka"password="kafka-eagle";cluster2.efak.sasl.client.id=cluster2.efak.blacklist.topics=cluster2.efak.sasl.cgroup.enable=false
cluster2.efak.sasl.cgroup.topics=####################################### kafka ssl authenticate######################################cluster3.efak.ssl.enable=false
cluster3.efak.ssl.protocol=SSL
cluster3.efak.ssl.truststore.location=cluster3.efak.ssl.truststore.password=cluster3.efak.ssl.keystore.location=cluster3.efak.ssl.keystore.password=cluster3.efak.ssl.key.password=cluster3.efak.ssl.endpoint.identification.algorithm=https
cluster3.efak.blacklist.topics=cluster3.efak.ssl.cgroup.enable=false
cluster3.efak.ssl.cgroup.topics=####################################### kafka sqlite jdbc driver address####################################### 配置 mysql 连接efak.driver=com.mysql.jdbc.Driver
efak.url=jdbc:mysql://hadoop102:3306/ke?useUnicode=true&characterEncoding=UT
F-8&zeroDateTimeBehavior=convertToNull
efak.username=root
efak.password=000000
####################################### kafka mysql jdbc driver address#######################################efak.driver=com.mysql.cj.jdbc.Driver#efak.url=jdbc:mysql://127.0.0.1:3306/ke?useUnicode=true&characterEncoding=U
TF-8&zeroDateTimeBehavior=convertToNull
#efak.username=root#efak.password=123456
7、添加环境变量
sudovim /etc/profile.d/my_env.sh
# kafkaEFAKexportKE_HOME=/opt/module/efak
exportPATH=$PATH:$KE_HOME/bin
注意:source /etc/profile
source /etc/profile
8、启动
(1)注意:启动之前需要先启动 ZK 以及 KAFKA。
kf.sh start
(2)启动 efak
bin/ke.sh start
Version 2.0.8 -- Copyright 2016-2021
*****************************************************************
* EFAK Service has started success.
* Welcome, Now you can visit 'http://192.168.10.102:8048'
* Account:admin ,Password:123456
*****************************************************************
* <Usage> ke.sh [start|status|stop|restart|stats]</Usage>
* <Usage> https://www.kafka-eagle.org/ </Usage>
*****************************************************************
说明:如果停止 efak,执行命令。
bin/ke.sh stop
4)Kafka-Eagle 页面操作
1、登录页面查看监控数据:http://192.168.10.102:8048/
版权归原作者 bmyyyyyy 所有, 如有侵权,请联系我们删除。