[转帖]kafka_export 部署实战

kafka,export,部署,实战 · 浏览次数 : 0

小编点评

**监控方案:** 1. **Kafka Exporter 部署:** - 下载并解压缩 Kafka Exporter 模板。 - 使用 `nohup` 命令运行 Kafka Exporter,指定服务器地址、端口、版本和日志等级。 2. **Prometheus 部署:** - 下载并解压缩 Prometheus 安装包。 - 配置 Prometheus,添加红框中的内容。 - 启动 Prometheus。 3. **Grafana 配置:** - 下载 Grafana 模板。 - 配置 Grafana,添加数据源并选择数据源。 4. **数据监控:** - 在 Grafana 中添加数据图表,监控 Kafka 历史/实时数据。 - 在 dashboard 中查看 kafka 的数据。 **步骤:** **1. 下载并解压缩 Kafka Exporter 模板:** ```bash wget -O kafka_exporter-1.2.0.linux-amd64.tar.gz -v tar -xzvf kafka_exporter-1.2.0.linux-amd64.tar.gz ``` **2. 使用 `nohup` 命令运行 Kafka Exporter:** ```bash nohup ./kafka_exporter \ --kafka.server=192.168.1.160:19092 \ --kafka.version=1.1.0 \ --log.level=info > kafka_exporter.log \ --web.listen-address=9308 &# --kafka.server=kafka_broker_address# --kafka.version=kafka_version# --log.leve=日志等级更详细的配置参阅:https://github.com/danielqsj/kafka_exporter#run-binary ``` **3. 下载并解压缩 Prometheus 安装包:** ```bash wget https://github.com/prometheus/prometheus/releases/download/v2.6.0/prometheus-2.6.0.linux-amd64.tar.gz -O prometheus-2.6.0.linux-amd64.tar.gz tar -xzvf prometheus-2.6.0.linux-amd64.tar.gz ``` **4. 配置 Prometheus:** ```yaml --- - job_name: kafka_exporter config: kafka: server: 192.168.1.160:19092 version: 1.1.0 log: level: info ``` **5. 启动 Prometheus:** ```bash nohup ./prometheus --config.file=prometheus.yml > prometheus.log & ``` **6. 安装 Grafana:** ```bash wget https://dl.grafana.com/oss/release/grafana-5.4.2-1.x86_64.rpm sudo yum localinstall grafana-5.4.2-1.x86_64.rpmsystemctl start grafana-serversystemctl enable grafana-server访问 ``` **7. 配置 Grafana:** ``` - Add a data source of type Kafka. - Enter the Kafka server address, port, and version. - Select the created Kafka data source. ``` **8. 下载 Kafka Exporter 模板:** ```bash wget https://grafana.com/api/dashboards/7589/revisions/5/download ``` **9. 设置数据源:** - Select the newly created Kafka data source. - Choose the desired data. **10. 启动 Kafka Exporter:** ```bash ./kafka_exporter --config.file=kafka_exporter.yml > kafka_exporter.log & ``` **11. 启动 Grafana:** ```bash ./prometheus --config.file=prometheus.yml > prometheus.log & ```

正文

https://zhuanlan.zhihu.com/p/57704357

 

Kafka Exporter 监控 Kafka 实时数据

 

需要安装的组件

Prometheus:时序数据库,按时间保存监控历史数据。语言:Go

Grafana:metrics 可视化系统

Kafka Exporter:一个用Go 语言写的 Kafka 外部工具,相比JMX 优势在于不需要消耗 JVM资源,就可以对 Kafka 集群进行监控

 

监控方案

Kafka Export : 每个 kafka 集群一个。需要一个端口

Prometheus 和 Grafana 可以部署在同一台服务器,也可以分开部署

 

部署

1、Kafka Exporter 部署

Wget 

 

Tar xzvf kafka_exporter-1.2.0.linux-amd64.tar.gz

Cd kafka_exporter-1.2.0.linux-amd64

 

启动监控工具

nohup ./kafka_exporter \
--kafka.server=192.168.1.160:19092 \
--kafka.version=1.1.0 --log.level=info > kafka_exporter.log  --web.listen-address=9308 &

# --kafka.server=kafka_broker_address
# --kafka.version=kafka_version
# --log.leve=日志等级

更详细的配置参阅:

 

启动完成后访问以下地址:

http://192.168.1.1:9308/metrics

可以看到 Prometheus 格式数据

 

 

2、Prometheus 部署、配置

下载 Prometheus 安装包

Wget 

 

Tar xzvf prometheus-2.6.0.linux-amd64.tar.gz

 

Cd prometheus-2.6.0.linux-amd64

 

 

Vim Prometheus.yml

添加红框中的内容,注意这是 yml 文件格式要求很严格

 

 

 

启动 Prometheus

nohup ./prometheus --config.file=prometheus.yml > prometheus.log &

登录 Prometheus 控制台

http://192.168.1.1:9090

可以检索到 kafka 的数据

 

 

3、Grafana 配置安装

下载 Grafana

 

wget https://dl.grafana.com/oss/release/grafana-5.4.2-1.x86_64.rpm 
sudo yum localinstall grafana-5.4.2-1.x86_64.rpm

systemctl start grafana-server
systemctl enable grafana-server

访问 已经安装好的 Grafana 地址

http://192.168.1.1:3000

默认用户名/密码:admin/admin

添加数据源

 

 

 

下载 Kafka Exporter 模板

wget https://grafana.com/api/dashboards/7589/revisions/5/download

导入 Kafka Exporter 模板

 

 

 

选择数据源。因为我已经配置过,所以会有提示。

 

 

 

然后我们就可以在 dashboard 中看见 kafka 历史/实时数据监控了。

 

 

编辑于 2019-07-22 17:52

与[转帖]kafka_export 部署实战相似的内容:

[转帖]kafka_export 部署实战

https://zhuanlan.zhihu.com/p/57704357 Kafka Exporter 监控 Kafka 实时数据 需要安装的组件 Prometheus:时序数据库,按时间保存监控历史数据。语言:Go Grafana:metrics 可视化系统 Kafka Exporter:一个用

[转帖]Kafka 基本概念大全

https://my.oschina.net/jiagoushi/blog/5600943 下面给出 Kafka 一些重要概念,让大家对 Kafka 有个整体的认识和感知,后面还会详细的解析每一个概念的作用以及更深入的原理 ・Producer:消息生产者,向 Kafka Broker 发消息的客户端

[转帖]Kafka 与RocketMQ 落盘机制比较

https://www.jianshu.com/p/fd50befccfdd 引言 前几期的评测中,我们对比了Kafka和RocketMQ的吞吐量和稳定性,本期我们要引入一个新的评测标准——软件可靠性。 何为“可靠性”? 先看下面这种情况:有A,B两辆越野汽车,在城市的周边地区均能很好应对泥泞的路况

[转帖]Kafka关键参数设置

https://www.cnblogs.com/wwcom123/p/11181680.html 生产环境中使用Kafka,参数调优非常重要,而Kafka参数众多,我们的java的Configuration代码中,经常设置的参数如下: Properties props = new Propertie

[转帖]kafka压测多维度分析实战

设置虚拟机不同的带宽来进行模拟压测 kafka数据压测 1、公司生产kafka集群硬盘:单台500G、共3台、日志保留7天。 1.1 版本:1.1.0 2、压测kafka。 2.1 使用kafka自带压测工具:bin/kafka-producer-perf-test.sh 命令参数解释: --num

[转帖]Kafka—配置SASL/PLAIN认证客户端及常用操作命令

介绍 SASL/PLAIN 是一种简单的 username/password安全认证机制,本文主要总结服务端开启该认证后,命令行客户端进行配置的操作流程。 配置 增加jaas.properties 在kafka的config目录下增加jaas.properties文件指定认证协议为SASL_PLAI

[转帖]kafka 配置认证与授权

https://www.cnblogs.com/yjt1993/p/14739130.html 本例不使用kerberos做认证,使用用户名和密码的方式来进行认证 1、服务端配置 1.0 配置server.properties 添加如下配置 #配置 ACL 入口类 authorizer.class.

[转帖]Kafka—配置SASL/PLAIN认证客户端及常用命令

https://www.jianshu.com/p/c1a02fb1779f 介绍 SASL/PLAIN 是一种简单的 username/password安全认证机制,本文主要总结服务端开启该认证后,命令行客户端进行配置的操作流程。 配置 增加jaas.properties 在kafka的confi

[转帖]kafka搭建kraft集群模式

kafka2.8之后不适用zookeeper进行leader选举,使用自己的controller进行选举 1.准备工作 准备三台服务器 192.168.3.110 192.168.3.111 192.168.3.112,三台服务器都要先安装好jdk1.8,配置好环境变量, 下载好kafka3.0.0

[转帖]Kafka高可用 — KRaft集群搭建

Apache Kafka Raft 是一种共识协议,它的引入是为了消除 Kafka 对 ZooKeeper 的元数据管理的依赖,被社区称之为 Kafka Raft metadata mode,简称 KRaft 模式。本文介绍了KRaft模式及三节点的 KRaft 集群搭建。 1 KRaft介绍 KR