kafka的学习之二_kafka的压测与GUI管理

kafka,学习,之二,gui,管理 · 浏览次数 : 24

小编点评

**kafka的学习之二_kafka的压测与GUI管理第一部分创建topiccd /root/kafka_2.13-3.5.0bin/kafka-topics.sh --create --bootstrap-server 10.110.139.184:9093 --command-config config/sasl.conf --replication-factor 3 --partitions 3 --topic zhaobsh01bin/kafka-topics.sh --create --bootstrap-server 10.110.139.184:9093 --command-config config/sasl.conf --replication-factor 2 --partitions 5 --topic zhaobsh02查看topic列表bin/kafka-topics.sh --list --bootstrap-server 10.110.139.181:9093,10.110.139.182:9093,10.110.139.183:9093,10.110.139.184:9093 Topic: zhaobsh01 Partition: 0 Leader: 2 Replicas: 2,3,4 Isr: 2,3,4 Topic: zhaobsh01 Partition: 1 Leader: 3 Replicas: 3,4,5 Isr: 3,4,5 Topic: zhaobsh01 Partition: 2 Leader: 4 Replicas: 4,5,1 Isr: 4,5,1 Topic: zhaobsh02 TopicId: Iok1GhBgTKywxNxo0kh5PA PartitionCount: 5 ReplicationFactor: 2 Configs: segment.bytes=1073741824 Topic: zhaobsh02 Partition: 0 Leader: 1 Replicas: 1,2 Isr: 1,2 Topic: zhaobsh02 Partition: 1 Leader: 2 Replicas: 2,3 Isr: 2,3 Topic: zhaobsh02 Partition: 2 Leader: 3 Replicas: 3,4 Isr: 3,4 Topic: zhaobsh02 Partition: 3 Leader: 4 Replicas: 4,5 Isr: 4,5

正文

kafka的学习之二_kafka的压测与GUI管理


第一部分创建topic

cd /root/kafka_2.13-3.5.0
bin/kafka-topics.sh --create --bootstrap-server 10.110.139.184:9093  --command-config config/sasl.conf  --replication-factor 3 --partitions 3 --topic zhaobsh01

bin/kafka-topics.sh --create --bootstrap-server 10.110.139.184:9093  --command-config config/sasl.conf  --replication-factor 2 --partitions 5 --topic zhaobsh02

查看topic列表
bin/kafka-topics.sh --list --bootstrap-server 10.110.139.181:9093,10.110.139.182:9093,10.110.139.184:9093,10.110.139.185:9093,10.110.139.186:9093   --command-config config/sasl.conf

查看topic的分区情况等
bin/kafka-topics.sh --describe  --bootstrap-server 10.110.139.181:9093,10.110.139.182:9093,10.110.139.184:9093,10.110.139.185:9093,10.110.139.186:9093   --command-config config/sasl.conf

验证消息的发送与接收

开启一个消息生产端:
bin/kafka-console-producer.sh --bootstrap-server 10.110.139.181:9093  --producer.config config/sasl.conf --topic zhaobsh01
开启一个消息消费端
bin/kafka-console-consumer.sh --bootstrap-server 10.110.139.186:9093  --consumer.config config/sasl.conf --topic zhaobsh01 

在消费的生产端输入:
>zhaobsh
>test
然后在消费端就可以看到:
zhaobsh
test

测试脚本部分之一 生产者

bin/kafka-producer-perf-test.sh  --num-records 100000  --record-size 1024 --throughput -1 --producer.config config/sasl.conf  --topic zhaobsh01 --producer-props bootstrap.servers=10.110.139.181:9093 --print-metrics

# 参数解析
--num-records 100000  消息条数
--record-size 1024    消息大小
--throughput -1       不进行流量限制.
--producer.config     读取用户密码相关
--topic               要测试的消息队列信息.
--print-metrics       展示具体的信息
--producer-props bootstrap.servers=node:port 指定服务器
zhaobsh001:
100000 records sent, 18885.741265 records/sec (18.44 MB/sec), 1128.56 ms avg latency, 1751.00 ms max latency, 1215 ms 50th, 1642 ms 95th, 1731 ms 99th, 1748 ms 99.9th
zhaobsh002:
100000 records sent, 31746.031746 records/sec (31.00 MB/sec), 603.69 ms avg latency, 1039.00 ms max latency, 602 ms 50th, 950 ms 95th, 1028 ms 99th, 1038 ms 99.9th.

# 注意两个队列的特点:
Topic: zhaobsh01        TopicId: si9qBBcyQpKyTFkTURj_uQ PartitionCount: 3       ReplicationFactor: 3    Configs: segment.bytes=1073741824
        Topic: zhaobsh01        Partition: 0    Leader: 2       Replicas: 2,3,4 Isr: 2,3,4
        Topic: zhaobsh01        Partition: 1    Leader: 3       Replicas: 3,4,5 Isr: 3,4,5
        Topic: zhaobsh01        Partition: 2    Leader: 4       Replicas: 4,5,1 Isr: 4,5,1
Topic: zhaobsh02        TopicId: Iok1GhBgTKywxNxo0kh5PA PartitionCount: 5       ReplicationFactor: 2    Configs: segment.bytes=1073741824
        Topic: zhaobsh02        Partition: 0    Leader: 1       Replicas: 1,2   Isr: 1,2
        Topic: zhaobsh02        Partition: 1    Leader: 2       Replicas: 2,3   Isr: 2,3
        Topic: zhaobsh02        Partition: 2    Leader: 3       Replicas: 3,4   Isr: 3,4
        Topic: zhaobsh02        Partition: 3    Leader: 4       Replicas: 4,5   Isr: 4,5
        Topic: zhaobsh02        Partition: 4    Leader: 5       Replicas: 5,1   Isr: 5,1

测试脚本部分之二 消费者

bin/kafka-consumer-perf-test.sh  --fetch-size 10000 --messages 1000000   --topic zhaobsh01 --consumer.config config/sasl.conf  --bootstrap-server 10.110.139.181:9093 --print-metrics
# 注意脚本也比较简单.可以直接使用

zhaobsh001: 
data.consumed.in.MB:   195.3125 
MB.sec:                10.9683 
data.consumed.in.nMsg: 200002
nMsg.sec               11231.6505 
rebalance.time.ms:     3451 
fetch.time.ms          14356
fetch.MB.sec           13.6049
fetch.nMsg.sec         13931.5965

zhaobsh002:
data.consumed.in.MB:   97.6563,
MB.sec:                5.9423, 
data.consumed.in.nMsg: 100000,
nMsg.sec               6084.9458,
rebalance.time.ms:     3525, 
fetch.time.ms          12909,
fetch.MB.sec           7.5650,
fetch.nMsg.sec         7746.5334

kafka-map 的简单使用

1. 下载:
https://github.com/dushixiang/kafka-map

2. 修改yaml文件
default:
  # 初始化安装时的账号
  username: admin
  # 初始化安装时的密码
  password: xxxx

3. 启动服务
nohup /jdk-17.0.2/bin/java -jar kafka-map.jar  &
注意 java必须用高版本

4. 打开浏览器访问:
http://ip:8080
# 修改修改默认端口

界面化

image

与kafka的学习之二_kafka的压测与GUI管理相似的内容:

kafka的学习之二_kafka的压测与GUI管理

# kafka的学习之二_kafka的压测与GUI管理 ## 第一部分创建topic ``` cd /root/kafka_2.13-3.5.0 bin/kafka-topics.sh --create --bootstrap-server 10.110.139.184:9093 --command

kafka的学习之一_带SASL鉴权的集群安装与启动

# kafka的学习之一_带SASL鉴权的集群安装与启动 ## 背景 ``` 想开始一段新的里程. 可能会比现在累, 可能会需要更多的学习和努力. kafka可能就是其中之一. 自己之前总是畏缩不前. 不想面对很多压力. 年龄已经很大了, 必须得向前看继续努力了. ``` ## 关于kafka ``

Jmeter学习之八_测试kafka

# Jmeter学习之八_测试kafka ## 背景 ``` 最近在持续学习. 昨天学习了grafana展示Jmeter测试数据库的结果 今天想着能够测试一下kafka验证一下kafka的吞吐量等信息 说干就干的. ``` ## 遇到的坑 ``` 本来计划使用pepper-box 或者是 kafka

kafka学习之五_多个磁盘的性能验证

# kafka学习之五_多个磁盘的性能验证 ## 背景 ``` 周末在家学习kafka 上午验证了grafana+kafka_exporter的监控 下午想着验证一把性能相关. kafka学习之三里面,有成套的脚本. 我这边想起来之前还有一个机器, 是四个单盘HDD, 我可以直接进行使用和验证. `

Kafka学习之四_Grafana监控相关的学习

# Kafka学习之四_Grafana监控相关的学习 ## 背景 ``` 想一并学习一下kafaka的监控. 又重新开始学习grafana了: 下载地址: https://grafana.com/grafana/download https://prometheus.io/download/ htt

从Kafka中学习高性能系统如何设计

相信各位小伙伴之前或多或少接触过消息队列,比较知名的包含Rocket MQ和Kafka,在京东内部使用的是自研的消息中间件JMQ,从JMQ2升级到JMQ4的也是带来了性能上的明显提升,并且JMQ4的底层也是参考Kafka去做的设计。在这里我会给大家展示Kafka它的高性能是如何设计的,大家也可以学习相关方法论将其利用在实际项目中,也许下一个顶级项目就在各位的代码中产生了。

kafka学习之三_信创CPU下单节点kafka性能测试验证

# kafka学习之三_信创CPU下单节点kafka性能测试验证 ## 背景 ``` 前面学习了 3controller+5broker 的集群部署模式. 晚上想着能够验证一下国产机器的性能. 但是国产机器上面的设备有限. 所以想着进行单节点的安装与测试. 并且记录一下简单结果 希望对以后的工作有指

[转帖]Kafka 核心技术与实战学习笔记(六)kafka线上集群部署方案

一.操作系统-Linux Kafka是JVM系的大数据框架kafka由Scala语言和Java语言编写而成,编译之后的源代码就是普通的".class"文件 使用Linux kafka客户端底层使用Java的selector,selector在Linux上的实现机制是epoll,由于在windows上

kettle从入门到精通 第六十九课 ETL之kettle kettle cdc mysql,轻松实现实时增量同步

1、之前kettle cdc mysql的时候使用的方案是canal+kafka+kettle,今天我们一起学习下使用kettle的插件Debezium直接cdc mysql。 注:CDC (Change Data Capture) 是一种技术,用于捕获和同步数据库中的更改。 1)Debezium步

strimzi实战之一:简介和准备

strimzi是个CNCF项目,功能是用于在kubernetes环境下部署和配置kafka,并提供了丰富的扩展功能,《strimzi实战》是欣宸新的系列原创,旨在与大家一起通过实战学习和掌握strimzi,并且深入源码