[转帖]Kafka-LEO和HW概念及更新流程

kafka,leo,hw,概念,更新,流程 · 浏览次数 : 0

小编点评

**LEO&HW基本概念** **LEO(Log End Offset):**表示日志文件下一条待写入消息的offset,这个offset上实际没有消息。 **HW(high watermark):**副本的高水印值,代表副本中已提交或已备份消息的范围,通过它可以得知副本中已提交或已备份消息的范围,leader副本中的HW,决定了消费者能消费的最新消息能到哪个offset。 **LEOHW更新流程** 1. **初始化:** - leader副本和follower副本上都保存各自的LEO。 - leader LEO 记录日志文件提交或备份的进度。 2. **leader副本:** - 当 leader副本接收生产者的一条消息后,会更新自己的 LEO。 - 如果更新时尚未收到fetch请求,或者fetch请求在请求队列中排队,则不做更新。 3. **follower副本:** - 当 leader副本收到生产者的一条消息后,会更新自己的 LEO。 - 如果更新时尚未收到fetch请求,或者fetch请求在请求队列中排队,则不做更新。 4. **HW更新:** - leader HW 只会更新当且仅当 remote LEO 大于等于 follower 的 HW 值时。 - follower HW 更新发生在 follower副本更新 LEO之后,一旦follower向 log 写完数据,它就会尝试更新 HW 值。 - follower HW 更新只更新最小的 leader HW 值。 **LEO和HW更新流程示例分析** | **状态** | **leader副本** | **follower副本** | |---|---|---| | 初始 | LEADER_LEO = 0 | LEADER_LEO = 0 | | leader 收到生产者的消息 | LEADER_LEO 更新 | LEADER_LEO 更新 | | follower 收到生产者的消息 | LEADER_LEO 更新 | LEADER_LEO 更新 | | follower 收到生产者的消息 | LEADER_LEO 不更新 | LEADER_LEO 更新 | | follower 收到生产者的消息 | LEADER_LEO 更新 | LEADER_LEO 更新 | | follower 收到生产者的消息 | LEADER_LEO 更新 | LEADER_LEO 更新 | | follower 收到生产者的消息 | LEADER_LEO 更新 | LEADER_LEO 更新 |

正文

https://www.cnblogs.com/youngchaolin/p/12641463.html

 

 

引言

记录下和kafka相关的LEO和HW的内容,文中很多理解参考文末书籍还有某前辈。

LEO&HW基本概念

  1. Base Offset:是起始位移,该副本中第一条消息的offset,如下图,这里的起始位移是0,如果一个日志文件写满1G后(默认1G后会log rolling),这个起始位移就不是0开始了。
  2. HW(high watermark):副本的高水印值,replica中leader副本和follower副本都会有这个值,通过它可以得知副本中已提交或已备份消息的范围,leader副本中的HW,决定了消费者能消费的最新消息能到哪个offset。如下图所示,HW值为8,代表offset为[0,8]的9条消息都可以被消费到,它们是对消费者可见的,而[9,12]这4条消息由于未提交,对消费者是不可见的。注意HW最多达到LEO值时,这时可见范围不会包含HW值对应的那条消息了,如下图如果HW也是13,则消费的消息范围就是[0,12]。
  3. LEO(log end offset):日志末端位移,代表日志文件中下一条待写入消息的offset,这个offset上实际是没有消息的。不管是leader副本还是follower副本,都有这个值。当leader副本收到生产者的一条消息,LEO通常会自增1,而follower副本需要从leader副本fetch到数据后,才会增加它的LEO,最后leader副本会比较自己的LEO以及满足条件的follower副本上的LEO,选取两者中较小值作为新的HW,来更新自己的HW值。

LEO&HW更新流程

LEO和HW的更新,需要区分leader副本和follower副本,两者上的更新情况不一样,整体参考下图简单示例。

LEO

包括leader副本和follower副本。

leader LEO:leader的LEO就保存在其所在的broker的缓存里,当leader副本log文件写入消息后,就会更新自己的LEO。

remote LEO和follower LEO:remote LEO是保存在leader副本上的follower副本的LEO,可以看出leader副本上保存所有副本的LEO,当然也包括自己的。follower LEO就是follower副本的LEO,因此follower相关的LEO需要考虑上面两种情况。

  • case 1:如果是remote LEO,更新前leader需要确认follower的fetch请求包含的offset,这个offset就是follower副本的LEO,根据它对remote LEO进行更新。如果更新时尚未收到fetch请求,或者fetch请求在请求队列中排队,则不做更新。可以看出在leader副本给follower副本返回数据之前,remote LEO就先更新了。
  • case 2:如果是follower LEO,它的更新是在follower副本得到leader副本发送的数据并随后写入到log文件,就会更新自己的LEO。

HW

包括leader副本和follower副本。

leader HW:它的更新是有条件的,参考书籍中给出了四种情况,如下是其中的一种,就是producer向leader副本写消息的情况,当满足四种情况之一,就会触发HW尝试更新。如下图所示更新时会比较所有满足条件的副本的LEO,包括自己的LEO和remote LEO,选取最小值作为更新后的leader HW。

四种情况如下,其中最常见的情况就是前两种。

1.producer向leader写消息,会尝试更新。
2.leader处理follower的fetch请求,先读取log数据,然后尝试更新HW。
3.副本成为leader副本时,会尝试更新HW。
4.broker崩溃可能会波及leader副本,也需要尝试更新。

follower HW:更新发生在follower副本更新LEO之后,一旦follower向log写完数据,它就会尝试更新HW值。比较自己的LEO值与fetch响应中leader副本的HW值,取最小者作为follower副本的HW值。可以看出,如果follower的LEO值超过了leader的HW值,那么follower HW值是不会超过leader HW值的。

更新流程示例分析

以下是参考《apache kafka实战》的整理。

前提条件:考虑一个主题,只有一个分区,两个副本的情况,并且刚开始都没有任何消息在log日志文件。

在考虑fetch请求时,需要考虑两种情况,接下来就只考虑第二种情况,第一种情况也可以参考第二种情况。

  1. producer暂时无法响应follower partition的请求,如没有数据可以返回,这时fetch请求会缓存在一个叫做purgatory的对象里(请求不会无限期缓存,默认500ms)。在缓存期间,如果producer发送PRODUCE请求,则被唤醒,接下来会正常处理fetch请求。
  2. producer正常响应follower partition的请求。

下面分析第二种情况,即producer正常响应follower的情况。

当leader副本接受到了producer的消息,并且此时没有follower副本fetch请求,在这样的前提下,它会先做如下操作。

  1. 写入消息到log日志文件,更新leader LEO为1。
  2. 尝试更新remote LEO,由于没有fetch请求,因此它是0,不需要更新。
  3. 做min(leader LEO,remote LEO)的计算,结果为0,这样leader HW无需更新,依然是0。

第一次fetch请求,分leader端和follower端:

leader端:

  1. 读取底层log数据。
  2. 根据fetch带过来的offset=0的数据(就是follower的LEO,因为follower还没有写入数据,因此LEO=0),更新remote LEO为0。
  3. 尝试更新HW,做min(leader LEO,remote LEO)的计算,结果为0。
  4. 把读取到的log数据,加上leader HW=0,一起发给follower副本。

follower端:

  1. 写入数据到log文件,更新自己的LEO=1。
  2. 更新HW,做min(leader HW,follower LEO)的计算,由于leader HW=0,因此更新后HW=0。

可以看出,第一次fetch请求后,leader和follower都成功写入了一条消息,但是HW都依然是0,对消费者来说都是不可见的,还需要第二次fetch请求。

第二次fetch请求,分leader端和follower端:

leader端:

  1. 读取底层log数据。
  2. 根据fetch带过来的offset=1的数据(上一次请求写入了数据,因此LEO=1),更新remote LEO为1。
  3. 尝试更新HW,做min(leader LEO,remote LEO)的计算,结果为1。
  4. 把读取到的log数据(其实没有数据),加上leader HW=1,一起发给follower副本。

follower端:

  1. 写入数据到log文件,没有数据可以写,LEO依然是1。
  2. 更新HW,做min(leader HW,follower LEO)的计算,由于leader HW=1,因此更新后HW=1。

这个时候,才完成数据的写入,并且分区HW(分区HW指的就是leader副本的HW)更新为1,代表消费者可以消费offset=0的这条消息了,上面的过程就是kafka处理消息写入和备份的全流程。

最后,使用HW来记录消息在副本中提交或备份的进度,其实是存在缺陷的,在kafka 0.11.0.0后的版本中,使用leader epoch解决了。由于水平有限,先不深究了,后续如有需要再参考文末书籍内容学习。

以上,理解不一定正确,学习就是一个不断认识和纠错的过程。

4.4清明节,珍惜当下,感恩生命!

参考博文:

(1)《Apache Kafka实战》

与[转帖]Kafka-LEO和HW概念及更新流程相似的内容:

[转帖]Kafka-LEO和HW概念及更新流程

https://www.cnblogs.com/youngchaolin/p/12641463.html 目录 LEO&HW基本概念 LEO&HW更新流程 LEO HW 更新流程示例分析 引言 记录下和kafka相关的LEO和HW的内容,文中很多理解参考文末书籍还有某前辈。 回到顶部 LEO&HW基

[转帖]Kafka可靠性之HW与Leader Epoch

《深入理解Kafka:核心设计与实现原理》是基于2.0.0版本的书 在这本书中,终于看懂了笔者之前提过的几个问题 准备知识 1、leader里存着4个数据:leader_LEO、leader_HW、remote_LEO集合、remote_HW集合 2、follower里只保存自身的:follower

[转帖]Kafka 基本概念大全

https://my.oschina.net/jiagoushi/blog/5600943 下面给出 Kafka 一些重要概念,让大家对 Kafka 有个整体的认识和感知,后面还会详细的解析每一个概念的作用以及更深入的原理 ・Producer:消息生产者,向 Kafka Broker 发消息的客户端

[转帖]Kafka 与RocketMQ 落盘机制比较

https://www.jianshu.com/p/fd50befccfdd 引言 前几期的评测中,我们对比了Kafka和RocketMQ的吞吐量和稳定性,本期我们要引入一个新的评测标准——软件可靠性。 何为“可靠性”? 先看下面这种情况:有A,B两辆越野汽车,在城市的周边地区均能很好应对泥泞的路况

[转帖]Kafka关键参数设置

https://www.cnblogs.com/wwcom123/p/11181680.html 生产环境中使用Kafka,参数调优非常重要,而Kafka参数众多,我们的java的Configuration代码中,经常设置的参数如下: Properties props = new Propertie

[转帖]kafka压测多维度分析实战

设置虚拟机不同的带宽来进行模拟压测 kafka数据压测 1、公司生产kafka集群硬盘:单台500G、共3台、日志保留7天。 1.1 版本:1.1.0 2、压测kafka。 2.1 使用kafka自带压测工具:bin/kafka-producer-perf-test.sh 命令参数解释: --num

[转帖]Kafka—配置SASL/PLAIN认证客户端及常用操作命令

介绍 SASL/PLAIN 是一种简单的 username/password安全认证机制,本文主要总结服务端开启该认证后,命令行客户端进行配置的操作流程。 配置 增加jaas.properties 在kafka的config目录下增加jaas.properties文件指定认证协议为SASL_PLAI

[转帖]kafka 配置认证与授权

https://www.cnblogs.com/yjt1993/p/14739130.html 本例不使用kerberos做认证,使用用户名和密码的方式来进行认证 1、服务端配置 1.0 配置server.properties 添加如下配置 #配置 ACL 入口类 authorizer.class.

[转帖]Kafka—配置SASL/PLAIN认证客户端及常用命令

https://www.jianshu.com/p/c1a02fb1779f 介绍 SASL/PLAIN 是一种简单的 username/password安全认证机制,本文主要总结服务端开启该认证后,命令行客户端进行配置的操作流程。 配置 增加jaas.properties 在kafka的confi

[转帖]kafka搭建kraft集群模式

kafka2.8之后不适用zookeeper进行leader选举,使用自己的controller进行选举 1.准备工作 准备三台服务器 192.168.3.110 192.168.3.111 192.168.3.112,三台服务器都要先安装好jdk1.8,配置好环境变量, 下载好kafka3.0.0