分布式消息通信之Kafka的实现原理(下)

如何处理所有的Replica不工作的情况
在ISR中至少有一个follower时,Kafka可以确保已经commit的数据不丢失,但如果某个Partition的所有Replica都宕机了,就无法保证数据不丢失了
  • 1. 等待ISR中的任一个Replica“活”过来,并且选它作为Leader;
  • 2. 选择第一个“活”过来的Replica(不一定是ISR中的)作为Leader。
这就需要在可用性和一致性当中作出一个简单的折衷。
如果一定要等待ISR中的Replica“活”过来,那不可用的时间就可能会相对较长。而且如果ISR中的所有Replica都无法“活”过来了,或者数据都丢失了,这个Partition将永远不可用。
选择第一个“活”过来的Replica作为Leader,而这个Replica不是ISR中的Replica,那即使它并不保证已经包含了所有已commit的消息,它也会成为Leader而作为consumer的数据源(前文有说明,所有读写都由Leader完成)。
 
副本数据同步原理
了解了副本的协同过程以后,还有一个最重要的机制,就是数据的同步过程。它需要解决
  • 1. 怎么传播消息;
  • 2. 在向消息发送端返回ack之前需要保证多少个Replica已经接收到这个消息。
数据的处理过程是:
下图中,深红色部分表示test_replica分区的leader副本,另外两个节点上浅色部分表示follower副本
Producer在发布消息到某个Partition时:
  • 先通过ZooKeeper找到该Partition的Leader get /brokers/topics/<topic>/partitions/2/state ,然后无论该Topic的Replication Factor为多少(也即该Partition有多少个Replica),Producer只将该消息发送到该Partition的Leader。Leader会将该消息写入其本地Log。每个Follower都从Leader    pull数据。这种方式上,Follower 存储的数据顺序与Leader保持一致。
  • Follower在收到该消息并写入其Log后,向Leader发送ACK。
  • 一旦Leader收到了ISR中的所有Replica的ACK,该消息就被认为已经commit了,Leader将增加HW(HighWatermark)并且向Producer发送ACK。

LEO:即日志末端位移(log  end  offset),记录了该副本底层日志(log)中下一条消息的位移值。注意是下一条消息!也就是说,如果LEO=10,那么表示该副本保存了10条消息,位移值范围是[0, 9]。另外, leader LEO和follower LEO的更新是有区别的。我们后面会详细说

HW:即上面提到的水位值(Hight  Water)。对于同一个副本对象而言,其HW值不会大于LEO值。小于等于HW值的所有消息都被认为是“已备份”的(replicated)。同理,leader副本和follower副本的  HW更新是有区别的

通过下面这幅图来表达LEO、HW的含义,随着follower副本不断和leader副本进行数据同步,follower  副本的LEO会主键后移并且追赶到leader副本,这个追赶上的判断标准是当前副本的LEO是否大于或者  等于leader副本的HW,这个追赶上也会使得被踢出的follower副本重新加入到ISR集合中。

另外,  假如说下图中的最右侧的follower副本被踢出ISR集合,也会导致这个分区的HW发生变化,变成了3:

初始状态

初始状态下,leader和follower的HW和LEO都是0,leader副本会保存remote LEO,表示所有follower LEO,也会被初始化为0,这个时候,producer没有发送消息。follower会不断地个leader发送FETCH    请求,但是因为没有数据,这个请求会被leader寄存,当在指定的时间之后会强制完成请求,这个时间  配置是(replica.fetch.wait.max.ms),如果在指定时间内producer有消息发送过来,那么kafka会唤醒fetch请求,让leader继续处理。

数据的同步处理会分两种情况,这两种情况下处理方式是不一样的

  • 第一种是leader处理完producer请求之后,follower发送一个fetch请求过来;
  • 第二种是follower阻塞在leader指定时间之内,leader副本收到producer的请求。

第一种情况

生产者发送一条消息

leader处理完producer请求之后,follower发送一个fetch请求过来 。状态图如下:

leader副本收到请求以后,会做几件事情

  1. 把消息追加到log文件,同时更新leader副本的LEO;
  2. 尝试更新leader HW值。这个时候由于follower副本还没有发送fetch请求,那么leader的remote LEO仍然是0。leader会比较自己的LEO以及remote  LEO的值发现最小值是0,与HW的值相同,所以不会更新HW。

follower fetch消息:

follower 发送fetch请求,leader副本的处理逻辑是:

  1. 读取log数据、更新remote LEO=0(follower还没有写入这条消息,这个值是根据follower的fetch请求中的offset来确定的);
  2. 尝试更新HW,因为这个时候LEO和remoteLEO还是不一致,所以仍然是HW=0;
  3. 把消息内容和当前分区的HW值发送给follower副本。

follower副本收到response以后:

  1. 将消息写入到本地log,同时更新follower的LEO;
  2. 更新follower HW,本地的LEO和leader返回的HW进行比较取小的值,所以仍然是0。

第一次交互结束以后,HW仍然还是0,这个值会在下一次follower发起fetch请求时被更新。

follower发第二次fetch请求,leader收到请求以后:

  1. 读取log数据;
  2. 更新remote LEO=1 因为这次fetch携带的offset是1;
  3. 更新当前分区的HW,这个时候leader LEO和remote LEO都是1,所以HW的值也更新为1。

把数据和当前分区的HW值返回给follower副本,这个时候如果没有数据,则返回为空。

follower副本收到response以后:

  1. 如果有数据则写本地日志,并且更新LEO;
  2. 更新follower的HW值。

到目前为止,数据的同步就完成了,意味着消费端能够消费offset=1这条消息。

第二种情况

前面说过,由于leader副本暂时没有数据过来,所以follower的fetch会被阻塞,直到等待超时或者leader接收到新的数据。当leader收到请求以后会唤醒处于阻塞的fetch请求。处理过程基本上和前面说  的一致

  1. leader将消息写入本地日志,更新Leader的LEO;
  2. 唤醒follower的fetch请求;
  3. 更新HW。

kafka使用HW和LEO的方式来实现副本数据的同步,本身是一个好的设计,但是在这个地方会存在一个  数据丢失的问题,当然这个丢失只出现在特定的背景下。我们回想一下,HW的值是在新的一轮FETCH   中才会被更新。我们分析下这个过程为什么会出现数据丢失。

数据丢失的问题

前提:

min.insync.replicas=1 //设定ISR中的最小副本数是多少,默认值为1(在server.properties中配置), 并且acks参数设置为-1(表示需要所有副本确认)时,此参数才生效.

表达的含义是,至少需要多少个副本同步才能表示消息是提交的, 所以,当min.insync.replicas=1 的时候,一旦消息被写入leaderlog即被认为是已提交,而延迟一轮FETCH  RPC更新HW值的设计使follower HW值是异步延迟更新的,倘若在这个过程中leader发生变更,那么成为新leaderfollowerHW值就有可能是过期的,使得clients端认为是成功提交的消息被删除。

producerack

acks配置表示producer发送消息到broker上以后的确认值。有三个可选项:

  • 0:表示producer不需要等待broker的消息确认。这个选项时延最小但同时风险最大(因为当server  机时,数据将会丢失)。
  • 1:表示producer只需要获得kafka集群中的leader节点确认即可,这个选择时延较小同时确保了leader节点确认接收成功。
  • all(-1):需要ISR中所有的Replica给予接收确认,速度最慢,安全性最高,但是由于ISR可能会缩小到仅  包含一个Replica,所以设置参数为all并不能一定避免数据丢失。

数据丢失的解决方案

在kafka0.11.0.0版本之后,引入了一个leader  epoch来解决这个问题,所谓的leader  epoch实际上是一对值(epoch,offset),epoch代表leader的版本号,从0开始递增,当leader发生过变更,epoch  就+1,而offset则是对应这个epoch版本的leader写入第一条消息的offset,比如(0,0), (1,50) ,表示第一个leader从offset=0开始写消息,一共写了50条。第二个leader版本号是1,从offset=50开始写,这个信息会持久化在对应的分区的本地磁盘上,文件名是/tmp/kafka- log/topic/leader-epoch-checkpoint 。

leader broker中会保存这样一个缓存,并且定期写入到checkpoint文件中。

当leader写log时它会尝试更新整个缓存:  如果这个leader首次写消息,则会在缓存中增加一个条目;否则就不做更新。而每次副本重新成为leader时会查询这部分缓存,获取出对应leader版本的offset。

我们基于同样的情况来分析,follower宕机并且恢复之后,有两种情况,如果这个时候leader副本没有  挂,也就是意味着没有发生leader选举,那么follower恢复之后并不会去截断自己的日志,而是先发送  一个OffsetsForLeaderEpochRequest请求给到leader副本,leader副本收到请求之后返回当前的LEO。

  • 如果follower副本的leaderEpoch和leader副本的epoch相同, leader的leo只可能大于或者等于follower副本的leo值,所以这个时候不会发生截断;
  • 如果follower副本和leader副本的epoch值不同,那么leader副本会查找follower副本传过来的epoch+1在本地文件中存储的StartOffset返回给follower副本,也就是新leader副本的LEO。这样也避  免了数据丢失的问题;
  • 如果leader副本宕机了重新选举新的leader,那么原本的follower副本就会变成leader,意味着epoch  从0变成1,使得原本follower副本中LEO的值的到了保留。

Leader副本的选举过程

KafkaController会监听ZooKeeper的/brokers/ids节点路径,一旦发现有broker挂了,执行下面   的逻辑。这里暂时先不考虑KafkaController所在broker挂了的情况,KafkaController挂了,各个broker会重新leader选举出新的KafkaController。

leader副本在该broker上的分区就要重新进行leader选举,目前的选举策略是:

  • a) 优先从isr列表中选出第一个作为leader副本,这个叫优先副本,理想情况下有限副本就是该分 区的leader副本。
  • b) 如果isr列表为空,则查看该topic的unclean.leader.election.enable配置。unclean.leader.election.enable:为true则代表允许选用非isr列表的副本作为leader,那么此 时就意味着数据可能丢失,为false的话,则表示不允许,直接抛出NoReplicaOnlineException异常,造成leader副本选举失败。
  • c) 如果上述配置为true,则从其他副本中选出一个作为leader副本,并且isr列表只包含该leader 副本。一旦选举成功,则将选举后的leader和isr和其他副本信息写入到该分区的对应的zk路径上。

消息的存储

消息发送端发送消息到broker上以后,消息是如何持久化的呢?那么接下来去分析下消息的存储:

首先我们需要了解的是,kafka是使用日志文件的方式来保存生产者和发送者的消息,每条消息都有一    offset值来表示它在分区中的偏移量。Kafka中存储的一般都是海量的消息数据,为了避免日志文件过  大,Log并不是直接对应在一个磁盘上的日志文件,而是对应磁盘上的一个目录,这个目录的命名规则   是<topic_name>_<partition_id>。

消息的文件存储机制

一个topic的多个partition在物理磁盘上的保存路径,路径保存在  /tmp/kafka-logs/topic_partition,包含日志文件、索引文件和时间索引文件。

kafka是通过分段的方式将Log分为多个LogSegment,LogSegment是一个逻辑上的概念,一个LogSegment对应磁盘上的一个日志文件和一个索引文件,其中日志文件是用来记录消息的。索引文件  是用来保存消息的索引。那么这个LogSegment是什么呢?

LogSegment

假设kafka以partition为最小存储单位,那么我们可以想象当kafka   producer不断发送消息,必然会引起partition文件的无线扩张,这样对于消息文件的维护以及被消费的消息的清理带来非常大的挑战,所  kafka   以segment为单位又把partition进行细分。每个partition相当于一个巨型文件被平均分配到多个大小相等的segment数据文件中(每个segment文件中的消息不一定相等),这种特性方便已经被消  费的消息的清理,提高磁盘的利用率。

log.segment.bytes=107370   (设置分段大小),默认是1gb,我们把这个值调小以后,可以看到日志分段的效果。

抽取其中3个分段来进行分析:

 

segment file由2大部分组成,分别为index file和data file,此2个文件一一对应,成对出现,后缀".index"和“.log”分别表示为segment索引文件、数据文件。

segment文件命名规则:partion全局的第一个segment从0开始,后续每个segment文件名为上一个segment文件最后一条消息的offset值进行递增。数值最大为64位long大小,20位数字字符长度,没有 数字用0填充。

查看segment文件命名规则

通过下面这条命令可以看到kafka消息日志的内容:

sh kafka-run-class.sh kafka.tools.DumpLogSegments --files /tmp/kafka-logs/test- 0/00000000000000000000.log --print-data-log

假如第一个log文件的最后一个offset为:5376,所以下一个segment的文件命名为: 00000000000000005376.log。对应的index为00000000000000005376.index。

segmentindexlog的对应关系

从所有分段中,找一个分段进行分析:

为了提高查找消息的性能,为每一个日志文件添加2个索引索引文件:OffsetIndex TimeIndex,分别对应.index以及.timeindex, TimeIndex索引文件格式:它是映射时间戳和相对offset。

查看索引内容:

sh kafka-run-class.sh kafka.tools.DumpLogSegments --files /tmp/kafka-logs/test- 0/00000000000000000000.index --print-data-log

如图所示,index中存储了索引以及物理偏移量。  log存储了消息的内容。索引文件的元数据执行对应数据文件中message的物理偏移地址。举个简单的案例来说,以[4053,80899]为例,在log文件中,对应   的是第4053条记录,物理偏移量(position)为80899. positionByteBuffer的指针位置。

partition中如何通过offset查找message

查找的算法是:

  1. 根据offset的值,查找segment段中的index索引文件。由于索引文件命名是以上一个文件的最后 一个offset进行命名的,所以,使用二分查找算法能够根据offset快速定位到指定的索引文件。
  2. 找到索引文件后,根据offset进行定位,找到索引文件中的符合范围的索引。(kafka采用稀疏索 引的方式来提高查找性能)。
  3. 得到position以后,再到对应的log文件中,从position出开始查找offset对应的消息,将每条消息  的offset与目标offset进行比较,直到找到消息。

比如说,我们要查找offset=2490这条消息,那么先找到00000000000000000000.index, 然后找到[2487,49111]这个索引,再到log文件中,根据49111这个position开始查找,比较每条消息的offset  否大于等于2490。最后查找到对应的消息以后返回。

Log文件的消息内容分析

前面我们通过kafka提供的命令,可以查看二进制的日志文件信息,一条消息,会包含很多的字段。

offset: 5371 position: 102124 CreateTime: 1531477349286 isvalid: true keysize:
-1 valuesize: 12 magic: 2 compresscodec: NONE producerId: -1 producerEpoch: -1 sequence: -1 isTransactional: false headerKeys: [] payload: message_5371

offset和position这两个前面已经讲过了、 createTime表示创建时间、keysize和valuesize表示key和value的大小、 compresscodec表示压缩编码、payload:表示消息的具体内容。

日志的清除策略以及压缩策略

日志清除策略

前面提到过,日志的分段存储,一方面能够减少单个文件内容的大小,另一方面,方便kafka进行日志  清理。日志的清理策略有两个

  1. 根据消息的保留时间,当消息在kafka中保存的时间超过了指定的时间,就会触发清理过程
  2. 根据topic存储的数据大小,当topic所占的日志文件大小大于一定的阀值,则可以开始删除最旧的 消息。kafka会启动一个后台线程,定期检查是否存在可以删除的消息

通过log.retention.bytes和log.retention.hours这两个参数来设置,当其中任意一个达到要求,都会执  行删除。

默认的保留时间是:7天

日志压缩策略

Kafka还提供了“日志压缩(Log  Compaction)”功能,通过这个功能可以有效的减少日志文件的大小, 缓解磁盘紧张的情况,在很多实际场景中,消息的key和value的值之间的对应关系是不断变化的,就像  数据库中的数据会不断被修改一样,消费者只关心key对应的最新的value。因此,我们可以开启kafka    的日志压缩功能,服务端会在后台启动启动Cleaner线程池,定期将相同的key进行合并,只保留最新的value值。日志的压缩原理是:

磁盘存储的性能问题

磁盘存储的性能优化

我们现在大部分企业仍然用的是机械结构的磁盘,如果把消息以随机的方式写入到磁盘,那么磁盘首先  要做的就是寻址,也就是定位到数据所在的物理地址,在磁盘上就要找到对应的柱面、磁头以及对应的  扇区;这个过程相对内存来说会消耗大量时间,为了规避随机读写带来的时间消耗,kafka采用顺序写   的方式存储数据。即使是这样,但是频繁的I/O操作仍然会造成磁盘的性能瓶颈。

零拷贝

消息从发送到落地保存,broker维护的消息日志本身就是文件目录,每个文件都是二进制保存,生产者  和消费者使用相同的格式来处理。在消费者获取消息时,服务器先从硬盘读取数据到内存,然后把内存  中的数据原封不动的通过socket发送给消费者。虽然这个操作描述起来很简单,但实际上经历了很多步骤。

操作系统将数据从磁盘读入到内核空间的页缓存:

  • 应用程序将数据从内核空间读入到用户空间缓存中;
  • 应用程序将数据写回到内核空间到socket缓存中;
  • 操作系统将数据从socket缓冲区复制到网卡缓冲区,以便将数据经网络发出。

通过“零拷贝”技术,可以去掉这些没必要的数据复制操作,同时也会减少上下文切换次数。现代的unix   操作系统提供一个优化的代码路径,用于将数据从页缓存传输到socket;在Linux中,是通过sendfile  统调用来完成的。Java提供了访问这个系统调用的方法:File-Channel.transferTo API。

使用sendfile,只需要一次拷贝就行,允许操作系统将数据直接从页缓存发送到网络上。所以在这个优  化的路径中,只有最后一步将数据拷贝到网卡缓存中是需要的。

页缓存

页缓存是操作系统实现的一种主要的磁盘缓存,但凡设计到缓存的,基本都是为了提升i/o性能,所以页  缓存是用来减少磁盘I/O操作的。

磁盘高速缓存有两个重要因素:

第一:访问磁盘的速度要远低于访问内存的速度,若从处理器L1和L2高速缓存访问则速度更快。    第二,数据一旦被访问,就很有可能短时间内再次访问。正是由于基于访问内存比磁盘快的多,所  以磁盘的内存缓存将给系统存储性能带来质的飞越。

个进程准备读取磁盘上的文件内容时, 操作系统会先查看待读取的数据所在的页(page)是否在页缓存(pagecache)中,如果存在(命中)则直接返回数据,  从而避免了对物理磁盘的I/0操作;如果没有命中,  则操作系统会向磁盘发起读取请求并将读取的数据页存入页缓存,  之后再将数据返回给进程。同样,如果 个进程需要将数据写入磁盘, 那么操作系统也会检测数据对应的页是否在页缓存中,如果不存在, 则会先在页缓存中添加相应的页, 最后将数据写入对应的页。 被修改过后的页也就变成了页, 操作系统会在合适的时间把脏页中的数据写入磁盘, 以保持数据的 致性。

Kafka中大量使用了页缓存, 这是Kafka实现高吞吐的重要因素之 虽然消息都是先被写入页缓存, 然后由操作系统负责具体的刷盘任务的,     但在Kafka中同样提供了同步刷盘及间断性强制刷盘(fsync), 可以通过 log.flush.interval.messages  log.flush.interval.ms 参数来控制。

同步刷盘能够保证消息的可靠性,避免因为宕机导致页缓存数据还未完成同步时造成的数据丢失。但是  实际使用上,我们没必要去考虑这样的因素以及这种问题带来的损失,消息可靠性可以由多副本来解     决,同步刷盘会带来性能的影响。 刷盘的操作由操作系统去完成即可。

Kafka消息的可靠性

没有一个中间件能够做到百分之百的完全可靠,可靠性更多的还是基于几个9的衡量指标,比如4个9、5  个9.    软件系统的可靠性只能够无限去接近100%,但不可能达到100%。所以kafka如何是实现最大可能的可靠性呢?

分区副本,  你可以创建更多的分区来提升可靠性,但是分区数过多也会带来性能上的开销,一般来说,3个副本就能满足对大部分场景的可靠性要求acks,生产者发送消息的可靠性,也就是我要保证我这个消息一定是到了broker并且完成了多副 本的持久化,但这种要求也同样会带来性能上的开销。它有几个可选项:

  • 1 :生产者把消息发送到leader副本,leader副本在成功写入到本地日志之后就告诉生产者消息提交成功,但是如果isr集合中的follower副本还没来得及同步leader副本的消息, leader挂了,就会造成消息丢失。
  • -1 :消息不仅仅写入到leader副本,并且被ISR集合中所有副本同步完成之后才告诉生产者已经提交成功,这个时候即使leader副本挂了也不会造成数据丢失。
  • 0:表示producer不需要等待broker的消息确认。这个选项时延最小但同时风险最大(因为 当server宕机时,数据将会丢失)。

保障消息到了broker之后,消费者也需要有一定的保证,因为消费者也可能出现某些问题导致消 息没有消费到。

enable.auto.commit默认为true,也就是自动提交offset,自动提交是批量执行的,有一个时间窗  口,这种方式会带来重复提交或者消息丢失的问题,所以对于高可靠性要求的程序,要使用手动提交。 对于高可靠要求的应用来说,宁愿重复消费也不应该因为消费异常而导致消息丢失。

原文地址:https://www.cnblogs.com/47Gamer/p/13743511.html