zoukankan      html  css  js  c++  java
  • 01 | 日志段:保存消息文件的对象是怎么实现的?

    日志(Log)、日志段(LogSegment)以及索引(Index)源码。

    日志段及其相关代码是 Kafka 服务器源码中最为重要的组件代码之一。你可能会非常关心,在 Kafka 中,消息是如何被保存和组织在一起的。毕竟,不管是学习任何消息引擎,弄明白消息建模方式都是首要的问题。因此,你非常有必要学习日志段这个重要的子模块的源码实现。

    除此之外,了解日志段也有很多实际意义,比如说,你一定对 Kafka 底层日志文件 00000000000000012345.log 的命名感到很好奇。学过日志段之后,我相信这个问题一定会迎刃而解的。今天,我会带你详细看下日志段部分的源码。不过在此之前,你需要先了解一下 Kafka 的日志结构。Kafka 日志结构概览Kafka 日志在磁盘上的组织架构如下图所示

    日志是 Kafka 服务器端代码的重要组件之一,很多其他的核心组件都是以日志为基础的,比如后面要讲到的状态管理机和副本管理器等。

    总的来说,Kafka 日志对象由多个日志段对象组成,而每个日志段对象会在磁盘上创建一组文件,

    包括消息日志文件(.log)、位移索引文件(.index)、时间戳索引文件(.timeindex)以及已中止(Aborted)事务的索引文件(.txnindex)。

    当然,如果你没有使用 Kafka 事务,已中止事务的索引文件是不会被创建出来的。图中的一串数字 0 是该日志段的起始位移值(Base Offset),也就是该日志段中所存的第一条消息的位移值。一般情况下,一个 Kafka 主题有很多分区,每个分区就对应一个 Log 对象,在物理磁盘上则对应于一个子目录。比如你创建了一个双分区的主题 test-topic,那么,Kafka 在磁盘上会创建两个子目录:test-topic-0 和 test-topic-1。而在服务器端,这就是两个 Log 对象。每个子目录下存在多组日志段,也就是多组.log、.index、.timeindex 文件组合,只不过文件名不同,因为每个日志段的起始位移不同。 

    日志段代码解析阅读日志段源码是很有必要的,因为日志段是 Kafka 保存消息的最小载体。也就是说,消息是保存在日志段中的。然而,官网对于日志段的描述少得可怜,以至于很多人对于这么重要的概念都知之甚少。但是,不熟悉日志段的话,如果在生产环境出现相应的问题,我们是没有办法快速找到解决方案的。

    我跟你分享一个真实案例。我们公司之前碰到过一个问题,当时,大面积日志段同时间切分,导致瞬时打满磁盘 I/O 带宽。对此,所有人都束手无策,最终只能求助于日志段源码。最后,我们在 LogSegment 的 shouldRoll 方法中找到了解决方案:设置 Broker 端参数 log.roll.jitter.ms 值大于 0,即通过给日志段切分执行时间加一个扰动值的方式,来避免大量日志段在同一时刻执行切分动作,从而显著降低磁盘 I/O。后来在复盘的时候,我们一致认为,阅读 LogSegment 源码是非常正确的决定。否则,单纯查看官网对该参数的说明,我们不一定能够了解它的真实作用。那,log.roll.jitter.ms 参数的具体作用是啥呢?

    下面咱们说日志段的时候,我会给你详细解释下。那话不多说,现在我们就来看一下日志段源码。我会重点给你讲一下日志段类声明、append 方法、read 方法和 recover 方法。你首先要知道的是,日志段源码位于 Kafka 的 core 工程下,具体文件位置是 core/src/main/scala/kafka/log/LogSegment.scala。实际上,所有日志结构部分的源码都在 core 的 kafka.log 包下。该文件下定义了三个 Scala 对象:LogSegment class;LogSegment object;LogFlushStats object。LogFlushStats 结尾有个 Stats,它是做统计用的,主要负责为日志落盘进行计时。我们主要关心的是 LogSegment class 和 object。

    在 Scala 语言里,在一个源代码文件中同时定义相同名字的 class 和 object 的用法被称为伴生(Companion)。Class 对象被称为伴生类,它和 Java 中的类是一样的;而 Object 对象是一个单例对象,用于保存一些静态变量或静态方法。如果用 Java 来做类比的话,我们必须要编写两个类

    每个日志段由两个核心组件构成:日志和索引。当然,这里的索引泛指广义的索引文件。另外,这段注释还给出了一个重要的事实:每个日志段都有一个起始位移值(Base Offset),而该位移值是此日志段所有消息中最小的位移值,同时,该值却又比前面任何日志段中消息的位移值都大。看完这个注释,我们就能够快速地了解起始位移值在日志段中的作用了。日志段类声明

    class LogSegment private[log] (val log: FileRecords,
                                   val lazyOffsetIndex: LazyIndex[OffsetIndex],
                                   val lazyTimeIndex: LazyIndex[TimeIndex],
                                   val txnIndex: TransactionIndex,
                                   val baseOffset: Long,
                                   val indexIntervalBytes: Int,
                                   val rollJitterMs: Long,
      val time: Time) extends Logging { … }
    

      就像我前面说的,一个日志段包含消息日志文件、位移索引文件、时间戳索引文件、已中止事务索引文件等。这里的 FileRecords 就是实际保存 Kafka 消息的对象。专栏后面我将专门讨论 Kafka 是如何保存具体消息的,也就是 FileRecords 及其家族的实现方式。同时,我还会给你介绍一下社区在持久化消息这块是怎么演进的,你一定不要错过那部分的内容。下面的 lazyOffsetIndex、lazyTimeIndex 和 txnIndex 分别对应于刚才所说的 3 个索引文件。不过,在实现方式上,前两种使用了延迟初始化的原理,降低了初始化时间成本。后面我们在谈到索引的时候再详细说。每个日志段对象保存自己的起始位移 baseOffset——这是非常重要的属性!事实上,你在磁盘上看到的文件名就是 baseOffset 的值。每个 LogSegment 对象实例一旦被创建,它的起始位移就是固定的了,不能再被更改。indexIntervalBytes 值其实就是 Broker 端参数 log.index.interval.bytes 值,它控制了日志段对象新增索引项的频率。默认情况下,日志段至少新写入 4KB 的消息数据才会新增一条索引项。而 rollJitterMs 是日志段对象新增倒计时的“扰动值”。因为目前 Broker 端日志段新增倒计时是全局设置,这就是说,在未来的某个时刻可能同时创建多个日志段对象,这将极大地增加物理磁盘 I/O 压力。有了 rollJitterMs 值的干扰,每个新增日志段在创建时会彼此岔开一小段时间,这样可以缓解物理磁盘的 I/O 负载瓶颈。至于最后的 time 参数,它就是用于统计计时的一个实现类,在 Kafka 源码中普遍出现,我就不详细展开讲了。下面我来说一些重要的方法。对于一个日志段而言,最重要的方法就是写入消息和读取消息了,它们分别对应着源码中的 append 方法和 read 方法。另外,recover 方法同样很关键,它是 Broker 重启后恢复日志段的操作逻辑。

    append 方法

    我们先来看 append 方法,了解下写入消息的具体操作。

    def append(largestOffset: Long,
                 largestTimestamp: Long,
                 shallowOffsetOfMaxTimestamp: Long,
                 records: MemoryRecords): Unit = {
        if (records.sizeInBytes > 0) {
          trace(s"Inserting ${records.sizeInBytes} bytes at end offset $largestOffset at position ${log.sizeInBytes} " +
                s"with largest timestamp $largestTimestamp at shallow offset $shallowOffsetOfMaxTimestamp")
          val physicalPosition = log.sizeInBytes()
          if (physicalPosition == 0)
            rollingBasedTimestamp = Some(largestTimestamp)
    
          ensureOffsetInRange(largestOffset)
    
          // append the messages
          val appendedBytes = log.append(records)
          trace(s"Appended $appendedBytes to ${log.file} at end offset $largestOffset")
          // Update the in memory max timestamp and corresponding offset.
          if (largestTimestamp > maxTimestampSoFar) {
            maxTimestampSoFar = largestTimestamp
            offsetOfMaxTimestampSoFar = shallowOffsetOfMaxTimestamp
          }
          // append an entry to the index (if needed)
          if (bytesSinceLastIndexEntry > indexIntervalBytes) {
            offsetIndex.append(largestOffset, physicalPosition)
            timeIndex.maybeAppend(maxTimestampSoFar, offsetOfMaxTimestampSoFar)
            bytesSinceLastIndexEntry = 0
          }
          bytesSinceLastIndexEntry += records.sizeInBytes
        }
      }

    append 方法接收 4 个参数,分别表示待写入消息批次中消息的最大位移值、最大时间戳、最大时间戳对应消息的位移以及真正要写入的消息集合。下面这张图展示了 append 方法的完整执行流程:

    第一步:在源码中,首先调用 log.sizeInBytes 方法判断该日志段是否为空,如果是空的话, Kafka 需要记录要写入消息集合的最大时间戳,并将其作为后面新增日志段倒计时的依据。

    第二步:代码调用 ensureOffsetInRange 方法确保输入参数最大位移值是合法的。那怎么判断是不是合法呢?标准就是看它与日志段起始位移的差值是否在整数范围内,即 largestOffset - baseOffset 的值是不是介于 [0,Int.MAXVALUE] 之间。在极个别的情况下,这个差值可能会越界,这时,append 方法就会抛出异常,阻止后续的消息写入。一旦你碰到这个问题,你需要做的是升级你的 Kafka 版本,因为这是由已知的 Bug 导致的。

    第三步:待这些做完之后,append 方法调用 FileRecords 的 append 方法执行真正的写入。前面说过了,专栏后面我们会详细介绍 FileRecords 类。这里你只需要知道它的工作是将内存中的消息对象写入到操作系统的页缓存就可以了。

    第四步:再下一步,就是更新日志段的最大时间戳以及最大时间戳所属消息的位移值属性。每个日志段都要保存当前最大时间戳信息和所属消息的位移信息。还记得 Broker 端提供定期删除日志的功能吗?比如我只想保留最近 7 天的日志,没错,当前最大时间戳这个值就是判断的依据;而最大时间戳对应的消息的位移值则用于时间戳索引项。虽然后面我会详细介绍,这里我还是稍微提一下:时间戳索引项保存时间戳与消息位移的对应关系。在这步操作中,Kafka 会更新并保存这组对应关系。

    第五步:append 方法的最后一步就是更新索引项和写入的字节数了。我在前面说过,日志段每写入 4KB 数据就要写入一个索引项。当已写入字节数超过了 4KB 之后,append 方法会调用索引对象的 append 方法新增索引项,同时清空已写入字节数,以备下次重新累积计算。

    read 方法

    好了,append 方法我就解释完了。下面我们来看 read 方法,了解下读取日志段的具体操作。

    def read(startOffset: Long,
               maxSize: Int,
               maxPosition: Long = size,
               minOneMessage: Boolean = false): FetchDataInfo = {
        if (maxSize < 0)
          throw new IllegalArgumentException(s"Invalid max size $maxSize for log read from segment $log")
    
        val startOffsetAndSize = translateOffset(startOffset)
    
        // if the start position is already off the end of the log, return null
        if (startOffsetAndSize == null)
          return null
    
        val startPosition = startOffsetAndSize.position
        val offsetMetadata = LogOffsetMetadata(startOffset, this.baseOffset, startPosition)
    
        val adjustedMaxSize =
          if (minOneMessage) math.max(maxSize, startOffsetAndSize.size)
          else maxSize
    
        // return a log segment but with zero size in the case below
        if (adjustedMaxSize == 0)
          return FetchDataInfo(offsetMetadata, MemoryRecords.EMPTY)
    
        // calculate the length of the message set to read based on whether or not they gave us a maxOffset
        val fetchSize: Int = min((maxPosition - startPosition).toInt, adjustedMaxSize)
    
        FetchDataInfo(offsetMetadata, log.slice(startPosition, fetchSize),
          firstEntryIncomplete = adjustedMaxSize < startOffsetAndSize.size)
      }

    ead 方法接收 4 个输入参数。

    startOffset:要读取的第一条消息的位移;

    maxSize:能读取的最大字节数;

    maxPosition :能读到的最大文件位置;

    minOneMessage:是否允许在消息体过大时至少返回第一条消息。

    前 3 个参数的含义很好理解,我重点说下第 4 个。当这个参数为 true 时,即使出现消息体字节数超过了 maxSize 的情形,read 方法依然能返回至少一条消息。引入这个参数主要是为了确保不出现消费饿死的情况。下图展示了 read 方法的完整执行逻辑:

    逻辑很简单,我们一步步来看下。第一步是调用 translateOffset 方法定位要读取的起始文件位置 (startPosition)。输入参数 startOffset 仅仅是位移值,Kafka 需要根据索引信息找到对应的物理文件位置才能开始读取消息。待确定了读取起始位置,日志段代码需要根据这部分信息以及 maxSize 和 maxPosition 参数共同计算要读取的总字节数。举个例子,假设 maxSize=100,maxPosition=300,startPosition=250,那么 read 方法只能读取 50 字节,因为 maxPosition - startPosition = 50。我们把它和 maxSize 参数相比较,其中的最小值就是最终能够读取的总字节数。最后一步是调用 FileRecords 的 slice 方法,从指定位置读取指定大小的消息集合。

    recover 方法

    除了 append 和 read 方法,LogSegment 还有一个重要的方法需要我们关注,它就是 recover 方法,用于恢复日志段。下面的代码是 recover 方法源码。什么是恢复日志段呢?其实就是说, Broker 在启动时会从磁盘上加载所有日志段信息到内存中,并创建相应的 LogSegment 对象实例。在这个过程中,它需要执行一系列的操作。def recover(producerStateMa

    def recover(producerStateManager: ProducerStateManager, leaderEpochCache: Option[LeaderEpochFileCache] = None): Int = {
        offsetIndex.reset()
        timeIndex.reset()
        txnIndex.reset()
        var validBytes = 0
        var lastIndexEntry = 0
        maxTimestampSoFar = RecordBatch.NO_TIMESTAMP
        try {
          for (batch <- log.batches.asScala) {
            batch.ensureValid()
            ensureOffsetInRange(batch.lastOffset)
    
            // The max timestamp is exposed at the batch level, so no need to iterate the records
            if (batch.maxTimestamp > maxTimestampSoFar) {
              maxTimestampSoFar = batch.maxTimestamp
              offsetOfMaxTimestampSoFar = batch.lastOffset
            }
    
            // Build offset index
            if (validBytes - lastIndexEntry > indexIntervalBytes) {
              offsetIndex.append(batch.lastOffset, validBytes)
              timeIndex.maybeAppend(maxTimestampSoFar, offsetOfMaxTimestampSoFar)
              lastIndexEntry = validBytes
            }
            validBytes += batch.sizeInBytes()
    
            if (batch.magic >= RecordBatch.MAGIC_VALUE_V2) {
              leaderEpochCache.foreach { cache =>
                if (batch.partitionLeaderEpoch > 0 && cache.latestEpoch.forall(batch.partitionLeaderEpoch > _))
                  cache.assign(batch.partitionLeaderEpoch, batch.baseOffset)
              }
              updateProducerState(producerStateManager, batch)
            }
          }
        } catch {
          case e@ (_: CorruptRecordException | _: InvalidRecordException) =>
            warn("Found invalid messages in log segment %s at byte offset %d: %s. %s"
              .format(log.file.getAbsolutePath, validBytes, e.getMessage, e.getCause))
        }
        val truncated = log.sizeInBytes - validBytes
        if (truncated > 0)
          debug(s"Truncated $truncated invalid bytes at the end of segment ${log.file.getAbsoluteFile} during recovery")
    
        log.truncateTo(validBytes)
        offsetIndex.trimToValidSize()
        // A normally closed segment always appends the biggest timestamp ever seen into log segment, we do this as well.
        timeIndex.maybeAppend(maxTimestampSoFar, offsetOfMaxTimestampSoFar, skipFullCheck = true)
        timeIndex.trimToValidSize()
        truncated
      }
    

      

    recover 开始时,代码依次调用索引对象的 reset 方法清空所有的索引文件,之后会开始遍历日志段中的所有消息集合或消息批次(RecordBatch)。对于读取到的每个消息集合,日志段必须要确保它们是合法的,这主要体现在两个方面:该集合中的消息必须要符合 Kafka 定义的二进制格式;该集合中最后一条消息的位移值不能越界,即它与日志段起始位移的差值必须是一个正整数值。校验完消息集合之后,代码会更新遍历过程中观测到的最大时间戳以及所属消息的位移值。同样,这两个数据用于后续构建索引项。再之后就是不断累加当前已读取的消息字节数,并根据该值有条件地写入索引项。最后是更新事务型 Producer 的状态以及 Leader Epoch 缓存。不过,这两个并不是理解 Kafka 日志结构所必需的组件,因此,我们可以忽略它们。遍历执行完成后,Kafka 会将日志段当前总字节数和刚刚累加的已读取字节数进行比较,如果发现前者比后者大,说明日志段写入了一些非法消息,需要执行截断操作,将日志段大小调整回合法的数值。同时, Kafka 还必须相应地调整索引文件的大小。把这些都做完之后,日志段恢复的操作也就宣告结束了。

     

  • 相关阅读:
    Binary Tree Inorder Traversal
    Populating Next Right Pointers in Each Node
    Minimum Depth of Binary Tree
    Majority Element
    Excel Sheet Column Number
    Reverse Bits
    Happy Number
    House Robber
    Remove Linked List Elements
    Contains Duplicate
  • 原文地址:https://www.cnblogs.com/leaveast/p/12724940.html
Copyright © 2011-2022 走看看