• kafka存储机制


    kafka存储机制

    @(博客文章)[storm|大数据]

    大部分内容參考自:http://tech.meituan.com/kafka-fs-design-theory.html

    基础知识请參考:http://www.lujinhong.com/kafka%E9%9B%86%E7%BE%A4%E5%8E%9F%E7%90%86%E4%BB%8B%E7%BB%8D.html

    关于kafka中的time stamp与offset的关系,请參考:

    (一)关键术语

    复习一下几个基本概念,详见上面的基础知识文章。

    • Broker:消息中间件处理结点,一个Kafka节点就是一个broker,多个broker能够组成一个Kafka集群。

    • Topic:一类消息,比如page view日志、click日志等都能够以topic的形式存在。Kafka集群能够同一时候负责多个topic的分发。

    • Partition:topic物理上的分组。一个topic能够分为多个partition,每一个partition是一个有序的队列。

    • Segment:partition物理上由多个segment组成。以下有具体说明。

    • offset:每一个partition都由一系列有序的、不可变的消息组成,这些消息被连续的追加到partition中。partition中的每一个消息都有一个连续的序列号叫做offset,用于partition中唯一标识的这条消息。

    分析过程分为以下4个步骤:

    1. topic中partition存储分布

    2. partiton中文件存储方式

    3. partiton中segment文件存储结构

    4. 在partition中怎样通过offset查找message

    通过上述4过程具体分析,我们就能够清楚认识到kafka文件存储机制的奥秘。

    (二)topic中partition存储分布

    如果实验环境中Kafka集群仅仅有一个broker。xxx/message-folder为数据文件存储根文件夹。在Kafka broker中server.properties文件配置(參数log.dirs=xxx/message-folder)。比如创建2个topic名称分别为report_push、launch_info, partitions数量都为partitions=4

    存储路径和文件夹规则为:

    xxx/message-folder

              |--report_push-0
              |--report_push-1
              |--report_push-2
              |--report_push-3
              |--launch_info-0
              |--launch_info-1
              |--launch_info-2
              |--launch_info-3
    

    在Kafka文件存储中,同一个topic下有多个不同partition,每一个partition为一个文件夹,partiton命名规则为topic名称+有序序号,第一个partiton序号从0開始,序号最大值为partitions数量减1。

    如果是多broker分布情况,请參考kafka集群partition分布原理分析

    (三) partiton中文件存储方式

    以下示意图形象说明了partition中文件存储方式:

    Alt text

    • 每一个partion(文件夹)相当于一个巨型文件被平均分配到多个大小相等segment(段)数据文件里。

      但每一个段segment file消息数量不一定相等,这样的特性方便old segment file高速被删除。(默认情况下每一个文件大小为1G)

    • 每一个partiton仅仅须要支持顺序读写即可了。segment文件生命周期由服务端配置參数决定。

    这样做的优点就是能高速删除无用文件。有效提高磁盘利用率。

    (四) partiton中segment文件存储结构

    读者从上节了解到Kafka文件系统partition存储方式。本节深入分析partion中segment file组成和物理结构。

    segment file组成:由2大部分组成。分别为index file和data file,此2个文件一一相应,成对出现,后缀”.index”和“.log”分别表示为segment索引文件、数据文件.

    segment文件命名规则:partion全局的第一个segment从0開始,兴许每一个segment文件名称为上一个segment文件最后一条消息的offset值。

    数值最大为64位long大小。19位数字字符长度,没有数字用0填充。

    以下文件列表是笔者在Kafka broker上做的一个实验,创建一个topicXXX包括1 partition,设置每一个segment大小为500MB,并启动producer向Kafka broker写入大量数据,例如以下图2所看到的segment文件列表形象说明了上述2个规则:

    Alt text

    以上述图2中一对segment file文件为例。说明segment中index<—->data file相应关系物理结构例如以下:

    Alt text

    上述图3中索引文件存储大量元数据,数据文件存储大量消息,索引文件里元数据指向相应数据文件里message的物理偏移地址。

    当中以索引文件里元数据3,497为例,依次在数据文件里表示第3个message(在全局partiton表示第368772个message)、以及该消息的物理偏移地址为497。

    从上述图3了解到segment data file由很多message组成,以下具体说明message物理结构例如以下:

    Alt text

    keyword 解释说明
    8 byte offset 在parition(分区)内的每条消息都有一个有序的id号,这个id号被称为偏移(offset),它能够唯一确定每条消息在parition(分区)内的位置。

    即offset表示partiion的第多少message
    4 byte message size message大小
    4 byte CRC32 用crc32校验message
    1 byte “magic” 表示本次公布Kafka服务程序协议版本号号
    1 byte “attributes” 表示为独立版本号、或标识压缩类型、或编码类型。


    4 byte key length 表示key的长度,当key为-1时,K byte key字段不填
    K byte key 可选
    value bytes payload 表示实际消息数据。

    (五)在partition中怎样通过offset查找message

    比如读取offset=368776的message,须要通过以下2个步骤查找。

    • 第一步查找segment file
      上述图2为例。当中00000000000000000000.index表示最開始的文件,起始偏移量(offset)为0.第二个文件00000000000000368769.index的消息量起始偏移量为368770 = 368769 + 1.相同,第三个文件00000000000000737337.index的起始偏移量为737338=737337 + 1。其它兴许文件依次类推。以起始偏移量命名并排序这些文件,仅仅要依据offset 二分查找文件列表,就能够高速定位到具体文件。
      当offset=368776时定位到00000000000000368769.index|log

    • 第二步通过segment file查找message
      通过第一步定位到segment file,当offset=368776时。依次定位到00000000000000368769.index的元数据物理位置和00000000000000368769.log的物理偏移地址,然后再通过00000000000000368769.log顺序查找直到offset=368776为止。

    从上述图3可知这样做的优点,segment index file採取稀疏索引存储方式,它降低索引文件大小。通过mmap能够直接内存操作,稀疏索引为数据文件的每一个相应message设置一个元数据指针,它比稠密索引节省了很多其它的存储空间,但查找起来须要消耗很多其它的时间。

    (六)Kafka文件存储机制–实际执行效果

    实验环境:

    Kafka集群:由2台虚拟机组成

    cpu:4核

    物理内存:8GB

    网卡:千兆网卡

    jvm heap: 4GB

    具体Kafka服务端配置及其优化请參考:kafka server.properties配置具体解释

    Alt text

    从上述图5能够看出,Kafka执行时非常少有大量读磁盘的操作。主要是定期批量写磁盘操作。因此操作磁盘非常高效。

    这跟Kafka文件存储中读写message的设计是息息相关的。Kafka中读写message有例如以下特点:

    写message

    • 消息从java堆转入page cache(即物理内存)。

    • 由异步线程刷盘,消息从page cache刷入磁盘。

    读message

    • 消息直接从page cache转入socket发送出去。
    • 当从page cache没有找到相应数据时,此时会产生磁盘IO,从磁
      盘Load消息到page cache,然后直接从socket发出去

    (七) 总结

    Kafka高效文件存储设计特点

    • Kafka把topic中一个parition大文件分成多个小文件段。通过多个小文件段,就easy定期清除或删除已经消费完文件。降低磁盘占用。

    • 通过索引信息能够高速定位message和确定response的最大大小。

    • 通过index元数据所有映射到memory,能够避免segment file的IO磁盘操作。

    • 通过索引文件稀疏存储,能够大幅降低index文件元数据占用空间大小。

  • 相关阅读:
    bzoj2763 [JLOI]飞行路线 分层图最短路
    [模板]分块/可修改莫队 (数颜色种类)
    gcd步数
    洛谷2378 因式分解 字符串
    bzoj1090 字符串折叠
    洛谷1034 NOIP2002 矩形覆盖
    Codeforces#441 Div.2 四*题
    SPFA的小优化
    洛谷1073 NOIP2009 最优贸易
    bzoj2100 [Usaco2010 DEC]Apple Delivery苹果贸易
  • 原文地址:https://www.cnblogs.com/cynchanpin/p/7339537.html
Copyright © 2020-2023  润新知