• kafka数据清理


    Kafka将数据持久化到了硬盘上,允许你配置一定的策略对数据清理,清理的策略有两个,删除和压缩。

    数据清理的方式

    删除

    log.cleanup.policy=delete启用删除策略
    直接删除,删除后的消息不可恢复。可配置以下两个策略:
    清理超过指定时间清理:  
    log.retention.hours=16
    超过指定大小后,删除旧的消息:
    log.retention.bytes=1073741824
    为了避免在删除时阻塞读操作,采用了copy-on-write形式的实现,删除操作进行时,读取操作的二分查找功能实际是在一个静态的快照副本上进行的,这类似于Java的CopyOnWriteArrayList。

    压缩

    将数据压缩,只保留每个key最后一个版本的数据。
    首先在broker的配置中设置log.cleaner.enable=true启用cleaner,这个默认是关闭的。
    在topic的配置中设置log.cleanup.policy=compact启用压缩策略。

    压缩策略的细节

    如上图,在整个数据流中,每个Key都有可能出现多次,压缩时将根据Key将消息聚合,只保留最后一次出现时的数据。这样,无论什么时候消费消息,都能拿到每个Key的最新版本的数据。
    压缩后的offset可能是不连续的,比如上图中没有5和7,因为这些offset的消息被merge了,当从这些offset消费消息时,将会拿到比这个offset大的offset对应的消息,比如,当试图获取offset为5的消息时,实际上会拿到offset为6的消息,并从这个位置开始消费。
    这种策略只适合特俗场景,比如消息的key是用户ID,消息体是用户的资料,通过这种压缩策略,整个消息集里就保存了所有用户最新的资料。
    压缩策略支持删除,当某个Key的最新版本的消息没有内容时,这个Key将被删除,这也符合以上逻辑。

    例子:

    log.cleaner.enable=true
    log.cleaner.delete.retention.ms=4day

    log.retention.hours=72

    log.retention.bytes=419430400

    log.segment.bytes=1073741824

    log.retention.check.interval.ms=300000

    Kafka 的详细介绍:请点这里
    Kafka 的下载地址:请点这里

    本文永久更新链接地址:http://www.linuxidc.com/Linux/2014-07/104470.htm

  • 相关阅读:
    证明三个简单数学问题~(≧▽≦)/~啦啦啦
    计算时间复杂度
    字符三角形(循环做法)
    luogu Peter的烟
    c++一本通1000
    luogu最长连号
    luogu子数整数
    luogu三角函数
    (因更改文件夹造成)anaconda prompt 提示系统找不到指定的路径
    echarts之树形图改变节点之间连线颜色以及结点的颜色
  • 原文地址:https://www.cnblogs.com/zhengchunyuan/p/11446377.html
Copyright © 2020-2023  润新知