• kafka那些事儿


    1 为什么用消息队列

    1)解耦。服务之间没有强依赖,不需要关心调用服务时出现的各种异常,服务挂掉后接口超时等问题

    2)异步。解决接口调用多服务时延时高的问题

    3)高峰期服务间缓冲。解决工作节奏不一致问题,防止服务被打死

    2 消息丢失了怎么办

    消息丢失有3种情况:

    1)consumer消费时如果在拉取到消息后没有处理完成或者发生异常,而且offset却自动提交了,会导致消息丢失;将kafka的offset提交改为手动同步方式是比较保险的,对于准确性较高的数据应该使用这中方式。

    2)producer向leaderpartition发送消息的时候acks参数应设置为-1,这样leaderpartition存储完成后,等待followpartition也同步完成,才会给producer返回成功(吞吐量下降)。

    3)kafka本身丢失数据的话,可以通过横向扩展broker,增加partition数量,增加partition副本数来保证某些节点宕机后集群中仍然有全量数据。

    3 消息重复消费了怎么办

    新增情况:

    1)如果有新增消息重复消费的话,可以使用redis存储id值来忽略掉已经新增过的数据,在数据库端可以通过唯一主键保证不重复插入。

    修改情况:

    2)在消息在存入队列中的数据加入时间戳,如果发现消费到的数据在当前时间戳之前,则直接忽略,认为是重复消费。

    4 如何保证kafka消费的消息顺序

    1)将带有相同key的数据路由到同一个partition中,在同一个partition中消息的顺序是一致的。

    2)消费者端如果开启多个线程消费数据,需要路由到同一内存队列中保证顺序性,这样就不会出现消息不一致的问题了。

    5 kafka controller选举算法(与partition leader选举算法类似)

    leader算法是基于zk的节点注册监听机制实现的。一旦有人注册成功zk上的leader节点,那么这个partition就被选举为leader,如果这个leader机器挂掉那么就会zk上的节点就会被删除,那么其它的follow partition就会争抢向zk注册leader节点,一旦有注册成功就会被选择为leader,那么其它partition就会注册失败。

    6 挂掉的broker重新上线以后。kafka的partition是怎样做rebalance的

    新建topic的时候怎样划分partition到broker中?

    为了能让partition和replica均匀的分布在broker上,防止一台机器负载较高。有如下分配算法:
    将所有N Broker和待分配的i个Partition排序.
    将第i个Partition分配到第(i mod n)个Broker上.
    将第i个Partition的第j个副本分配到第((i + j) mod n)个Broker上

    例如  5个broker 10分区 3副本

    当所有topic的partition创建完成以后,在zk中每一个topic下的partition都会维护一个AR列表(assigned replicas所有副本)和ISR(In-Sync Replicas数据同步副本,在0.9以后的新版去掉了这个参数)列表;AR列表的第一个partition副本被称为preferred-replica

    当挂掉的partition节点重新上线以后,可以通过使用kafka-preferred-replica-election.sh工具来进行重新平衡partition,过程就是把AR列表的第一个partition重新指定为leader partition。

    也可以通过配置auto.leader.rebalance.enable=true参数来进行设置。

    PS:ISR解释为  “In-Sync Replicas”数据同步副本,在0.9以后的新版去掉了replica.lag.time.max.ms这个参数;所以如果在这个列表中只需满足,副本所在节点必须维持着与 zookeeper 的连接。

    7 消息积压了怎么办?

    几千万条数据在 MQ 里积压了七八个小时,从下午 4 点多,积压到了晚上 11 点多。这个是我们真实遇到过的一个场景,确实是线上故障了,这个时候要不然就是修复 consumer 的问题,让它恢复消费速度,然后傻傻的等待几个小时消费完毕。这个肯定不能在面试的时候说吧。

             一个消费者一秒是 1000 条,一秒 3 个消费者是 3000 条,一分钟就是 18 万条。所以如果你积压了几百万到上千万的数据,即使消费者恢复了,也需要大概 1 小时的时间才能恢复过来。

    一般这个时候,只能临时紧急扩容了,具体操作步骤和思路如下:

    • 先修复 consumer 的问题,确保其恢复消费速度,然后将现有 consumer 都停掉。
    • 新建一个 topic,partition 是原来的 10 倍,临时建立好原先 10 倍的 queue 数量。
    • 然后写一个临时的分发数据的 consumer 程序,这个程序部署上去消费积压的数据,消费之后不做耗时的处理,直接均匀轮询写入临时建立好的 10 倍数量的 queue。
    • 接着临时征用 10 倍的机器来部署 consumer,每一批 consumer 消费一个临时 queue 的数据。这种做法相当于是临时将 queue 资源和 consumer 资源扩大 10 倍,以正常的 10 倍速度来消费数据。
    • 等快速消费完积压数据之后,得恢复原先部署的架构,重新用原先的 consumer 机器来消费消息

    8 kafka是怎样存储数据的

    1,在kafka集群中,每个broker(一个kafka实例称为一个broker)中有多个topic,topic数量可以自己设定。在每个topic中又有多个partition,每个partition为一个分区。kafka的分区有自己的命名的规则,它的命名规则为topic的名称+有序序号,这个序号从0开始依次增加。

          2,在每个partition中有可以分为多个segment file。当生产者往partition中存储数据时,内存中存不下了,就会往segment file里面存储。我们配置kafka每个segment file的大小是2G,在存储数据时,会先生成一个segment file,当这个segment file到2G之后,再生成第二个segment file 以此类推。每个segment file对应两个文件,分别是以.log结尾的数据文件和以.index结尾的索引文件。在服务器上,每个partition是一个文件夹,每个segment是一个文件。

    9 kafka多久清理一次数据

    log.retention.hours=168 默认情况下每周清理

    10 消费者多于partition什么样子?少于partition呢。

    消费者多于partition会导致,某些消费者没法获取数据;而消费者少于partition则某些消费者会获得多个partition中的数据,如果数据要求有顺序,请保证消费者数量和partition一致。

    11 ISR怎样移除异常的replicPatition副本

    如果partation配置参数为:rerplica.lag.time.max.ms=10000,那么超过这个时间副本还没有同步数据就会认为副本异常,就会从isr中移除,顺便可以解释下hw和leo的概念

    12 Kafka的生产者生产数据过程

    1. 封装为 ProducerRecord 实例
    2. 序列化
    3. 由 partitioner 确定具体分区
    4. 发送到内存缓冲区
    5. 由 producer 的一个专属 I/O 线程去取消息,并将其封装到一个批次 ,发送给对应分区的 kafka broker
    6. leader 将消息写入本地 log
    7. followers 从 leader pull 消息,写入本地 log 后 leader 发送 ACK
    8. leader 收到所有 ISR 中的 replica 的 ACK 后,增加 HW(high watermark,最后 commit 的 offset) 并向 producer 发送 ACK

    13 消费者拉取数据过程

    1. 连接 ZK 集群,拿到对应 topic 的 partition 信息和 partition 的 leader 的相关信息
    2. 连接到对应 leader 对应的 broker
    3. consumer 将自己保存的 offset 发送给 leader
    4. leader 根据 offset 等信息定位到 segment(索引文件和日志文件)
    5. 根据索引文件中的内容,定位到日志文件中该偏移量对应的开始位置读取相应长度的数据并返回给 consumer

     14 kafka分区再平衡

    org.apache.kafka.clients.consumer.RangeAssignor

    默认采用的是这种再平衡方式,这种方式分配只是针对消费者订阅的topic的单个topic所有分区再分配,Consumer Rebalance的算法如下:

    1),将目标Topic下的所有Partirtion排序,存于TP

    2),对某Consumer Group下所有Consumer按照名字根据字典排序,存于CG,第i个Consumer记为Ci

    3),N=size(TP)/size(CG)

    4),R=size(TP)%size(CG)

    5),Ci获取的分区起始位置=N*i+min(i,R)

    6),Ci获取的分区总数=N+(if (i+ 1 > R) 0 else 1)

    PS1:kafka在实际发生读写磁盘文件之前,也使用了“页缓存技术”也就是操作系统缓存“os cahce”。

  • 相关阅读:
    Socket的使用
    TCP/IP协议、UDP协议、 Http协议
    使用或不使用递归的二分查找
    冒泡排序、选择排序、直接插入排序
    Scanner的使用 猜数字 +猜电影
    序列化与反序列化
    构造者模式
    内存访问
    实践:使用socket实现跨进程通信(二:多并发)(C语言)
    实践:使用socket实现跨进程通信(C语言)
  • 原文地址:https://www.cnblogs.com/zzq-include/p/11052688.html
Copyright © 2020-2023  润新知