• kafka学习笔记01-kafka简介和架构介绍


    kafka介绍

    kafka 最开始是 Linkedin 用来处理海量的日志信息,后来 linkedin 于 2010 年贡献给了 Apache 基金会并成为了顶级项目。

    后来开发 kafka 的一些人出来创立了一家公司 confluent,专门从事 kafka 的开发维护和在它之上提供各种服务。

    现在 kafka 把它定义为一个分布式数据流处理平台。

    kafka 流平台3大特性:

    1. 发布和订阅流式的记录数据。这一方面应用就是消息队列。
    2. 储存流式的记录数据,并且有较好的容错性。
    3. 实时大数据处理,可以在流式记录产生时就进行处理,与大数据系统结合,比如Spark、Flink等。

    它的应用场景:

    1. 当作消息队列,它可以构造实时流数据管道,它可以在系统或应用之间可靠地存储、获取数据。比如存储各种日志、各种各种应用信息、商品数据等。由于 kafka 高吞吐高性能,还能起到错峰、削峰、缓冲、解耦等等功能。
    2. 构建实时流式应用程序,与大数据系统集成。

    很多开源的大数据系统,比如storm,spark,flink等都可以与kafka集成,然后进行大数据处理。

    kafka 也可以当作一个消息队列,那么,它是一个分布式、高吞吐量、可持久存储、高可用的消息队列。

    kafka 的一些特性:

    • 高性能:
      kafka 可以每秒处理几十万条消息,延迟最低时却只有几毫秒。
      能高性能的消费消息。时间复杂度为 O(1) 的数据持久化能力。
    • 高吞吐率:
      高吞吐率,在廉价机器上也能实现每秒 100k 条消息的传输能力。
    • 分布式
      支持Kafka Server间的消息分区,及分布式消费,同时保证每个partition内的消息顺序传输
    • 容错性
      允许集群中节点失败。若副本数量为 n,则允许 n-1 个节点失败。
    • 可扩展
      kafka 支持热扩展。
    • 高并发
      支持几千个客户端同时读写的能力。
    • 离线和实时数据处理
      同时支持离线数据处理和实时数据处理

    kafka架构图

    架构图:

    kafka-arch

    (from : https://juejin.cn/post/6844904050064883725,禁删)

    从上图可以看出,kafka 架构主要由4部分组成,生产者,kafka 集群,消费者,zookeeper(现在 kafka 要逐渐取消对 zookeeper 的依赖)。
    生产者producer生成消息发送到 kafka 集群,实际上是发送数据到 Topic 主题下的不同 Partition 分区里。消费者consumer从这里消费消息。

    在来看看 kafka 架构图里面的各种概念:

    • Producer
      消息和数据的生产者,负责发送消息到指定的 Broker 下的 Topic 主题里。

    • Consumer
      消费者,去订阅的 Topic 拉取消息消费。

    • Consumer Group
      消费者组,消费者组内每个消费者负责消费不同分区的数据,提供消费能力。一个分区只能由一个组内消费者消费,消费者组之间互不影响。消费者组相当于一个逻辑上的订阅者。
      它可以将 consumer 自由的进行分组而不需要多次发送消息到不同的 Topic。

    • Broker
      kafka 集群的每一节点被称为一个 Broker。一个 kafka 集群由多个 Broker 节点组成。每个 Broker 里可以包含多个 Topic(主题)。一个 Topic 可以包含一个或多个 Partition 分区。

    • Topic
      Topic(主题) 是在 Broker 里。同一个 Topic 的消息可以分布在一个或多个 Broker 里。一个 Topic 可以包含一个或多个 Partition 分区。我们可以根据 Topic 对消息进行分类。也可以理解为一个 Topic 就是一个队列。

    • Partition
      分区,实际存数据的地方。每个 Partition 里存储一个有序队列。它不保证一个 Topic 的整体(多个 partition 间)有序。
      分区也是实现 kafka 可扩展性的一个设计,比如一个非常大的 Topic 可以分布到多个 Broker 上,一个 Topic 可以分为多个 Partition。
      partition 分区是一个顺序写磁盘。顺序写磁盘效率比随机写内存要高,这也保障 Kafka 吞吐率。

    • Replica
      副本,数据的一个备份。当集群中某个节点发生故障时,保障该节点上的 Partition 数据不丢失。
      kafka 提供的这个副本机制,一个 Topic 的每个分区都有若干副本,一个 Leader 和若干个 Follower。

    • Leader
      生产者发送的数据都是发送到 Leader,消费者消费的数据也是 Leader。可以形象看做是多个副本的“主”副本

    • Follower
      Follower 副本中的数据会实时从 Leader 中同步过来。如果 Leader 发送故障,某个 Follower 会成为新的 Leader

    • Controller
      Kafka 集群中的其中一个服务器,用来进行 Leader 选举以及各种 Failover。

    • Offset
      消费者消费的位置信息,数据消费到什么位置。当消费者挂掉重新恢复消费时,可以从这个位置继续消费。
      老版本的 kafka offset 是存储在 zookeeper 中,但 zookeeper 并不适合大批量的频繁写入操作,新版 Kafka 已推荐将 consumer 的位移信息保存在 kafka 内部的 topic 中,即__consumer_offsets topic,在消费失败时可以重置 offset 达到重新消费的效果。

    • zookeeper
      zookeeper 帮助kafka管理和存储集群中的信息,实现 kafka 集群高可用。比如上文中的 Offset 消费位置信息,kafka 各个节点的状态信息。
      (Kafka 在未来的 2.8 版本将要放弃 Zookeeper,解除对它的依赖)

    分布式

    从上面的架构图可以看出,kafka 集群里涉及的 3 个概念,broker,topic,partition。
    broker 是 kafka 集群的一个节点,可以理解为是一台服务器。然后每一个节点可以有多个 topic。topic 里的 partition 才是具体存放数据地方。
    大家看一看,这里是不是一个 3 级结构。

    一个 kafka 集群可以有多个 broker 节点,每个节点可以有多个 topic,每个 topic 又可以分为多个 partition 分区,每个 partition 分区在物理上对应一个文件夹,在该文件夹下存储该 partition 的所有消息和索引文件。

    Topic(主题)和Partition(分区)

    每一个 topic(主题),kafka 集群会维持一个分区日志,如下图:

    kafka-topic-log

    每个分区都是一个有序且顺序不可变的记录集,日志记录会不断增加到它的末尾。
    分区中的每一条记录都会分配一个 id 号来表示顺序,称为 Offset,Offset 用来唯一标识分区中的每一条记录,它也叫消息偏移量。
    partition 中的每条记录(Message)包含三个属性:Offset,messageSize 和 Data。
    messageSize 消息的大小,Data 消息的具体内容。

    一个 topic 可以分为多个 partition(如上图),partition 可以存放在不同的 broker 中,就是将数据分布存储。

    kafka 可以设置保留记录的时间,它有一个配置参数来设置。比如保留 2 天,那么一条记录在发布 2 天后,可以随时被消费,2 天后这条记录会被抛弃并释放磁盘空间。

    Topic、分区与kafka集群

    kafka 集群是一个 Leader、Follower 模型。它的读写都是在 Leader 上进行。Follower 是用来备份 Leader 上的数据。当 Leader 宕机的时候,就可以用 Follower 上的数据继续进行服务。这就是 kafka 高可用的设计。

    到这里,肯定有几个问题:

    1. 集群数据总不能在一台机器上进行读写,数据怎么均匀分布?
    2. leader 宕机后,follower 怎么选出新的 leader?

    第一个问题,其实就是数据的负载均衡,怎么进行数据的均匀分布?

    在kafka中,最终落地的数据是partition,所以数据的均衡分布也就是怎么把数据均匀分布到 partition 里,也就是数据怎么路由。kafka 会尽量的将整个 parttition 均匀的分布到整个集群上。
    同时为了提供kafka的容错能力,也会努力将 partition 的 replica 尽量分散到不同机器上。

    kafka 的数据分布算法:

    1. 将所有 Broker(假设共n个Broker)和待分配的 Partition 排序
    2. 将第 i 个 Partition 分配到第(i mod n)个 Broker 上
    3. 将第 i 个 Partition 的第 j 个 Replica 分配到第((i + j) mod n)个 Broker 上

    第二个问:怎么进行 leader 选举?

    leader 宕机了,怎么在 followers 中选出新的 leader ?

    最常用的选举算法,就是少数服从多数(Majority Vote)。但 kafka 并没有采用这种方式。

    leader 选举的算法也比较多,比如zookeeper的 zap,raft 的 Viewstamped Replication,还有微软的 PacificA 算法。kafka 用的算法跟微软的算法更像。

    kafka 在 zookeeper 中(/brokers/topics/[topic]/partitions/[partition]/state)动态的维护了一个 ISR(in-sync replicas),这个 ISR 里的所有 replicas 都跟上了 leader,也就是 commit 上的消息跟上了 leader,只有在 ISR 里的成员才有被选为 leader 的可能。
    Controller 将会从 ISR 里选一个做 Leader。

    那什么叫 commit 上的消息跟上 leader?
    leader 和 follower 之间复制消息,那 leader 怎么知道复制成功?发送 ack 进行确认。
    那是所有的 follower 同步完后才发送 ack,还是只要半数以上同步完成,就发送 ack?

    在 kafka 中都不是,kafka 中是 ISR 集合中的 follower 完成数据同步后,leader 就会给 follower 发送 ack。
    如果 follower 长时间未向 leader 同步数据,则该 follower 将被踢出 ISR 集合,该时间阈值由 replica.lag.time.max.ms 参数设定。leader 发生故障后,就会从 ISR 中选举出新的 leader。

    参考

    == just do it ==
  • 相关阅读:
    很简单的在Ubuntu系统下安装字体和切换默认字体的方法
    Qt添加驱动——Qt数据库之添加MySQL驱动插件
    qt 字体的相关问题
    qt configure参数配置介绍
    Qt封装QTcpServer参考资料--QT4中构建多线程的服务器
    Qt封装QTcpServer参考资料--QTcpServer多线程实现
    Qt封装QTcpServer参考资料--QT自带QTcpServer架构分析
    Qt Creator设置多核编译(-j8参数)
    QString::​arg的用法
    《Qt数据类型》--QByteArray,QString,int,hex之间的转化
  • 原文地址:https://www.cnblogs.com/jiujuan/p/15024642.html
Copyright © 2020-2023  润新知