• kafka基础概念


    【0】kafka基础概念

    【0.1】总体脑图

    【1】角色

    (1.0)角色详细架构图

    (1.1)topic 主题

    就是一个主题,某一类的数据都往里面放;

    换算成数据库来表达:

      简单来说就是 mysql 建了个库名,你往库里放什么随便,不管你建什么表、用什么引擎;

      以topic 为一个容器单位;

    (1.2)partition 分区

    Kafka 中的消息是以主题为基本单位进行归类的,各个主题在逻辑上相互独立。每个主题又可以分为一个或多个分区,分区的数量可以在主题创建的时候指定,也可以在之后修改。

    topic 的实际存储,假如该topic设置了4个分区

    每条消息在发送的时候会根据分区规则(一般是zk集群的元数据信息 来轮询)被追加到指定的分区中,分区中的每条消息都会被分配一个唯一的序列号,也就是通常所说的偏移量(offset),具有4个分区的主题的逻辑结构见下图。

      

    (1.3)偏移量 offset

    每一个分区都是一个顺序的、不可变的消息队列, 并且可以持续的添加。

    分区中的消息都被分了一个序列号,称之为偏移量(offset),在每个分区中此偏移量都是唯一的。

       

    Kafka集群保持所有的消息,直到它们过期(无论消息是否被消费)。

    实际上消费者所持有的仅有的元数据就是这个offset(偏移量),也就是说offset由消费者来控制:

      正常情况当消费者消费消息的时候,偏移量也线性的的增加。

      但是实际偏移量由消费者控制,消费者可以将偏移量重置为更早的位置,重新读取消息。

      可以看到这种设计对消费者来说操作自如,一个消费者的操作不会影响其它消费者对此log的处理。

    (1.4)replicate

    为了保持高可用,分区可以设置分区副本数量;

    见之前的  (1.0)图;

    那里就是设置了 2个副本(其中一个主一个从),然后均匀的分布在不同的集群节点上;以此保证高可用;

    (1.5)leader & follower

    那么在 replicate 中,可以设置多个副本;

    那么在其中,负责响应 producer生产者和consumer 消费者 的实际 分区被称为 leader ,单纯用作复制容易的副本叫做 follower;

    简单来说,就是主从,主叫 leader ,从叫 follower

    客户端有参数可以设置,为0 还是 为1  还是为 all

      --request-required-acks  生产者请求的确认方式 0、1(默认值)、all

    0表示:生产者直接异步把消息丢到kafka,无需理会即可进行下一次消息生产

    1表示:生产者把消息丢到kafka后,要等top对应所在分区的 leader 节点应用接收后返回确认标识之后,才能继续生产消息;而 leader 异步同步数据给 follower 节点,无需等待 follower 节点反馈

    all表示:生产者要把消息丢到Kafka后,消息会先到top对应所在分区的 leader 节点,然后 leader 节点复制数据到 follower 节点,follower 节点同步该消息后,返回确认标识给 生产者后,生产者才可继续吓一条消息生产;


    (1.6)broker

    其实就是kafka实例;就是服务器节点;具体关系见上面(1.0)

    Kafka 集群包含一个或多个服务器,服务器节点称为broker。

      broker存储topic的数据。如果某topic有N个partition,集群有N个broker,那么每个broker存储该topic的一个partition。

      如果某topic有N个partition,集群有(N+M)个broker,那么其中有N个broker存储该topic的一个partition,剩下的M个broker不存储该topic的partition数据。

      如果某topic有N个partition,集群中broker数目少于N个,那么一个broker存储该topic的一个或多个partition。在实际生产环境中,尽量避免这种情况的发生,这种情况容易导致Kafka集群数据不均衡。

    建议:

      partition 的数量不要多于broker;

      replicate 的数量也不要多余 broker;

    (1.7)producers 生产者

    生产者往某个Topic上发布消息。生产者也负责选择发布到Topic上的哪一个分区。

    最简单的方式从分区列表中轮流选择。也可以根据某种算法依照权重选择分区。开发者负责如何选择分区的算法。

    (1.8)consumers 消费者

    通常来讲,消息模型可以分为两种, 队列和发布-订阅式。
     
       队列的处理方式是 一组消费者从服务器读取消息,一条消息只有其中的一个消费者来处理。
     
    在发布-订阅模型中,消息被广播给所有的消费者,接收到消息的消费者都可以处理此消息。
     
    Kafka为这两种模型提供了单一的消费者抽象模型:
      消费者组 (consumer group)。 消费者用一个消费者组名标记自己。
       一个发布在Topic上消息被分发给此消费者组中的一个消费者。 假如所有的消费者都在一个组中,那么这就变成了queue模型。
       假如所有的消费者都在不同的组中,那么就完全变成了发布-订阅模型。
     
    更通用的, 我们可以创建一些消费者组作为逻辑上的订阅者。每个组包含数目不等的消费者, 一个组内多个消费者可以用来扩展性能和容错。正如下图所示:
      

    2个kafka集群托管4个分区(P0-P3),2个消费者组,消费组A有2个消费者实例,消费组B有4个。

    正像传统的消息系统一样,Kafka保证消息的顺序不变。 再详细扯几句。

      传统的队列模型保持消息,并且保证它们的先后顺序不变。

      但是, 尽管服务器保证了消息的顺序,消息还是异步的发送给各个消费者,消费者收到消息的先后顺序不能保证了。这也意味着并行消费将不能保证消息的先后顺序。

      用过传统的消息系统的同学肯定清楚,消息的顺序处理很让人头痛。如果只让一个消费者处理消息,又违背了并行处理的初衷。

     在这一点上Kafka做的更好,尽管并没有完全解决上述问题。

    Kafka采用了一种分而治之的策略:分区。

      因为Topic分区中消息只能由消费者组中的唯一一个消费者处理,所以消息肯定是按照先后顺序进行处理的。

      但是它也仅仅是保证Topic的一个分区顺序处理,不能保证跨分区的消息先后处理顺序。 所以,如果你想要顺序的处理Topic的所有消息,那就只提供一个分区。

     
     

    【2】存储

      

    【2.1】partition 

    Kafka 中的消息是以 topic 为基本单位进行归类的,各个 topic(主题) 在逻辑上相互独立。

    每个主题又可以分为一个或多个分区,分区的数量可以在主题创建的时候指定,也可以在之后修改。

    每条消息在发送的时候会根据分区规则被追加到指定的分区中,分区中的每条消息都会被分配一个唯一的序列号,也就是通常所说的偏移量(offset),具有4个分区的主题的逻辑结构见下图。

      

    如果分区规则设置得合理,那么所有的消息可以均匀地分布到不同的分区中,这样就可以实现水平扩展。

    不考虑多副本的情况,一个分区对应一个日志(Log)。

    【2.2】LogSegment

    为了防止 Log 过大,Kafka 又引入了日志分段(LogSegment)的概念,将 Log 切分为多个 LogSegment,相当于一个巨型文件被平均分配为多个相对较小的文件,这样也便于消息的维护和清理。

    事实上,Log 和 LogSegment 也不是纯粹物理意义上的概念,Log 在物理上只以文件夹的形式存储;

    而每个 LogSegment 对应于磁盘上的一个日志文件和两个索引文件,以及可能的其他文件(比如以“.txnindex”为后缀的事务索引文件)。下图描绘了主题、分区、副本、Log 以及 LogSegment 之间的关系。

      

    【2.3】log.dirs 

    (1)概述

      

    (2)实际数据存储文件

    接触过 Kafka 的老司机一般都知晓 Log 对应了一个命名形式为<topic>-<partition>的文件夹。

    举个例子,假设有一个名为“test”的主题,此主题中具有3个分区,那么在实际物理存储上表现为 “topic-log-0”、“topic-log-1”、“topic-log-2”、“topic-log-3”这4个文件夹:

        

    向 Log 中追加消息时是顺序写入的,只有最后一个 LogSegment 才能执行写入操作,在此之前所有的 LogSegment 都不能写入数据。

    为了方便描述,我们将最后一个 LogSegment 称为“activeSegment”,即表示当前活跃的日志分段。

      随着消息的不断写入,当 activeSegment 满足一定的条件时,就需要创建新的 activeSegment,之后追加的消息将写入新的 activeSegment。

    为了便于消息的检索,每个 LogSegment 中的日志文件(以“.log”为文件后缀)都有对应的两个索引文件:

      偏移量索引文件(以“.index”为文件后缀)和时间戳索引文件(以“.timeindex”为文件后缀)。

      每个 LogSegment 都有一个基准偏移量 baseOffset,用来表示当前 LogSegment 中第一条消息的 offset。

      偏移量是一个64位的长整型数,日志文件和两个索引文件都是根据基准偏移量(baseOffset)命名的,名称固定为20位数字,没有达到的位数则用0填充。

      比如第一个 LogSegment 的基准偏移量为0,对应的日志文件为00000000000000000000.log。

    举例说明,向主题topic-log中发送一定量的消息,某一时刻topic-log-0目录中的布局如下所示。

       

    示例中第2个 LogSegment 对应的基准位移是133,也说明了该 LogSegment 中的第一条消息的偏移量为133,同时可以反映出第一个 LogSegment 中共有133条消息(偏移量从0至132的消息)。

     消费者提交的位移是保存在 Kafka 内部的主题__consumer_offsets中的,初始情况下这个主题并不存在,当第一次有消费者消费消息时会自动创建这个主题。

    注意每个 LogSegment 中不只包含“.log”、“.index”、“.timeindex”这3种文件;

      还可能包含“.deleted”、“.cleaned”、“.swap”等临时文件,以及可能的“.snapshot”、“.txnindex”、“leader-epoch-checkpoint”等文件。

    (3)其他文件

    cleaner-offset-checkpoint
    log-start-offset-checkpoint
    meta.properties
    recovery-point-offset-checkpoint
    replication-offset-checkpoint

    【3】Kafka 架构中 ZooKeeper 以怎样的形式存在?

     参考:https://mp.weixin.qq.com/s?__biz=MzU3OTc1MDM1Mg==&mid=2247499822&idx=2&sn=7603743141fbb97142fb8a6e5aea9d35&chksm=fd63d091ca14598779b7021864e42a5c657257f747526d6ac73b749e146c5c875ba503cdbe53&scene=178&cur_album_id=1703392164379934721#rd

    下面内容转自:https://www.cnblogs.com/qingyunzong/p/9004509.html

    一、简介

    1.0 概念

    Apache kafka是消息中间件的一种,我发现很多人不知道消息中间件是什么,在开始学习之前,我这边就先简单的解释一下什么是消息中间件,只是粗略的讲解,目前kafka已经可以做更多的事情。

    举个例子,生产者消费者,生产者生产鸡蛋,消费者消费鸡蛋,生产者生产一个鸡蛋,消费者就消费一个鸡蛋;

    假设消费者消费鸡蛋的时候噎住了(系统宕机了),生产者还在生产鸡蛋,那新生产的鸡蛋就丢失了。

    再比如生产者很强劲(大交易量的情况),生产者1秒钟生产100个鸡蛋,消费者1秒钟只能吃50个鸡蛋;

      那要不了一会,消费者就吃不消了(消息堵塞,最终导致系统超时),消费者拒绝再吃了,”鸡蛋“又丢失了;

      这个时候我们放个篮子在它们中间,生产出来的鸡蛋都放到篮子里,消费者去篮子里拿鸡蛋,这样鸡蛋就不会丢失了,都在篮子里,而这个篮子就是”kafka“。

    鸡蛋其实就是“数据流”,系统之间的交互都是通过“数据流”来传输的(就是tcp、https什么的),也称为报文,也叫“消息”。

    消息队列满了,其实就是篮子满了,”鸡蛋“ 放不下了,那赶紧多放几个篮子,其实就是kafka的扩容。

    各位现在知道kafka是干什么的了吧,它就是那个"篮子"。

    1.1 概述

    Kafka是最初由Linkedin公司开发,是一个分布式、分区的、多副本的、多订阅者,基于zookeeper协调的分布式日志系统(也可以当做MQ系统),常见可以用于web/nginx日志、访问日志,消息服务等等,Linkedin于2010年贡献给了Apache基金会并成为顶级开源项目。

    主要应用场景是:日志收集系统和消息系统。

    Kafka主要设计目标如下:

    • 以时间复杂度为O(1)的方式提供消息持久化能力,即使对TB级以上数据也能保证常数时间的访问性能。
    • 高吞吐率。即使在非常廉价的商用机器上也能做到单机支持每秒100K条消息的传输。
    • 支持Kafka Server间的消息分区,及分布式消费,同时保证每个partition内的消息顺序传输。
    • 同时支持离线数据处理和实时数据处理。
    • Scale out:支持在线水平扩展

    1.2 消息系统介绍

    一个消息系统负责将数据从一个应用传递到另外一个应用,应用只需关注于数据,无需关注数据在两个或多个应用间是如何传递的。分布式消息传递基于可靠的消息队列,在客户端应用和消息系统之间异步传递消息。有两种主要的消息传递模式:点对点传递模式、发布-订阅模式。大部分的消息系统选用发布-订阅模式。Kafka就是一种发布-订阅模式

    1.3 点对点消息传递模式

    在点对点消息系统中,消息持久化到一个队列中。此时,将有一个或多个消费者消费队列中的数据。但是一条消息只能被消费一次。当一个消费者消费了队列中的某条数据之后,该条数据则从消息队列中删除。该模式即使有多个消费者同时消费数据,也能保证数据处理的顺序。这种架构描述示意图如下:

    生产者发送一条消息到queue,只有一个消费者能收到

    1.4 发布-订阅消息传递模式

    在发布-订阅消息系统中,消息被持久化到一个topic中。与点对点消息系统不同的是,消费者可以订阅一个或多个topic,消费者可以消费该topic中所有的数据,同一条数据可以被多个消费者消费,数据被消费后不会立马删除。在发布-订阅消息系统中,消息的生产者称为发布者,消费者称为订阅者。该模式的示例图如下:

    发布者发送到topic的消息,只有订阅了topic的订阅者才会收到消息

    二、Kafka的优点

    2.1 解耦

    在项目启动之初来预测将来项目会碰到什么需求,是极其困难的。消息系统在处理过程中间插入了一个隐含的、基于数据的接口层,两边的处理过程都要实现这一接口。这允许你独立的扩展或修改两边的处理过程,只要确保它们遵守同样的接口约束。

    2.2 冗余(副本)

    有些情况下,处理数据的过程会失败。除非数据被持久化,否则将造成丢失。消息队列把数据进行持久化直到它们已经被完全处理,通过这一方式规避了数据丢失风险。许多消息队列所采用的"插入-获取-删除"范式中,在把一个消息从队列中删除之前,需要你的处理系统明确的指出该消息已经被处理完毕,从而确保你的数据被安全的保存直到你使用完毕。

    2.3 扩展性

    因为消息队列解耦了你的处理过程,所以增大消息入队和处理的频率是很容易的,只要另外增加处理过程即可。不需要改变代码、不需要调节参数。扩展就像调大电力按钮一样简单。

    2.4 灵活性&峰值处理能力

    在访问量剧增的情况下,应用仍然需要继续发挥作用,但是这样的突发流量并不常见;如果为以能处理这类峰值访问为标准来投入资源随时待命无疑是巨大的浪费。使用消息队列能够使关键组件顶住突发的访问压力,而不会因为突发的超负荷的请求而完全崩溃。

    2.5 可恢复性

    系统的一部分组件失效时,不会影响到整个系统。消息队列降低了进程间的耦合度,所以即使一个处理消息的进程挂掉,加入队列中的消息仍然可以在系统恢复后被处理。

    2.6 顺序保证

    在大多使用场景下,数据处理的顺序都很重要。大部分消息队列本来就是排序的,并且能保证数据会按照特定的顺序来处理。Kafka保证一个Partition内的消息的有序性。

    2.7 缓冲

    在任何重要的系统中,都会有需要不同的处理时间的元素。例如,加载一张图片比应用过滤器花费更少的时间。消息队列通过一个缓冲层来帮助任务最高效率的执行———写入队列的处理会尽可能的快速。该缓冲有助于控制和优化数据流经过系统的速度。

    2.8 异步通信

    很多时候,用户不想也不需要立即处理消息。消息队列提供了异步处理机制,允许用户把一个消息放入队列,但并不立即处理它。想向队列中放入多少消息就放多少,然后在需要的时候再去处理它们。

    三、常用Message Queue对比

    3.1 RabbitMQ

    RabbitMQ是使用Erlang编写的一个开源的消息队列,本身支持很多的协议:AMQP,XMPP, SMTP, STOMP,也正因如此,它非常重量级,更适合于企业级的开发。同时实现了Broker构架,这意味着消息在发送给客户端时先在中心队列排队。对路由,负载均衡或者数据持久化都有很好的支持。

    3.2 Redis

    Redis是一个基于Key-Value对的NoSQL数据库,开发维护很活跃。虽然它是一个Key-Value数据库存储系统,但它本身支持MQ功能,所以完全可以当做一个轻量级的队列服务来使用。对于RabbitMQ和Redis的入队和出队操作,各执行100万次,每10万次记录一次执行时间。测试数据分为128Bytes、512Bytes、1K和10K四个不同大小的数据。实验表明:入队时,当数据比较小时Redis的性能要高于RabbitMQ,而如果数据大小超过了10K,Redis则慢的无法忍受;出队时,无论数据大小,Redis都表现出非常好的性能,而RabbitMQ的出队性能则远低于Redis。

    3.3 ZeroMQ

    ZeroMQ号称最快的消息队列系统,尤其针对大吞吐量的需求场景。ZeroMQ能够实现RabbitMQ不擅长的高级/复杂的队列,但是开发人员需要自己组合多种技术框架,技术上的复杂度是对这MQ能够应用成功的挑战。ZeroMQ具有一个独特的非中间件的模式,你不需要安装和运行一个消息服务器或中间件,因为你的应用程序将扮演这个服务器角色。你只需要简单的引用ZeroMQ程序库,可以使用NuGet安装,然后你就可以愉快的在应用程序之间发送消息了。但是ZeroMQ仅提供非持久性的队列,也就是说如果宕机,数据将会丢失。其中,Twitter的Storm 0.9.0以前的版本中默认使用ZeroMQ作为数据流的传输(Storm从0.9版本开始同时支持ZeroMQ和Netty作为传输模块)。

    3.4 ActiveMQ

    ActiveMQ是Apache下的一个子项目。 类似于ZeroMQ,它能够以代理人和点对点的技术实现队列。同时类似于RabbitMQ,它少量代码就可以高效地实现高级应用场景。

    3.5 Kafka/Jafka

    Kafka是Apache下的一个子项目,是一个高性能跨语言分布式发布/订阅消息队列系统,而Jafka是在Kafka之上孵化而来的,即Kafka的一个升级版。具有以下特性:快速持久化,可以在O(1)的系统开销下进行消息持久化;高吞吐,在一台普通的服务器上既可以达到10W/s的吞吐速率;完全的分布式系统,Broker、Producer、Consumer都原生自动支持分布式,自动实现负载均衡;支持Hadoop数据并行加载,对于像Hadoop的一样的日志数据和离线分析系统,但又要求实时处理的限制,这是一个可行的解决方案。Kafka通过Hadoop的并行加载机制统一了在线和离线的消息处理。Apache Kafka相对于ActiveMQ是一个非常轻量级的消息系统,除了性能非常好之外,还是一个工作良好的分布式系统。

    【参考文档】

    kafka入门介绍:https://www.orchome.com/5

    kafka的简介:Kafka的简介  https://www.cnblogs.com/qingyunzong/p/9004509.html

    kafka的磁盘存储:https://mp.weixin.qq.com/s?__biz=MzU3OTc1MDM1Mg==&mid=2247497541&idx=1&sn=d77970aef82137e85c371c6d11b30b4a&chksm=fd63e7faca146eecd7ba3b87bfba7f98fe436767685cf6d7b7dd135385ad65859e13ee2f6c67&scene=178&cur_album_id=1703392164379934721#rd

  • 相关阅读:
    Swing 添加Esc快捷键退出程序
    DefaultTableCellRenderer 自定义
    项目清理和删除svn信息(转)
    时间转换工具类
    Java Swing 日期控件(转载)
    Eureka原理
    SpringCloud之Eureka注册中心集群篇
    spring boot及spring cloud介绍
    spring cloud 服务注册/发现/提供/调用 demo
    eclipse构建maven+scala+spark工程
  • 原文地址:https://www.cnblogs.com/gered/p/15219168.html
Copyright © 2020-2023  润新知