• Kafka权威指南 读书笔记之(一)初识Kafka


    发布与订阅消息系统

    数据(消息)的发送者(发布者)不会直接把消息发送给接收者,这是发布与订阅消息系统的一个特点。发布者以某种方式对消息进行分类,接收者(订阅者)订阅它们,

    以便接收特定类型的消息。发布与订阅系统一般会有一个 broker,也就是发布消息的中心点。 

    Kafka 登场

    在0.10版本之前, Kafka仅仅作为个消息系统,主要用来解决应用解决异步消息 流量削峰问题不过在0.10版本之后, Kafka提供了连接器与流处理的能力,它也从分布式的消息系统逐渐成为
    个流式的数据平台

    消息和批次 

            Kafka 的数据单元被称为消息 消息由字节数组组成,所以对于 Kafka 来说,消息里的数据没有特别的格式或含义。消息可以有个可选的元数据 
    也就是键。个字节数组,与消息样,对于 Kafka 来说也没有特殊的含义。 消息以种可控的方式写入不同的分区时,会用到键。最简单的例子就是为键生成
    性散列值,然后使用散列值对主题分区数进行取模,为消息选取分区。这样可以保证具有相同键的消息总是被写到相同的分区上。

            为了提高效率,消息被分批次写入 Kafka 。 批次就是组消息,这些消息属于同一主题和分区。如果每个消息都单独穿行于网络,会导致大的网络开销,把消息分成批次传
    输可以减少网络开销。不过,这要在时间延迟和吞吐量之间作出权衡:批次越大,单位时间内处理的消息就越多,单个消息的传输时间就越长。批次数据会被压缩,这样可以提
    数据的传输和存储能力,但要做更多的计算处理。

    模式 

            对于 Kafka 来说,消息不过是晦涩难懂的字节数组,所以有人建议用些额外的结构来定义消息内容,让它们更易于理解。根据应用程序的需求, 消息模式 ( schema)有许
    可用的选项。像 JSON 和 XML 这些简单的系统,不仅易用,而且可读性好。不过,它们缺乏强类型处理能力,不同版本之间的兼容性也不是很好。 Kafka 的许多开发者喜欢使用
    ApachAvro , 它最初是为 Hadoo开发的款序列化框架。 Avro 提供了种紧凑的序列化格式,模式和消息体是分开的,当模式发生变时,不需要重新生成代码它还支持强类
    型和模式进化,其版本既向前兼容, 向后兼容。数据格式的致性对于 Kafka 来说很重要,它消除了消息读操作之间的辑合性

            如果读写操作紧密地桐合在起,消息订阅者需要升级应用程序才能同时处理新旧两种数据格式。在消息订阅者升级了之后,消息发布者才能跟着升级,以便使用新的数据格式。

    新的应用程序如果需要使用数据,就要与消息发布者发生捐合,导致开发者需要做很多繁杂作。定义良好的模式,并把它们存放在公共仓库,可以方便我们理解 Kafka 的消息结构。

    主题和分区

           Kafka 的消息通过题进行分类。主题就好比数据库的表,或者文件系统里的文件夹。主题可以被分为若干个分区 , 个分区就是一个提交日志。消息以追加的方式写入分区,然

    后以先入先出的顺序读取。要注意,由于一个主题一般包含几个分区,因此无法在整个主题范围内保证消息的顺序,但可以保证消息在单个分区内的顺序。

    Kafka 通过分区来实现数据冗余和伸缩性。分区可以分布在不同的服务器上,个主题可以横跨多个服务器,以此来提供比个服务器更强大的性能

    我们通常会使用流这个词来描述 Kafka 这类系统的数据。很多时候 , 人们把个主题的数据看成一个流,不管它有多少个分区。流是一组从生产者移动到消费者的数据。当我们讨

    论流式处理时,一般都是这样描述消息的。 Kaflca Streams 、 ApachSamza 和 Storm 这些框架以实时的方式处理消息,也就是所谓的流式处理。我可以将流式处理与离线处理进行
    比较,比如 Hadoop 就是被设计用于在稍后某个时刻处理大量的数据。

    生产者和消费者

      Kafka 的客户端就是 Kafka 系统的用户,它们被分为两种基本类型 : 生产者和消费者。除此之外,还有其他高级客户端 API——用于数据集成的 Kafka ConnecAPI 和用于流式处理
    的 Kafka Streams。这些高级客户端 API 使用生产者和消费者作为内部组件,提供了高级的功能。

    生产创建消息。在其他发布与订阅系统中,生产者可能被称为发布者写入者。一般情况下,一个消息会被发布到一个特定的主题上。生产者在默认情况下把消息均衡地分布到
    主题的所有分区上,而并不关心特定消息会被写到哪个分区。不过,在某些情况下,生产者会把消息直接写到指定的分区。这通常是通过消息键和分区器来实现的,分区器为键生
    成一个散列值,并将其映射到指定的分区上。这样可以保证包含同一个键的消息会被写到同一个分区上。生产者也可以使用自定义的分区器,根据不同的业务规则将消息映射到分区。


    消费者读取消息。在其他发布与订阅系统中,消费者可能被称为订阅者或读者。 消费者订个或多个主题,并按照消息生成的顺序读取它们。消费者通过检查消息的偏移量来区
    分已经读取过的消息。偏移量是另种元数据,它是个不断递增的整数值,在创建消息时, Kafka 会把它添加到消息里。在给定的分区里,每个消息的偏移量都是唯的。消费
    者把每个分区最后读取的悄息偏移量保存在 Zookeeper 或 Kafka 上,如果消费者关闭或重启,它的读取状态不会丢失。

    消费者是消费者群组的部分,也就是说,会有个或多个消费者共同读取个主题 。 组保证每个分区只能被个消费者使用 。如图 所示的群组中,有 3 个消费者同时读取
    个主题。其中的两个消费者各自读取个分区,另外个消费者读取其他两个分区。消费者与分区之间的映射通常被称为悄费者对分区的所有权关系 
    通过这种方式,消费者可以消费包含大量消息的主题。而且,如果个消费者失效,群组里的其他消费者可以接管失效消费者的工作。

     broker和集群

       一个独立的 Kafka 服务器被称为 broker。 broker 接收来自生产者的消息,为消息设置偏移量,并提交消息到磁盘保存。 broker 为消费者提供服务,对读取分区的请求作出响应,返
    回已经提交到磁盘上的消息。根据特定的硬件及其性能特征,单个 broker 可以轻松处理数千个分区以及每秒百万级的消息量。

    broker 是集群的组成部分。每个集群都有个 broker 同时充当了集群控制器的角色(自动从集群的活跃成员中选举出来)。控制器负责管理工作,包括将分区分配给 broker 和监控broker.

    在集群中,一个分区从属于个 broker, 该 broker 被称为分区的首领 。一个分可以分配给多个 broker,这个时候会发生分区复制(见下图 )。这种复制机制为分区提供

    了消息冗余,如果有一个 broker 失效,其他 broker 可以接管领导权。不过,相关的消费者和生产者都要重新连接到新的首领。

    保留消息(在一定期限内)是Kafka的一个重要特性。Kafka broker 默认的消息保留策略是这样的:要么保留段时间(比如 7 天),要么保留到消息达到一定大小的字节数(比如 1GB )。

    当消息数量达到这些上限时,旧消息就会过期井被除,所以在任何时刻, 用消息的总量都不会超过配置参数所指定的大小。主题可以配置自己的保留策略,可以将
    消息保留到不再使用它们为止。例如,用于跟踪用户活动的数据可能需要保留几天,而应用程序的度量指标可能只需要保留几个小时。可以通过配置把主题当作紧凑型日志, 只有
    最后个带有特定键的消息会被保留下来。这种情况对于变更日志类型的数据来说比较适用,因为人们只关心最后时刻发生的那个变更 。

    为什么选择Kafka

    基于发布与订阅的消息系统那么多,为什么 Kafka 会是个更好的选择呢? 

    多个生产者
      Kafka 可以无缝地支持多个生产者,不管客户端在使用单个主题还是多个主题。所以它很适合用来从多个前端系统收集数据,并以统的格式对外提供数据。例如, 个包含了
    个微服务的网站,可以为页面视图创建个单独的主题,所有服务都以相同的消息格式向该主题写入数据。消费者应用程序会获得统一的页面视图,而无需协调来自不同生产者的数据流。 

    多个消费者
      除了支持多个生产者外, Kafka 也支持多个消费者从个单独的消息流上读取数据,而消费者之间直不影响。这与其他队列系统不同,其他队列系统的消息旦被一个客户端读
    取,其他客户端就无法再读取它。另外,多个消费者可以组成个群组,它们共享一个 息流,并保证整个群组对每个给定的消息只处理次。 

    基于磁盘的数据存储
      Kafka 不仅支持多个消费者,还允许消费者非实时地读取消息,这要归功于 Kafka 的数据保留特性。消息被提交到磁盘,根据设置的保留规则进行保存。每个主题可以设置单独的
    保留规则,以便满足不同消费者的需求,各个主题可以保留不同数量的消息。消费者可能会因为处理速度慢或突发的流量高峰导致无法及时读取消息,而持久化数据可以保证数据
    不会丢失。消费者可以在进行应用程序维护时离线一小段时间,而无需担心消息丢失或堵塞在生产者端。 消费者可以被关闭,但消息会继续保留在 Kafka 里。消费者可以从上次中
    断的地方继续处理消息 

    伸缩性
            为了能够轻松处理大量数据, Kafka 从开始就被设计成个具有灵活伸缩性的系统。用户在开发阶段可以先使用单个 broker,再扩展到包含 3 个 broker 的小型开发集群,然后随
    着数据量不断增长,部署到生产环境的集群可能包含上百个 broker。对在线集群进行扩展丝毫不影响整体系统的可用性。也就是说, 个包含多个 broker 的集群,即使个别 broker
    失效,仍然可以持续地为客户提供服务。要提高集群的容错能力,需要配置较高的复制系数 。 

    高性能
      上面提到的所有特性,让 Kafka 成为了个高性能的发布与订阅消息系统。通过横向扩展生产者、消费者和 broker, Kafka 可以轻松处理巨大的消息流。在处理大量数据的同时,
    它还能保证亚秒级的消息延迟 。

    数据生态系统

      已有很多应用程序加入到了数据处理的大军中。我们定义了输入和应用程序,负责生成数据或者把数据引入系统。我们定义了输出,它们可以是度量指标、报告或者其他类型的
    数据。我们创建了些循环,使用些组件从系统读取数据,对读取的数据进行处理,然后把它们导到数据基础设施上,以备不时之需。数据类型可以多种多样,每一种数据类型
    可以有不同的内容、大小和用途。Kafka 为数据生态系统带来了循环系统,如图 1-9 所示 。 它在基础设施的各个组件之间传递消息,为所有客户端提供致的接口。当与提供消息模式的系统集成时,

    生产者和消费者之间不再有紧密的祸合,也不需要在它们之间建立任何类型的直连。我们可以根据业务要添加或移除组件.因为生产者不再关心谁在使用数据,也不关心有多少个消费者 。

    使用场景


    活动跟踪
      Kafka 最初的使用场景是跟踪用户的活动。网站用户与前端应用程序发生交互 ,前端应用程序生成用户活动相关的悄息。这些消息可以是一些静态的信息,比如页面访问次数和点
    击量,也可以是一些复杂的操作,比如添加用户资料。这些悄息被发布到个或多个主题上,由后端应用程序负责读取。这样,我们就可以生成报告,为机器学习系统提供数据,
    更新搜索结果,或者实现其他更多的功能。
    传递消息
      Kafka 的另个基本用途是传递消息。应用程序向用户发送通知(比如邮件)就是通过传递消息来实现的。这些应用程序组件可以生成消息,而不需要关心消息的格式,也不需要
    关心消息是如何被发送的。一个公共应用程序会读取这些消息,对它们进行处理:
    • 格式化消息(也就是所谓的装饰) ;
    • 将多个消息放在同个通知里发送 ;
    • 根据用户配置的首选项来发送数据。
    使用公共组件的好处在于,不需要在多个应用程序上开发重复的功能,而且可以在公共组件上做些有趣的转换,比如把多个消息聚合成个单独的通知,而这些工作是无法在其
    他地方完成的。
    3. 度指标和日志记录
      Kafka 也可以用于收集应用程序和系统度量指标以及日志。 Kafka 支持多个生产者的特性在这个时候就可以派上用场。应用程序定期把度量指标发布到 Kafka 主题上,监控系统或告
    警系统读取这些消息。 Kafka 也可以用在像 Hadoop 这样的离线系统上,进行较长时间片 的数据分析,比如年度增长走势预测。日志消息也可以被发布到 Kafka 主题上,然后被路
    由到专门的日志搜索系统(比如 Elasticsearc)或安全分析应用程序。更改目标系统(比如日志存储系统)不会影响到前端应用或聚合方法,这是 Kafka 的另一个优点。
    4. 提交日志
      Kafka 的基本概念来源于提交日志,所以使用 Kafka 作为提交日志是件顺理成章的事。我们可以把数据库的更新发布到 Kafka 上,应用程序通过监控事件流来接收数据库的实时更
    新。这种变更日志流也可以用于把数据库的更新复制到远程系统上,或者合并多个应用程序的更新到一个单独的数据库视图上。数据持久化为变更日志提供了缓冲区,也就是说 
    如果消费者应用程序发生故障,可以通过重放这些日志来恢复系统状态。另外,紧凑型日志主题只为每个键保留个变更数据,所以可以长间使用,不需要担心消息过期问题。
    5. 流处理
      流处理是又个能提供多种类型应用程序的领域。可以说,它们提供的功能与 Hadoop 里的 map 和 reduce 有点类似,只不过它们操作的是实时数据流,而 Hadoop WIJ处理更长时间
    片段的数据,可能是几个小时或者几天, Hadoop 会对这些数掘进行批处理。通过使用流式处理框架,用户可以编写小型应用程序来操作 Kafka 消息,比如计算度量指标,为其他
    应用程序有效地处理消息分区,或者对来自多个数据源的消息进行转换。










  • 相关阅读:
    mongodb 简单的更新语句
    centos 安装ffmpeg 及h264编码打包
    mongodb $where查询
    javascript 上传进度条
    javascript 仿豆瓣读书笔记
    js监听浏览器剪贴板
    ffmpeg相关操作
    ffmpeg未整理好,有时间整理下
    fffmpeg 提取pcm
    ffmpeg转MP4 moov头在前命令
  • 原文地址:https://www.cnblogs.com/jixp/p/9706320.html
Copyright © 2020-2023  润新知