• Kafka高可用环境搭建


    Apache Kafka是分布式发布-订阅消息系统,在 kafka官网上对 kafka 的定义:一个分布式发布-订阅消息传递系统。 它最初由LinkedIn公司开发,Linkedin于2010年贡献给了Apache基金会并成为顶级开源项目。Kafka是一种快速、可扩展的、设计内在就是分布式的,分区的和可复制的提交日志服务。

    注意:Kafka并没有遵循JMS规范,它只提供了发布和订阅通讯方式!!!!!
    kafka中文官网:http://kafka.apachecn.org/quickstart.html

    Kafka用在日志里面比较多 大数据里面的

    MQ的思想: 解耦合  流量削峰  异步通信

    kafka优点:

    - 高吞吐量、低延迟:kafka每秒可以处理几十万条消息,它的延迟最低只有几毫秒,每个topic可以分多个partition, consumer group 对partition进行consume操作,我之前在课题里用到Spark Streaming 作为消费者过滤数据。
    - 可扩展性:kafka集群支持热扩展
    - 持久性、可靠性:消息被持久化到本地磁盘,并且支持数据备份防止数据丢失
    - 容错性:允许集群中节点失败(若副本数量为n,则允许n-1个节点失败)
    - 高并发:支持数千个客户端同时读写

    Kafka依赖Zookeeper,kafka把集群的节点信息 全部存放在Zookeeper节点!!!!!

    应用场景:

    - 日志收集:一个公司可以用Kafka可以收集各种服务的log,通过kafka以统一接口服务的方式开放给各种consumer,例如hadoop、Hbase、Solr或者Spark Streaming等。
    - 消息系统:解耦和生产者和消费者、缓存消息等。
    - 用户活动跟踪:Kafka经常被用来记录web用户或者app用户的各种活动,如浏览网页、搜索、点击等活动,这些活动信息被各个服务器发布到kafka的topic中,然后订阅者通过订阅这些topic来做实时的监控分析,或者装载到hadoop、数据仓库中做离线分析和挖掘。
    - 运营指标:Kafka也经常用来记录运营监控数据。包括收集各种分布式应用的数据,生产各种操作的集中反馈,比如报警和报告。
    - 流式处理:比如spark streaming和storm
    - 事件源

    关键名词解释:

     

    Broker:Kafka节点,一个Kafka节点就是一个broker,多个broker可以组成一个Kafka集群。  broker就是节点,单机的kafka服务器
    Topic:一类消息,消息存放的目录即主题,例如page view日志、click日志等都可以以topic的形式存在,Kafka集群能够同时负责多个topic的分发,kafka服务器存放 主题。kafka集群相当于把topic进行拆分,拆分到不同的分区进行存放。类似于数据库存放数据量比较大的情况下,表进行拆分。查询时候进行分表查询

    massage: Kafka中最基本的传递对象。
    Partition:topic物理上的分组,一个topic可以分为多个partition,每个partition是一个有序的队列,就是分区的概念,相当于把topic存放到不同的物理机器上存储起来。topic消息进行拆分,均摊存放到不同的

                      集群中的kafka服务器上。 每个partition其实是有顺序的。
    Segment:partition物理上由多个segment组成,每个Segment存着message信息
    Producer : 生产者,生产message发送到topic
    Consumer : 消费者,订阅topic并消费message, consumer作为一个线程来消费
    Consumer Group:消费者组,一个Consumer Group包含多个consumer。在同一个组可以收到消息
    Offset:偏移量,理解为消息partition中的索引即可。  消息在partition的索引的位置

    需要理解存储策略:

      

    1)kafka以topic来进行消息管理,每个topic包含多个partition,每个partition对应一个逻辑log,有多个segment组成
    2)每个segment中存储多条消息(见下图),消息id由其逻辑位置决定,即从消息id可直接定位到消息的存储位置,避免id到位置的额外映射。
    3)每个part在内存中对应一个index,记录每个segment中的第一条消息偏移。
    4)发布者发到某个topic的消息会被均匀的分布到多个partition上(或根据用户指定的路由规则进行分布),broker收到发布消息往对应partition的最后一个segment上添加该消息,当某个segment上的消息条数达到配置值或消息发布时间超过阈值时,segment上的消息会被flush到磁盘,只有flush到磁盘上的消息订阅者才能订阅到,segment达到一定的大小后将不会再往该segment写数据,broker会创建新的segment。

    生产者发送消息原理:

     

     Kafka高可用集群原理:

       

         kafka 是topic为主的,kafka必须集群,核心就是集群,才能体现分区的优势!

         

         集群环境下 生产者投递消息 到哪个Broker? 

         (Tomcat 通过Nginx 集合起来的思想深入人心)

         集群的目的就是分担单台的压力,kafaka采用了 负载轮训的机制

          数据库里面 单表 有1亿条数据  查询很慢的 。所以分表,比如按照月份进行分或者根据其他的业务来进行分。

          

        下图三个Broke  topic进行分区存放,在创建topic时候,轮训去指定分区。BrokerId区分之

          0,1,2,34,5,6为offset 每个分区中的offset是独立的,互不影响的

          三个broker,有三个消费者是比较合理的~

         Zookeeper 节点专门存放topic 信息。   kafka 的broker的信息存放在zk节点

  • 相关阅读:
    oracle课堂笔记---第十九天
    oracle课堂笔记--第十八天
    oracle课堂随笔--第十七天
    oracle课堂随笔--第十六天
    oracle课堂随笔--第十五天
    oracle课堂随笔--第十四天
    oracle课堂笔记--第十三天
    oracle课堂随笔--第十一天
    Beta冲刺预备
    个人作业——软件产品分析
  • 原文地址:https://www.cnblogs.com/toov5/p/10293909.html
Copyright © 2020-2023  润新知