• kafka 使用入门1


    1. kafka命令

    topic

    查看kafka中的topic

    	kafka-topics.sh --list --zookeeper zkip:2181
    

    创建topic

    	kafka-topics.sh --create --zookeeper 173.20.0.2:2181 --topic first --partitions 2 --replication-factor 3
    

    producer/consumer

    	kafka-console-consumer.sh --topic first --bootstrap-server 173.20.0.3:9092 控制台消费
    
    	kafka-console-producer.sh --topic first --broker-list 173.20.0.3:9092 控制台生产
    

    2. 生产者

    1. 分区策略

    	在未指定partition的时候,是根据key的hash值模与当前的分区数 
    	在没有指定key的情况下,轮询的方式分发
    

    2.ISR

    	kafka为了保证数据的可靠性,采用的follower全部同步数据的方式
    	问题是当一个follower宕机之后,岂不是无法返回ack?
    	replica.lag.time.max.ms 同步leader阈值,在这个时间内同步成功的会加入到isr中,当isr队列中的副本同步完就会返回ack,当leader发生故障就会在isr中选举
    	
    	这里面临这性能问题,所以kafka提供了三种ack配置
    	0:producer不等待broker的ack
    	1:producer只等待leader写完
    	-1(all):producer等待leader和follower全部落盘返回ack 
    	极端情况下isr中没有达标的follower就会退化成1那种情况
    	在同步完follower之后未回复ack之前leader宕机,会出现数据重复的现象
    

    3. 数据一致性问题

    	LEO(Log End Offset)
    	HW(High watermark)
    	消费者只能看到hw之前的数据,当leader宕机之后follower成为leader之后会删除其他副本hw到leo的数据,并让其他副本同步leader的数据
    

    4. 幂等性

    	producer中的enable.idompotence设置为true
    	只能保证当次会话 当前分区的幂等性
    

    3. 消费者

    1. 消费方式

    	consumer采用pull模式从broker拉取数据 当无数据的时候会等待timeout时间再去pull
    

    2. 分区分配策略

    	1. 轮询
    	把消费者组中订阅的所有topic当成一个整体,来轮询分配给消费者组中的consumer
    	前提条件,要保证当前消费者组中订阅的同一个或一组topic
    	2. 范围
    

    3. offset的维护

    	通过消费者组+topic+partition唯一确定一个offset
    

    4. 事务

    	客户端给一个transactionid,kafka将transactionid+pid存储在broker, 当producer宕机之后,重启之后拿着transactionid去broker获取旧当pid保证跨分区跨会话级别的exactly once
  • 相关阅读:
    VS2010、SQL Server 2008和SQL Server 2012安装详解
    IIS服务寄宿
    C#中错误:不包含适合于入 口点的静态“Main”方法 的解决方法
    硬件的一些性能指标
    SATA SAS SSD 硬盘介绍和评测
    mysql数据库锁定机制
    mysql日志设置优化
    MySQL硬件瓶颈分析
    可扩展性设计之数据切分
    硬件环境对系统性能的影响
  • 原文地址:https://www.cnblogs.com/isnotnull/p/15748284.html
Copyright © 2020-2023  润新知