• kafka集群部署


    1. zookeeper集群

      zookeeper是一个为分布式应用提供一致性服务的软件,它是开源的Hadoop项目的一个子项目,并根据google发表的一篇论文来实现的。zookeeper为分布式系统提供了高笑且易于使用的协同服务,它可以为分布式应用提供相当多的服务,诸如统一命名服务,配置管理,状态同步和组服务等。zookeeper接口简单,我们不必过多地纠结在分布式系统编程难于处理的同步和一致性问题上,你可以使用zookeeper提供的现成(off-the-shelf)服务来实现来实现分布式系统额配置管理,组管理,Leader选举等功能。

    zookeeper集群的安装,准备三台服务器server1:192.168.0.1,server2:192.168.0.2,server3:192.168.0.3.

    (1) 下载zookeeper

    http://zookeeper.apache.org/releases.html去下载最新版本Zookeeper-3.4.5的安装包zookeeper-3.4.5.tar.gz.将文件保存server1的~目录下

    (2) 安装zookeeper

      先在服务器server分别执行a-c步骤

      a)解压

        tar -zxvf zookeeper-3.4.5.tar.gz

        解压完成后在目录~下会发现多出一个目录zookeeper-3.4.5,重新命令为zookeeper

      b)配置

        将conf/zoo_sample.cfg拷贝一份命名为zoo.cfg,也放在conf目录下。然后按照如下值修改其中的配置:

     1 # The number of milliseconds of each tick
     2 
     3 tickTime=2000
     4 
     5 # The number of ticks that the initial
     6 
     7 # synchronization phase can take
     8 
     9 initLimit=10
    10 
    11 # The number of ticks that can pass between
    12 
    13 # sending a request and getting an acknowledgement
    14 
    15 syncLimit=5
    16 
    17 # the directory where the snapshot is stored.
    18 
    19 # do not use /tmp for storage, /tmp here is just
    20 
    21 # example sakes.
    22 
    23 dataDir=/home/wwb/zookeeper /data
    24 
    25 dataLogDir=/home/wwb/zookeeper/logs
    26 
    27 # the port at which the clients will connect
    28 
    29 clientPort=2181
    30 
    31 #
    32 
    33 # Be sure to read the maintenance section of the
    34 
    35 # administrator guide before turning on autopurge.
    36 
    37 # http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
    38 
    39 #
    40 
    41 # The number of snapshots to retain in dataDir
    42 
    43 #autopurge.snapRetainCount=3
    44 
    45 # Purge task interval in hours
    46 
    47 # Set to "0" to disable auto purge feature
    48 
    49 #autopurge.purgeInterval=1
    50 
    51 server.1=192.168.0.1:3888:4888
    52 
    53 server.2=192.168.0.2:3888:4888
    54 
    55 server.3=192.168.0.3:3888:4888

    tickTime:这个时间是作为 Zookeeper 服务器之间或客户端与服务器之间维持心跳的时间间隔,也就是每个 tickTime 时间就会发送一个心跳。

    dataDir: 顾名思义就是 Zookeeper 保存数据的目录,默认情况下,Zookeeper 将写数据的日志文件也保存在这个目录里。

    clientPort:这个端口就是客户端连接 Zookeeper 服务器的端口,Zookeeper 会监听这个端口,接受客户端的访问请求,可以根据实际需要修改

    initLimit:这个配置项是用来配置 Zookeeper 接受客户端(这里所说的客户端不是用户连接Zookeeper 服务器的客户端,而是 Zookeeper服务器集群中连接到 Leader的Follower服务器)初始化连接时最长能忍受多少个心跳时间间隔数。当已经超过 5个心跳的时间(也就是 tickTime)长度后 Zookeeper 服务器还没有收到客户端的返回信息,那么表明这个客户端连接失败。总的时间长度就是 5*2000=10 秒

    syncLimit:这个配置项标识 Leader 与 Follower 之间发送消息,请求和应答时间长度,最长不能超过多少个 tickTime 的时间长度,总的时间长度就是 2*2000=4 秒

    server.A=B:C:D:其中 A 是一个数字,表示这个是第几号服务器;B 是这个服务器的 ip 地址;C 表示的是这个服务器与集群中的 Leader 服务器交换信息的端口;D 表示的是万一集群中的Leader 服务器挂了,需要一个端口来重新进行选举,选出一个新的 Leader,而这个端口就是用来执行选举时服务器相互通信的端口。如果是伪集群的配置方式,由于B都是一样,所以不同的Zookeeper 实例通信端口号不能一样,所以要给它们分配不同的端口号

    注意:dataDir,dataLogDir中data,logs目录开始是不存在,需要使用mkdir命令创建相应的目录,并且在该目录下创建文件,名称为myid,其中serve1,server2,server3三台服务器下该文件内容只有单个数字,分别为1,2,3。这三个数字可以根据实际情况修改,1~255之间的数字均可以!

    针对服务器server2,server3可以将server1复制到相应的目录,不过需要注意dataDir,dataLogDir目录,并且文件myid内容分别为2,3

    (3)依次启动server1,server2,server3的zookeeper.

    /home/wwb/zookeeper/bin/zkServer.sh start,出现类似以下内容

    JMX enabled by default

    Using config: /home/wwb/zookeeper/bin/../conf/zoo.cfg

    Starting zookeeper ... STARTED

    (4)测试zookeeper是否正常工作,在server1上执行以下命令

    /home/wwb/zookeeper/bin/zkCli.sh -server 192.168.0.2:2181,出现类似以下内容
    
    JLine support is enabled
    
    2013-11-27 19:59:40,560 - INFO [main-SendThread(localhost.localdomain:2181):ClientCnxn$SendThread@736] - Session establishment complete on server localhost.localdomain/127.0.0.1:2181, sessionid = 0x1429cdb49220000, negotiated timeout = 30000
    
    WATCHER::
    
    WatchedEvent state:SyncConnected type:None path:null
    
    [zk: 127.0.0.1:2181(CONNECTED) 0] [root@localhost zookeeper2]#

    即代表集群构建成功了,如果出现错误那应该是第三部时没有启动好集群,

    运行,先利用 ps aux | grep zookeeper查看是否有相应的进程的,没有话,说明集群启动出现问题,可以在每个服务器上使用

    ./home/wwb/zookeeper/bin/zkServer.sh stop。再依次使用./home/wwb/zookeeper/bin zkServer.sh start,这时再执行4一般是没有问题,如果还是有问题,那么先stop再到bin的上级目录执行./bin/zkServer.sh start试试。

    注意:zookeeper集群时,zookeeper要求半数以上的机器可用,zookeeper才能提供服务。

    kafka集群

    利用上面server1,server2,server3,下面以server1为实例

    (1)下载kafka0.8(http://kafka.apache.org/downloads.html),保存到服务器/home/wwb目录下kafka-0.8.0-beta1-src.tgz(kafka_2.8.0-0.8.0-beta1.tgz)

    (2)解压 tar -zxvf kafka-0.8.0-beta1-src.tgz,产生文件夹kafka-0.8.0-beta1-src更改为kafka01

    (3)配置,修改kafka01/config/server.properties,其中broker.id,log.dirs,zookeeper.connect必须根据实际情况进行修改,其他项根据需要自行斟酌。大致如下:

    broker.id=1
    
    port=9091
    
    num.network.threads=2
    
    num.io.threads=2
    
    socket.send.buffer.bytes=1048576
    
    socket.receive.buffer.bytes=1048576
    
    socket.request.max.bytes=104857600
    
    log.dir=./logs
    
    num.partitions=2
    
    log.flush.interval.messages=10000
    
    log.flush.interval.ms=1000
    
    log.retention.hours=168
    
    #log.retention.bytes=1073741824
    
    log.segment.bytes=536870912
    
    num.replica.fetchers=2
    
    log.cleanup.interval.mins=10
    
    zookeeper.connect=192.168.0.1:2181,192.168.0.2:2182,192.168.0.3:2183
    
    zookeeper.connection.timeout.ms=1000000
    
    kafka.metrics.polling.interval.secs=5
    
    kafka.metrics.reporters=kafka.metrics.KafkaCSVMetricsReporter
    
    kafka.csv.metrics.dir=/tmp/kafka_metrics
    
    kafka.csv.metrics.reporter.enabled=false

    (4)初始化

    因为kafka用scala语言编写,因此运行kafka需要首先准备scala相关环境。

      > cd kafka01

      > ./sbt update

      > ./sbt package

      > ./sbt assembly-package-dependency

    在第二个命令时可能需要一定时间,由于要下载更新一些依赖包。所以请大家 耐心点。

    (5)启动kafka01

      >JMX_PORT=9997 bin/kafka-server-start.sh config/server.properties &

      a)kafka02操作步骤与kafka01雷同,不同的地方如下

        修改kafka02/config/server.properties

        broker.id=2

        port=9092

        ##其他配置和kafka-0保持一致

        启动kafka02

        JMX_PORT=9998 bin/kafka-server-start.sh config/server.properties &

      b)kafka03操作步骤与kafka01雷同,不同的地方如下

        修改kafka03/config/server.properties

        broker.id=3

        port=9093

        ##其他配置和kafka-0保持一致

        启动kafka02

        JMX_PORT=9999 bin/kafka-server-start.sh config/server.properties &

    (6)创建Topic(包含一个分区,三个副本)

        >bin/kafka-create-topic.sh --zookeeper 192.168.0.1:2181 --replica 3 --partition 1 --topic my-replicated-topic

    (7)查看topic情况

        >bin/kafka-list-top.sh --zookeeper 192.168.0.1:2181

        topic: my-replicated-topic partition: 0 leader: 1 replicas: 1,2,0 isr: 1,2,0

    (8)创建发送者

        >bin/kafka-console-producer.sh --broker-list 192.168.0.1:9091 --topic my-replicated-topic

        my test message1

        my test message2

        ^C

    (9)创建消费者

        >bin/kafka-console-consumer.sh --zookeeper 127.0.0.1:2181 --from-beginning --topic my-replicated-topic

        ...

        my test message1

        my test message2

        ^C

    (10)杀掉server1上的broker

        >pkill -9 -f config/server.properties

    (11)查看topic

        >bin/kafka-list-top.sh --zookeeper 192.168.0.1:2181

        topic: my-replicated-topic partition: 0 leader: 1 replicas: 1,2,0 isr: 1,2,0

        发现topic还正常的存在

    (12)创建消费者,看是否能查询到消息

        >bin/kafka-console-consumer.sh --zookeeper 192.168.0.1:2181 --from-beginning --topic my-replicated-topic

        ...

        my test message 1

        my test message 2

        ^C

    说明一切都是正常的。

  • 相关阅读:
    Telink TLSR825x系列SDK增加串口打印log功能
    Telink BDT和烧录器EVK的使用
    Telink SDK IDE开发环境中函数链接跳转异常和实际编译项目显示灰色问题的解决
    Telink SDK 的编译设置(以825x系列的一个SDK为例)
    Telink IDE的下载和SDK的导入
    Git项目管理出现 .gitignore文件不起作用的解决
    char和signed char不同编译器下的使用反思
    动态内存的分配
    结构体和联合体
    C语言中利用clock设计一个简单的定时器
  • 原文地址:https://www.cnblogs.com/sunfie/p/7253535.html
Copyright © 2020-2023  润新知