• Zookeeper与Kafka集群搭建


     一 :环境准备:

    • 物理机window7 64位
    • vmware 3个虚拟机 centos6.8  IP为:192.168.17.[129 -131]
    • JDK1.7安装配置
    • 各虚拟机之间配置免密登录
    • 安装clustershell用于集群各节点统一操作配置

    1 :在此说明一下免密和clustershell的操作和使用方式

    1.1 :配置免密登录(各集群节点间,互相操作对方时,只需要输入对方ip或者host即可,不需要输入密码,即:免密登录)

    1.1.2 :生成密钥文件和私钥文件 命令

    ssh-keygen -t rsa

    1.1.3 :查看生成秘钥文件

      ls /root/.ssh

    1.1.4 : 将秘钥拷贝到对方机器

      ssh-copy-id -i /root/.ssh/id_rsa.pub 192.168.17.129

      ssh-copy-id -i /root/.ssh/id_rsa.pub 192.168.17.130 

      ssh-copy-id -i /root/.ssh/id_rsa.pub 192.168.17.131

    1.1.5 :测试互相是否连接上

      可以分别在不同节点间互相登录操作一下

     ssh root@192.168.17.130

     hostname

    1.2 : clustershell的安装

      备注一下,我是安装的centos6.6 mini无界面版本,通过yun install clustershell安装时,会提示no package ,原因yum源中的包长期没有更新,所以使用来epel-release

    安装命令:

     sudo yum install epel-release

    然后在yum install clustershell 就可以通过epel来安装了

    1.2.2 : 配置cluster groups

      vim /etc/clustershell/groups 

      添加一个组名:服务器IP或者host 

      kafka:192.168.17.129 192.168.17.130 192.168.17.131

    二 :Zookeeper和Kafka下载

    本文使用的zookeeper和kafka版本分别为:3.4.8 , 0.10.0.0 

    1 :首先到官网进行下载:

    将压缩包放在自己指定的目录下,我这里放在了/opt/kafka 目录下

    然后,通过clush 将压缩包copy到其它几个服务节点中

    clush -g  kafka  -c /opt/kafka

    2 :通过clush来解压缩所有节点的zk和kafka压缩包

    clush -g kafka tar zxvf  /opt/kafka/zookeeper-3.4.8

    clush -g kafka tar zxvf /opt/kafka/kafka_2.11-0.10.1.0

    3 : 将zoo_sample.cfg 拷贝一份为zoo.cfg   (默认的zookeeper配置文件)

      修改配置,zoo.cfg文件 

    # The number of milliseconds of each tick
    tickTime=2000
    # The number of ticks that the initial 
    # synchronization phase can take
    initLimit=10
    # The number of ticks that can pass between 
    # sending a request and getting an acknowledgement
    syncLimit=5
    # the directory where the snapshot is stored.
    # do not use /tmp for storage, /tmp here is just 
    # example sakes.
    dataDir=/tmp/zookeeper   
    # the port at which the clients will connect
    clientPort=2181   ## zk 默认端口
     
    ## 节点IP和端口
    server.1=192.168.17.129:2888:3888
    server.2=192.168.17.130:2888:3888
    server.3=192.168.17.131:2888:3888
     
    # the maximum number of client connections.
    # increase this if you need to handle more clients
    #maxClientCnxns=60
    #
    # Be sure to read the maintenance section of the 
    # administrator guide before turning on autopurge.
    #
    # http://zookeeper.apache.org/doc/current/zookeeperAdmin.html#sc_maintenance
    #
    # The number of snapshots to retain in dataDir
    #autopurge.snapRetainCount=3
    # Purge task interval in hours
    # Set to "0" to disable auto purge feature
    #autopurge.purgeInterval=1 

    3 : 创建tmp/zookeeper 用来存储zk信息

     mkdir /tmp/zookeeper 

    4 : 为每个tmp/zookeeper 设置一个myid的文件,内容为节点id 1 or 2 or 3 

      echo "1" > myid
    5 : 关闭防火墙(最好的做法是找运维人员配置防火墙策略,而不是关闭)
    clush -g kafka "service iptables status"
    clush -g kafka "service iptables stop" 
    6 :启动所有节点的zookeeper(其它节点也都已经配置来zoo.cfg 和 创建了/tmp/zookeeper myid)
    clush -g kafka /opt/kafka/zookeeper/bin/zkServer.sh start /opt/kafka/zookeeper/conf/zoo.cfg 
    7 : 查看ZK 2181端口是否启动
    clush -g kafka lsof -i:2181
     
    8: 测试数据是否同步,创建一个节点test 并给一个值叫 hello
    bin/zkCli.sh -server 192.168.17.130:2181
    create /test hello
    然后分别在其它几台节点查看是否已经创建成功,是否有值 
     
    通过 get /test 查看节点下面的值
     
    Ok ,Zookeeper集群已经安装完成,接下来开始部署kafka!!

    三 :Kafka安装部署

    1 :进入到config -> server.properties
    编辑 zookeeper.connection 
     zookeeper.connect=192.168.17.129:2181,192.168.17.130:2181,192.168.17.131:2181  
    2 :启动kafka
     /opt/kafka/kafka_2.11-0.10.1.0/bin/kafka-server-start.sh -daemon /opt/kafka/kafka_2.11-0.10.1.0/config/server.properties
    3 :创建topic 
    bin/kafka-topics.sh --zookeeper 192.168.17.129:2181 -topic topicTest --create --partition 3 --replication-factor 2
    4 :查看kafka topic 
    [root@Kafka01 kafka_2.11-0.10.1.0]# bin/kafka-topics.sh --zookeeper 192.168.17.129:2181 -topic topicTest --describe
    5 :【测试】启动console-consumer 来订阅消息
    bin/kafka-console-consumer.sh --zookeeper 192.168.17.130:2181 --topic topicTest
    6 :【测试-打开一个新的终端】启动console-producer 来生产消息 
     bin/kafka-console-producer.sh --broker-list kafka02:9092 --topic topicTest
    7 : 测试发生产消息和订阅者接收消息
     
    注 : kafka和zookeeper中的所有的连接地址最好是通过host:port来配置。 kafka默认是通过hostname来访问的 如果设置是ip的话 ,编辑 /etc/hosts  绑定对应机器的host , 否则启动消费之后,会报警告异常如下:
     
     
     
  • 相关阅读:
    一句话概括下spring框架及spring cloud框架主要组件
    服务注册与发现
    微服务API Gateway
    微服务分布式事务的一些思考
    微服务框架的存储架构
    轻量级微服务框架的通信架构
    基于Docker的负载均衡和服务发现
    测试一下标签
    让360安全浏览器默认使用谷歌内核
    schema中字段类型的定义
  • 原文地址:https://www.cnblogs.com/DeepLearing/p/6528377.html
Copyright © 2020-2023  润新知