• ActiveMQ+Zookeeper集群配置文档


    Zookeeper + ActiveMQ 集群整合配置文档


    一:使用ZooKeeper实现的MasterSlave实现方式

    是对ActiveMQ进行高可用的一种有效的解决方案, 高可用的原
    理:使用ZooKeeper(集群)注册所有的ActiveMQ
    Broker。只有其中的一个Broker可以对外提供服务( 也就是Master节点) ,其
    他的Broker处于待机状态,被视为Slave。如果Master因故障而不能提供服务,
    则利用ZooKeeper的内部选举机制会从Slave中选举出一个Broker充当Master节
    点,继续对外提供服务。
    官网文档如下:
    http://activemq.apache.org/replicated-leveldb-store.html

    二:部署方案, ActiveMQ集群环境准备:
    ( 1) 首先我们下载apache-activemq-5.11.1-
    bin.tar.gz,到我们的一台主节点上去,然后我们在( 192.168.1.111一个节点
    上实现集群即可)
    ( 2) Zookeeper方案

    主机IP 消息端口 通信端口 节点目录/usr/local/下
    192.168.1.111 2181 2888:3888 zookeeper
    192.168.1.112 2181 2888:3888 zookeeper
    192.168.1.113 2181 2888:3888 zookeeper


    ( 3) ActiveMQ方案

    主机IP 集群通信端口 消息端口 控制台端口 节点目录/usr/local/下
    192.168.1.111 62621 51511 8161 activemq-cluster/node1/
    192.168.1.111 62622 51512 8162 activemq-cluster/node2/
    192.168.1.111 62623 51513 8163 activemq-cluster/node3/


    1:首先搭建zookeeper环境

    在192.168.1.111节点下software下,解压zookeeper-3.4.5.tar.gz文件,然后改名,操作如下:(在三台机器上都进行这样的配置)

    命令: mv zookeeper-3.4.5 zookeeper

    配置环境变量:vim /etc/profile

    添加:export  ZOOKEEPER_HOME=/usr/local/zookeeper,并添加PATH

       使环境变量生效:source /etc/profile

    然后:cd zookeeper/conf

         mv zoo_sample.cfg zoo.cfg

         vi zoo.cfg

    找到datadir修改为:/usr/local/zookeeper/data

    在最下面添加:server.0=192.168.1.111:2888:3888
             server.1=192.168.1.112:2888:3888
           server.2=192.168.1.113:2888:3888

    建立zookeeper/data文件夹,并cd进入

    执行vim myid

    第一行添加0即可

    在112中添加1,113中添加2

    搭建完成

    三台机器上运行:zkServer.sh  start

    任意一台运行:zkCli.sh可以连接上客户端

    2:继续搭建activemq环境
    ( 1) 在192.168.1.111节点下,创建/usr/local/activemq-cluster文件夹,解压apache-activemq-5.11.1-
    bin.tar.gz文件,然后对解压好的文件改名,操作如下:
    1 命令: mkdir /usr/local/activemq-cluster
    2 命令: cd software/
    3 命令: tar -zxvf apache-activemq-5.11.1-bin.tar.gz -C
    /usr/local/activemq-cluster/
    4 命令: cd /usr/local/activemq-cluster/
    5 命令: mv apache-activemq-5.11.1/ node1
    如此操作,再次反复解压apache-activemq-5.11.1-
    bin.tar.gz文件到/usr/local/activemqcluster/下,建立node2node3文件夹,如下:

    ( 2) 那我们现在已经解压好了三个mq节点也就是node1、 node2、 node3,下面
    我们要做的事情就是更改每个节点不同的配置和端口(由于是在一台机器上实
    现集群)。
    1 修改控制台端口(默认为8161) ,在mq安装路径下的conf/jetty.xml进
    行修改即可。(三个节点都要修改,并且端口都不同)
    1命令: cd /usr/local/activemq-cluster/node1/conf/
    2命令: vim /usr/local/activemq-cluster/node1/conf/jetty.xml

    三个点都需要修改816181628163!!!
    2 集群配置文件修改:我们在mq安装路径下的conf/activemq.xml进行修
    改其中的持久化适配器,修改其中的bind、 zkAddress、 hostname、 zkPath
    然后也需要修改mq的brokerName,并且每个节点名称都必须相同。
    命令: vim /usr/local/activemq-cluster/node1/conf/activemq.xml
    第一处修改: brokerName=”activemq-cluster”(三个点都需要修改)

    第二处修改:先注释掉适配器中的kahadb

    第三修改:添加新的leveldb配置如下(三个点都需要修改):
    Node1:
    <persistenceAdapter>
    <!--kahaDB directory="${activemq.data}/kahadb"/ -->
    <replicatedLevelDB
    directory="${activemq.data}/leveldb"
    replicas="3"
    bind="tcp://0.0.0.0:62621"
    zkAddress="192.168.1.111:2181,192.168.1.112:2181,192.168.1.113:2181"
    hostname="bhz111"
    zkPath="/activemq/leveldb-stores"
    />
    </persistenceAdapter>
    Node2:
    <persistenceAdapter>
    <!--kahaDB directory="${activemq.data}/kahadb"/ -->
    <replicatedLevelDB
    directory="${activemq.data}/leveldb"
    replicas="3"
    bind="tcp://0.0.0.0:62622"
    zkAddress="192.168.1.111:2181,192.168.1.112:2181,192.168.1.113:2181"
    hostname="bhz111"
    zkPath="/activemq/leveldb-stores"
    />
    </persistenceAdapter>
    Node3:
    <persistenceAdapter>
    <!--kahaDB directory="${activemq.data}/kahadb"/ -->
    <replicatedLevelDB
    directory="${activemq.data}/leveldb"
    replicas="3"
    bind="tcp://0.0.0.0:62623"
    zkAddress="192.168.1.111:2181,192.168.1.112:2181,192.168.1.113:2181"
    hostname="bhz111"
    zkPath="/activemq/leveldb-stores"
    />
    </persistenceAdapter>
    第四处修改:(修改通信的端口,避免冲突)
    命令: vim /usr/local/activemq-cluster/node1/conf/activemq.xml
    修改这个文件的通信端口号, 三个节点都需要修改( 51511,51512,51513)


    Ok,到此为止,我们的activemq集群环境已经搭建完毕!

    三:测试启动activemq集群:
    第一步:启动zookeeper集群,命令: zkServer.sh start
    第二步:启动mq集群:顺序启动mq:命令如下:
    /usr/local/activemq-cluster/node1/bin/activemq start(关闭stop
    /usr/local/activemq-cluster/node2/bin/activemq start(关闭stop
    /usr/local/activemq-cluster/node3/bin/activemq start(关闭stop
    第三步:查看日志信息:
    tail -f /usr/local/activemq-cluster/node1/data/activemq.log
    tail -f /usr/local/activemq-cluster/node2/data/activemq.log
    tail -f /usr/local/activemq-cluster/node3/data/activemq.log
    如果不报错,我们的集群启动成功,可以使用控制台查看!
    第四步:集群的brokerUrl配置行修改即可:
    failover:(tcp://192.168.1.111:51511,tcp://192.168.1.111:51512,tcp://1
    92.168.1.111:51513)?Randomize=false
    /usr/local/activemq-cluster/node1/bin/activemq stop
    /usr/local/activemq-cluster/node2/bin/activemq stop
    /usr/local/activemq-cluster/node3/bin/activemq stop
    zkServer.sh stop
    第四:负载均衡配置如下:
    集群1链接集群2:
    <networkConnectors>
    <networkConnector
    uri="static:(tcp://192.168.1.112:51514,tcp://192.168.1.112:51515,tcp://192.168.1.112:51516)"
    duplex="false"/>
    </networkConnectors>
    集群2链接集群1:
    <networkConnectors>
    <networkConnector
    uri="static:(tcp://192.168.1.111:51511,tcp://192.168.1.111:51512,tcp://192.168.1.111:51513)"
    duplex="false"/>
    </networkConnectors>

  • 相关阅读:
    C语言处理中文 大萝卜的专栏 博客频道 CSDN.NET
    Coursera
    分享:Concurrency Kit 0.2.14 发布,C 并发工具包
    tox: virtualenvbased automation of test activities
    C语言处理中文
    detox 0.9 : Python Package Index
    分享:Concurrency Kit 0.2.14 发布,C 并发工具包
    ThreadPool的使用
    C Cheat Sheet
    tox 1.4.2 : Python Package Index
  • 原文地址:https://www.cnblogs.com/lm970585581/p/7910058.html
Copyright © 2020-2023  润新知