天天看点

ActiveMQ集群配置

使用ZooKeeper实现的MasterSlave实现方式, 是对ActiveMQ进行高可用的一种有效的解决方案, 高可用的原

理:使用ZooKeeper(集群)注册所有的ActiveMQ

Broker。只有其中的一个Broker可以对外提供服务(也就是Master节点) ,其

他的Broker处于待机状态,被视为Slave。如果Master因故障而不能提供服务,

则利用ZooKeeper的内部选举机制会从Slave中选举出一个Broker充当Master节点,继续对外提供服务。

ActiveMQ集群配置

部署方案, ActiveMQ集群环境准备:

(1) 首先我们下载apache-activemq-5.11.1-

bin.tar.gz,到我们的一台主节点上去,然后我们在(192.168.1.111一个节点

上实现集群即可)

(2) Zookeeper方案

主机IP 消息端口 通信端口 节点目录/usr/local/下
192.168.1.111 2181 2888:3888 zookeeper
192.168.1.112 2181 2888:3888 zookeeper
192.168.1.113 2181 2888:3888 zookeeper

(3) ActiveMQ方案(伪集群)

主机IP 集群通信端口 消息端口 控制台端口 节点目录/usr/local/下
192.168.1.111 62621 51511 8161 activemq-cluster/node1/
192.168.1.111 62622 51512 8162 activemq-cluster/node2/
192.168.1.111 62623 51513 8163 activemq-cluster/node3/

2:首先搭建zookeeper环境

  1. 解压安装包并修改文件夹名称

首先解压目录到/use/local下

tar -zxvf zookeeper-3.4.5.tar.gz -C /usr/local/
           

修改文件夹名称

mv zookeeper-3.4.5 zookeeper
           
  1. 配置环境变量
cd /etc/

vim profile
           
ActiveMQ集群配置

添加下面两行:

export ZOOKEEPER_HOME=/usr/local/zookeeper

export PATH=.:$ZOOKEEPER_HOME/bin:$PATH
           
  1. Profile文件生效
source /etc/profile
           
  1. 修改zookeeper配置文件
cd /usr/local/zookeeper/conf/

mv zoo_sample.cfg zoo.cfg

vim zoo_sample.cfg
           

修改如下选项:

dataDir=/usr/local/zookeeper/data
           

【集群服务器下需要几台服务器配置几个server】

server.0=192.168.1.112:2888:3888

server.1=192.168.1.113:2888:3888

server.2=192.168.1.114:2888:3888
           

注意:本机ip使用0.0.0.0

  1. 创建文件夹以及文件
mkdir data

cd data/

vim myid
           

文件中写入0,保存退出(每台服务器中该文件配置数字依次递增)

  1. 启动zookeeper
zkServer.sh start
           

ps:常用命令:  

启动: zkServer.sh start

停止: zkServer.sh stop

重启: zkServer.sh restart

查看服务状态: zkServer.sh status

           

3:继续搭建activemq环境

(1) 在192.168.1.111节点下,创建/usr/local/activemqcluster文件夹,解压apache-activemq-5.11.1-bin.tar.gz文件,然后对解压好的文件改名,操作如下:

mkdir /usr/local/activemq-cluster
cd software/
tar -zxvf apache-activemq-5.11.1-bin.tar.gz -C /usr/local/activemq-cluster/
cd /usr/local/activemq-cluster/
mv apache-activemq-5.11.1/ node1
           

如此操作,再次反复解压apache-activemq-5.11.1-bin.tar.gz文件到/usr/local/activemqcluster/下,建立node2和node3文件夹,如下:

(2) 那我们现在已经解压好了三个mq节点也就是node1、 node2、 node3,下面

我们要做的事情就是更改每个节点不同的配置和端口(由于是在一台机器上实

现集群)。

1 修改控制台端口(默认为8161) ,在mq安装路径下的conf/jetty.xml进

行修改即可。(三个节点都要修改,并且端口都不同)

cd /usr/local/activemq-cluster/node1/conf/
vim /usr/local/activemq-cluster/node1/conf/jetty.xml
           

三个节点都需要修改为8161、8162、8163!!!

2 集群配置文件修改:我们在mq安装路径下的conf/activemq.xml进行修

改其中的持久化适配器,修改其中的bind、 zkAddress、 hostname、 zkPath。

然后也需要修改mq的brokerName,并且每个节点名称都必须相同。

vim /usr/local/activemq-cluster/node1/conf/activemq.xml
           

第一处修改: brokerName=”activemq-cluster”(三个节点都需要修改)

ActiveMQ集群配置

第二处修改:先注释掉适配器中的kahadb

ActiveMQ集群配置

第三处修改:添加新的leveldb配置如下(三个节点都需要修改):

【replicas="3":集群的节点数】

Node1:
<persistenceAdapter>
<!--kahaDB directory="${activemq.data}/kahadb"/ -->
<replicatedLevelDB
directory="${activemq.data}/leveldb"
replicas="3"
bind="tcp://0.0.0.0:62621"
zkAddress="192.168.1.111:2181,192.168.1.112:2181,192.168.1.113:2181"
hostname="bhz111"
zkPath="/activemq/leveldb-stores"/>
</persistenceAdapter>
Node2:
<persistenceAdapter>
<!--kahaDB directory="${activemq.data}/kahadb"/ -->
<replicatedLevelDB
directory="${activemq.data}/leveldb"
replicas="3"
bind="tcp://0.0.0.0:62622"
zkAddress="192.168.1.111:2181,192.168.1.112:2181,192.168.1.113:2181"
hostname="bhz111"
zkPath="/activemq/leveldb-stores"
/>
</persistenceAdapter>
Node3:
<persistenceAdapter>
<!--kahaDB directory="${activemq.data}/kahadb"/ -->
<replicatedLevelDB
directory="${activemq.data}/leveldb"
replicas="3"
bind="tcp://0.0.0.0:62623"
zkAddress="192.168.1.111:2181,192.168.1.112:2181,192.168.1.113:2181"
hostname="bhz111"
zkPath="/activemq/leveldb-stores"
/>
</persistenceAdapter>
           

第四处修改:(修改通信的端口,避免冲突)

vim /usr/local/activemq-cluster/node1/conf/activemq.xml
           
ActiveMQ集群配置

修改这个文件的通信端口号, 三个节点都需要修改(51511,51512,51513)

Ok,到此为止,我们的activemq集群环境已经搭建完毕!

测试启动activemq集群:

第一步:启动zookeeper集群,命令: zkServer.sh start

第二步:启动mq集群:顺序启动mq:命令如下:

/usr/local/activemq-cluster/node1/bin/activemq start(关闭stop)

/usr/local/activemq-cluster/node2/bin/activemq start(关闭stop)

/usr/local/activemq-cluster/node3/bin/activemq start(关闭stop)

第三步:查看日志信息:

tail -f /usr/local/activemq-cluster/node1/data/activemq.log

tail -f /usr/local/activemq-cluster/node2/data/activemq.log

tail -f /usr/local/activemq-cluster/node3/data/activemq.log

如果不报错,我们的集群启动成功,可以使用控制台查看!

第四步:集群的brokerUrl配置进行修改即可:

failover:(tcp://192.168.1.111:51511,tcp://192.168.1.111:51512,tcp://1

92.168.1.111:51513)?Randomize=false

/usr/local/activemq-cluster/node1/bin/activemq stop

/usr/local/activemq-cluster/node2/bin/activemq stop

/usr/local/activemq-cluster/node3/bin/activemq stop

zkServer.sh stop

第四:负载均衡配置如下:

集群1链接集群2:

<networkConnectors>

<networkConnector

uri="static:(tcp://192.168.1.112:51514,tcp://192.168.1.112:51515,tcp://192.168.1.112:51516)"

duplex="false"/>

</networkConnectors>

集群2链接集群1:

<networkConnectors>

<networkConnector

uri="static:(tcp://192.168.1.111:51511,tcp://192.168.1.111:51512,tcp://192.168.1.111:51513)"

duplex="false"/>

</networkConnectors>