天天看點

ActiveMQ叢集配置

使用ZooKeeper實作的MasterSlave實作方式, 是對ActiveMQ進行高可用的一種有效的解決方案, 高可用的原

理:使用ZooKeeper(叢集)注冊所有的ActiveMQ

Broker。隻有其中的一個Broker可以對外提供服務(也就是Master節點) ,其

他的Broker處于待機狀态,被視為Slave。如果Master因故障而不能提供服務,

則利用ZooKeeper的内部選舉機制會從Slave中選舉出一個Broker充當Master節點,繼續對外提供服務。

ActiveMQ叢集配置

部署方案, ActiveMQ叢集環境準備:

(1) 首先我們下載下傳apache-activemq-5.11.1-

bin.tar.gz,到我們的一台主節點上去,然後我們在(192.168.1.111一個節點

上實作叢集即可)

(2) Zookeeper方案

主機IP 消息端口 通信端口 節點目錄/usr/local/下
192.168.1.111 2181 2888:3888 zookeeper
192.168.1.112 2181 2888:3888 zookeeper
192.168.1.113 2181 2888:3888 zookeeper

(3) ActiveMQ方案(僞叢集)

主機IP 叢集通信端口 消息端口 控制台端口 節點目錄/usr/local/下
192.168.1.111 62621 51511 8161 activemq-cluster/node1/
192.168.1.111 62622 51512 8162 activemq-cluster/node2/
192.168.1.111 62623 51513 8163 activemq-cluster/node3/

2:首先搭建zookeeper環境

  1. 解壓安裝包并修改檔案夾名稱

首先解壓目錄到/use/local下

tar -zxvf zookeeper-3.4.5.tar.gz -C /usr/local/
           

修改檔案夾名稱

mv zookeeper-3.4.5 zookeeper
           
  1. 配置環境變量
cd /etc/

vim profile
           
ActiveMQ叢集配置

添加下面兩行:

export ZOOKEEPER_HOME=/usr/local/zookeeper

export PATH=.:$ZOOKEEPER_HOME/bin:$PATH
           
  1. Profile檔案生效
source /etc/profile
           
  1. 修改zookeeper配置檔案
cd /usr/local/zookeeper/conf/

mv zoo_sample.cfg zoo.cfg

vim zoo_sample.cfg
           

修改如下選項:

dataDir=/usr/local/zookeeper/data
           

【叢集伺服器下需要幾台伺服器配置幾個server】

server.0=192.168.1.112:2888:3888

server.1=192.168.1.113:2888:3888

server.2=192.168.1.114:2888:3888
           

注意:本機ip使用0.0.0.0

  1. 建立檔案夾以及檔案
mkdir data

cd data/

vim myid
           

檔案中寫入0,儲存退出(每台伺服器中該檔案配置數字依次遞增)

  1. 啟動zookeeper
zkServer.sh start
           

ps:常用指令:  

啟動: zkServer.sh start

停止: zkServer.sh stop

重新開機: zkServer.sh restart

檢視服務狀态: zkServer.sh status

           

3:繼續搭建activemq環境

(1) 在192.168.1.111節點下,建立/usr/local/activemqcluster檔案夾,解壓apache-activemq-5.11.1-bin.tar.gz檔案,然後對解壓好的檔案改名,操作如下:

mkdir /usr/local/activemq-cluster
cd software/
tar -zxvf apache-activemq-5.11.1-bin.tar.gz -C /usr/local/activemq-cluster/
cd /usr/local/activemq-cluster/
mv apache-activemq-5.11.1/ node1
           

如此操作,再次反複解壓apache-activemq-5.11.1-bin.tar.gz檔案到/usr/local/activemqcluster/下,建立node2和node3檔案夾,如下:

(2) 那我們現在已經解壓好了三個mq節點也就是node1、 node2、 node3,下面

我們要做的事情就是更改每個節點不同的配置和端口(由于是在一台機器上實

現叢集)。

1 修改控制台端口(預設為8161) ,在mq安裝路徑下的conf/jetty.xml進

行修改即可。(三個節點都要修改,并且端口都不同)

cd /usr/local/activemq-cluster/node1/conf/
vim /usr/local/activemq-cluster/node1/conf/jetty.xml
           

三個節點都需要修改為8161、8162、8163!!!

2 叢集配置檔案修改:我們在mq安裝路徑下的conf/activemq.xml進行修

改其中的持久化擴充卡,修改其中的bind、 zkAddress、 hostname、 zkPath。

然後也需要修改mq的brokerName,并且每個節點名稱都必須相同。

vim /usr/local/activemq-cluster/node1/conf/activemq.xml
           

第一處修改: brokerName=”activemq-cluster”(三個節點都需要修改)

ActiveMQ叢集配置

第二處修改:先注釋掉擴充卡中的kahadb

ActiveMQ叢集配置

第三處修改:添加新的leveldb配置如下(三個節點都需要修改):

【replicas="3":叢集的節點數】

Node1:
<persistenceAdapter>
<!--kahaDB directory="${activemq.data}/kahadb"/ -->
<replicatedLevelDB
directory="${activemq.data}/leveldb"
replicas="3"
bind="tcp://0.0.0.0:62621"
zkAddress="192.168.1.111:2181,192.168.1.112:2181,192.168.1.113:2181"
hostname="bhz111"
zkPath="/activemq/leveldb-stores"/>
</persistenceAdapter>
Node2:
<persistenceAdapter>
<!--kahaDB directory="${activemq.data}/kahadb"/ -->
<replicatedLevelDB
directory="${activemq.data}/leveldb"
replicas="3"
bind="tcp://0.0.0.0:62622"
zkAddress="192.168.1.111:2181,192.168.1.112:2181,192.168.1.113:2181"
hostname="bhz111"
zkPath="/activemq/leveldb-stores"
/>
</persistenceAdapter>
Node3:
<persistenceAdapter>
<!--kahaDB directory="${activemq.data}/kahadb"/ -->
<replicatedLevelDB
directory="${activemq.data}/leveldb"
replicas="3"
bind="tcp://0.0.0.0:62623"
zkAddress="192.168.1.111:2181,192.168.1.112:2181,192.168.1.113:2181"
hostname="bhz111"
zkPath="/activemq/leveldb-stores"
/>
</persistenceAdapter>
           

第四處修改:(修改通信的端口,避免沖突)

vim /usr/local/activemq-cluster/node1/conf/activemq.xml
           
ActiveMQ叢集配置

修改這個檔案的通信端口号, 三個節點都需要修改(51511,51512,51513)

Ok,到此為止,我們的activemq叢集環境已經搭建完畢!

測試啟動activemq叢集:

第一步:啟動zookeeper叢集,指令: zkServer.sh start

第二步:啟動mq叢集:順序啟動mq:指令如下:

/usr/local/activemq-cluster/node1/bin/activemq start(關閉stop)

/usr/local/activemq-cluster/node2/bin/activemq start(關閉stop)

/usr/local/activemq-cluster/node3/bin/activemq start(關閉stop)

第三步:檢視日志資訊:

tail -f /usr/local/activemq-cluster/node1/data/activemq.log

tail -f /usr/local/activemq-cluster/node2/data/activemq.log

tail -f /usr/local/activemq-cluster/node3/data/activemq.log

如果不報錯,我們的叢集啟動成功,可以使用控制台檢視!

第四步:叢集的brokerUrl配置進行修改即可:

failover:(tcp://192.168.1.111:51511,tcp://192.168.1.111:51512,tcp://1

92.168.1.111:51513)?Randomize=false

/usr/local/activemq-cluster/node1/bin/activemq stop

/usr/local/activemq-cluster/node2/bin/activemq stop

/usr/local/activemq-cluster/node3/bin/activemq stop

zkServer.sh stop

第四:負載均衡配置如下:

叢集1連結叢集2:

<networkConnectors>

<networkConnector

uri="static:(tcp://192.168.1.112:51514,tcp://192.168.1.112:51515,tcp://192.168.1.112:51516)"

duplex="false"/>

</networkConnectors>

叢集2連結叢集1:

<networkConnectors>

<networkConnector

uri="static:(tcp://192.168.1.111:51511,tcp://192.168.1.111:51512,tcp://192.168.1.111:51513)"

duplex="false"/>

</networkConnectors>