- 配置fence裝置
為了抑制争搶資源:通過fence這個實體裝置将叢集連接配接在一起,保證時刻隻有一個叢集正常工作
一旦出現争搶資源的現象,主的叢集就會通過fence強制重新開機備的叢集,進而使主叢集正常工作
server1是一個叢集,server2是一個叢集,真機是一個fence裝置
真機:安裝fence軟體,生成fence管理的key,然後傳給叢集
yum search fence 查找安裝包
yum install -y fence-virtd.x86_64 fence-virtd-libvirt.x86_64 fence-virtd-multicast.x86_64 安裝
fence_virtd -c 初始化fence裝置管理,(Interface [virbr0]: br0) 需要修改網卡(因為兩個叢集是在虛拟機上面做的,虛拟網卡是通過真實的網卡br0來工作)

mkdir /etc/cluster/
cd /etc/cluster/
dd if=/dev/urandom of=/etc/cluster/fence_xvm.key bs=128 count=1 生成fence管理的密鑰
scp fence_xvm.key [email protected]:/etc/cluster/ 将生成的密鑰發送給server1和server2
scp fence_xvm.key [email protected]:/etc/cluster/
注意先不要開啟fence裝置,保證兩個叢集得到的key一樣
浏覽器:https:172.25.38.1:8084
開啟叢集管理工具,進入westos_ha叢集,添加Fence Devices,類型為Fence virt(Multicast Mode多模式),name為vmfence(可以随意起)
server1/server2各自建立Fence Devices(Fence virt(Multicast Mode多點傳播模式))、Fence Instance(Domain:寫入UUID在虛拟機管理界面複制。如果使用Ip,若ip沖突的話,直接關兩個)
在兩個叢集節點的叢集配置檔案裡面看兩個叢集節點是否關聯在fence裝置上
cat /etc/cluster/cluster.conf
真機:啟動fence服務
systemctl start fence_virtd.service
server1測試:
fence_node server2 server1通過fence強制重新開機server2
總結:通過fence就可以解決争搶資源的問題,保證用戶端有條不紊的通路服務端
- RHCS叢集實作高可用服務配置(以http服務為例)
server1和server2安裝httpd,編輯預設釋出頁面
/etc/init.d/httpd status 檢視狀态
浏覽器:
Failover Domains (設定失敗回切域—>一個節點出現故障時切換到正常的那一個上)
–>Add–> name &設定兩個節點的優先級(數字越小優先級越高)
資源及資源組的添加:
Resources (添加建立的失敗回切域中需要的資源:通過vip調用真實的節點)
–>Add–> Script (添加腳本資源/etc/init.d/httpd)& IP Address (添加叢集外的VIP資源172.25.29.100)
Service Groups(添加服務組,在該服務組中添加資源)
–>Add --> Add Resource(添加資源選擇httpd) --> Add Child Resource(再添加資源選擇VIP)–> Submit
在圖形界面資源組送出以後,會自動開啟服務,因為server1優先級高,是以httpd會運作在server1上,并且獲得vip
當server1上httpd服務停掉,服務會轉移到server2上,并且vip同樣轉移到server2上
真機測試:curl 172.25.29.100
echo c > /proc/sysrq-trigger,破壞server1的核心
server1 關閉 vip漂移到server2
server1重新啟動,vip漂移回server1