LB 集群是 load balance(负载均衡)集群的简写,常用的负载均衡开源软件有 nginx、lvs、keepalived ,商业的硬件负载设备 F5、Netscale。
LB 集群的架构如下图,原理也很简答,就是当用户的请求过来时,会直接发到分发器(Director Server)上,然后它把用户的请求根据预先设置好的算法,智能均衡地分发到后端的真正服务器(real server)上。如果不同的机器,可能用户请求到的数据不一样,为了避免这样的情况发生,所以用到了共享存储,这样保证所有用户请求的数据是一样的。
<a href="http://s3.51cto.com/wyfs02/M01/74/19/wKioL1YT0x_gFssEAAGT9b8g33E671.jpg" target="_blank"></a>
LVS 是一个实现负载均衡集群的开源软件项目,LVS 架构从逻辑上可分为调度层(Director)、server 集群层(Real server)和共享存储。LVS 从实现上分为下面三种模式。
(1)NAT(调度器将请求的目标 ip 即 vip 地址改为 Real server 的 ip, 返回的数据包也经过调度器,调度器再把源地址修改为 vip)。
(2)TUN(调度器将请求来的数据包封装加密通过 ip 隧道转发到后端的 real server 上,而 real server 会直接把数据返回给客户端,而不再经过调度器)。
(3)DR(调度器将请求来的数据包的目标 mac 地址改为 real server 的 mac 地址,返回的时候也不经过调度器,直接返回给客户端)。
一、NAT模式
1、准备工作
准备三台机器,一台Director server(简写为dir),两台Real server(简写为rs1,rs2)。
dir有两块网卡,IP配置为:
rs1网卡IP配置为:
rs2网卡IP配置为:
2、安装软件
在dir上安装ipvsadm
因为要验证80端口,我们可以安装httpd或者nginx,这里我在rs1和rs2上都安装nginx进行验证
3、dir上配置NAT
执行脚本
查看规则
<a href="http://s3.51cto.com/wyfs02/M00/74/20/wKiom1YVD_-DBkaJAAFayCwnjzg673.jpg" target="_blank"></a>
4、rs1和rs2上配置网关(这步非常关键)
这样rs1和rs2就能与dir的eth1不同的网段实现通信了。
5、rs1和rs2都开启80端口
# /etc/init.d/nginx start
查看80端口是否开启成功
# netstat -lnp
6、测试
首先都要关闭防火墙
然后我们修改下nginx的默认页面
rs1上
rs2上
接着在dir上测试
由上可知rs1和rs2轮换提供服务。
7、修改权重
这里我们也可以修改权重,比如rs1权重为1,rs2权重为2。
测试下
二、DR模式
1、说明
DR模式的一台Director server和两台Real server都要是公网IP,其缺点就是比较浪费公网IP。所以我们在这里的IP都视为公网IP
dir网卡IP配置为:
2、清空之前NAT模式下的规则
3、改回rs1和rs2的网关
4、配置dir
现在不用eth1网卡,所以我们down掉eth1网卡
配置脚本
查看
<a href="http://s3.51cto.com/wyfs02/M00/74/20/wKiom1YVIMKR0S8ZAAFTn4jn8ic411.jpg" target="_blank"></a>
也可以用ifconfig查看到已经启动了eth0:0这个vip
5、配置rs1和rs2
在rs1和rs2上配置如下一样的脚本
在rs1和rs2上都执行脚本
可以用ifconfig查看到已经启动了lo:0这个vip,也可以用ipvsadm -ln查看详情。
(1)打开另外一台新机器来测试结果如下:
<a href="http://s3.51cto.com/wyfs02/M02/74/20/wKiom1YVJNHAaDpsAAD_B9qiWjk129.jpg" target="_blank"></a>
(2)测试权重
编辑dir上的脚本,修改权重:rs1权重为2,rs2权重为1。
在新机器上测试结果如下图
<a href="http://s3.51cto.com/wyfs02/M01/74/2A/wKioL1YWVVzgfmHqAAIhPrMubzQ052.jpg" target="_blank"></a>
三、LVS结合keepalived
前面的lvs虽然已经配置成功也实现了负载均衡,但是我们测试的时候发现,当某台real server把nginx停掉,那么 director server照样会把请求转发过去,这样就造成了某些请求不正常。所以需要有一种机制用来检测 real server 的状态,这就是 keepalived。它的作用除了可以检测 RS 状态外,还可以检测备用 director 的状态,也就是说 keepalived 可以实现 ha 集群的功能,当然了也需要一台备用 director server。
1、前提准备
因为前面我们已经配置过一些操作,而下面我们使用 keepaliave 操作会和之前的操作是有些冲突,所以先做一些预先处理。 在主dr上执行:
2、安装
在主dr和备dir1上都安装keepalived
同时也都安装ipvsadm,因为主dir之前安装配置过,故只需配置备dir1。
3、配置
在主dr上配置
在备dr1上配置
拷贝主上文件到从上
4、查看
分别在主备上都查看
5、开启端口转发(主从都要做)
然后在两个 rs 上都执行/usr/local/sbin/lvs_rs.sh 脚本
6、启动 keepalived 服务(先主后从)
7、再查看
接着都在主备上查看
<a href="http://s3.51cto.com/wyfs02/M00/74/2A/wKioL1YWaWfxYVLuAAF3Hr_yXN4042.jpg" target="_blank"></a>
8、测试
用第五台机器curl测试192.168.0.110,可以发现是平均请求rs1和rs2的nginx主页面。
本文转自 M四月天 51CTO博客,原文链接:http://blog.51cto.com/msiyuetian/1700710,如需转载请自行联系原作者