天天看点

LB集群之LVS

LB 集群是 load balance(负载均衡)集群的简写,常用的负载均衡开源软件有 nginx、lvs、keepalived ,商业的硬件负载设备 F5、Netscale。 

LB 集群的架构如下图,原理也很简答,就是当用户的请求过来时,会直接发到分发器(Director Server)上,然后它把用户的请求根据预先设置好的算法,智能均衡地分发到后端的真正服务器(real server)上。如果不同的机器,可能用户请求到的数据不一样,为了避免这样的情况发生,所以用到了共享存储,这样保证所有用户请求的数据是一样的。 

<a href="http://s3.51cto.com/wyfs02/M01/74/19/wKioL1YT0x_gFssEAAGT9b8g33E671.jpg" target="_blank"></a>

LVS 是一个实现负载均衡集群的开源软件项目,LVS 架构从逻辑上可分为调度层(Director)、server 集群层(Real server)和共享存储。LVS 从实现上分为下面三种模式。 

(1)NAT(调度器将请求的目标 ip 即 vip 地址改为 Real server 的 ip, 返回的数据包也经过调度器,调度器再把源地址修改为 vip)。 

(2)TUN(调度器将请求来的数据包封装加密通过 ip 隧道转发到后端的 real server 上,而 real server 会直接把数据返回给客户端,而不再经过调度器)。 

(3)DR(调度器将请求来的数据包的目标 mac 地址改为 real server 的 mac 地址,返回的时候也不经过调度器,直接返回给客户端)。

一、NAT模式

1、准备工作

准备三台机器,一台Director server(简写为dir),两台Real server(简写为rs1,rs2)。

dir有两块网卡,IP配置为:

rs1网卡IP配置为:

rs2网卡IP配置为:

2、安装软件

在dir上安装ipvsadm

因为要验证80端口,我们可以安装httpd或者nginx,这里我在rs1和rs2上都安装nginx进行验证

3、dir上配置NAT

执行脚本

查看规则

<a href="http://s3.51cto.com/wyfs02/M00/74/20/wKiom1YVD_-DBkaJAAFayCwnjzg673.jpg" target="_blank"></a>

4、rs1和rs2上配置网关(这步非常关键)

这样rs1和rs2就能与dir的eth1不同的网段实现通信了。

5、rs1和rs2都开启80端口

# /etc/init.d/nginx start

查看80端口是否开启成功

# netstat -lnp

6、测试

首先都要关闭防火墙

然后我们修改下nginx的默认页面

rs1上

rs2上

接着在dir上测试

由上可知rs1和rs2轮换提供服务。

7、修改权重

这里我们也可以修改权重,比如rs1权重为1,rs2权重为2。

测试下

二、DR模式

1、说明

DR模式的一台Director server和两台Real server都要是公网IP,其缺点就是比较浪费公网IP。所以我们在这里的IP都视为公网IP

dir网卡IP配置为:

2、清空之前NAT模式下的规则

3、改回rs1和rs2的网关

4、配置dir

现在不用eth1网卡,所以我们down掉eth1网卡

配置脚本

查看

<a href="http://s3.51cto.com/wyfs02/M00/74/20/wKiom1YVIMKR0S8ZAAFTn4jn8ic411.jpg" target="_blank"></a>

也可以用ifconfig查看到已经启动了eth0:0这个vip

5、配置rs1和rs2

在rs1和rs2上配置如下一样的脚本

在rs1和rs2上都执行脚本

可以用ifconfig查看到已经启动了lo:0这个vip,也可以用ipvsadm -ln查看详情。

(1)打开另外一台新机器来测试结果如下:

<a href="http://s3.51cto.com/wyfs02/M02/74/20/wKiom1YVJNHAaDpsAAD_B9qiWjk129.jpg" target="_blank"></a>

(2)测试权重

编辑dir上的脚本,修改权重:rs1权重为2,rs2权重为1。

在新机器上测试结果如下图

<a href="http://s3.51cto.com/wyfs02/M01/74/2A/wKioL1YWVVzgfmHqAAIhPrMubzQ052.jpg" target="_blank"></a>

三、LVS结合keepalived

前面的lvs虽然已经配置成功也实现了负载均衡,但是我们测试的时候发现,当某台real server把nginx停掉,那么 director server照样会把请求转发过去,这样就造成了某些请求不正常。所以需要有一种机制用来检测 real server 的状态,这就是 keepalived。它的作用除了可以检测 RS 状态外,还可以检测备用 director 的状态,也就是说 keepalived 可以实现 ha 集群的功能,当然了也需要一台备用 director server。

1、前提准备

因为前面我们已经配置过一些操作,而下面我们使用 keepaliave 操作会和之前的操作是有些冲突,所以先做一些预先处理。 在主dr上执行: 

2、安装

在主dr和备dir1上都安装keepalived

同时也都安装ipvsadm,因为主dir之前安装配置过,故只需配置备dir1。

3、配置

在主dr上配置

在备dr1上配置

拷贝主上文件到从上

4、查看

分别在主备上都查看

5、开启端口转发(主从都要做)

然后在两个 rs 上都执行/usr/local/sbin/lvs_rs.sh 脚本 

6、启动 keepalived 服务(先主后从) 

7、再查看

接着都在主备上查看

<a href="http://s3.51cto.com/wyfs02/M00/74/2A/wKioL1YWaWfxYVLuAAF3Hr_yXN4042.jpg" target="_blank"></a>

8、测试

用第五台机器curl测试192.168.0.110,可以发现是平均请求rs1和rs2的nginx主页面。

      本文转自 M四月天 51CTO博客,原文链接:http://blog.51cto.com/msiyuetian/1700710,如需转载请自行联系原作者

继续阅读