天天看点

基于lvs-nat方式实现负载均衡

实验环境:

<code>    </code><code>OS : CentOS 6.6 </code>

<code>    </code><code>ipvsadm: ipvsadm-1.26-4.el6.x86_64</code>

<code>    </code><code>LVS Server: </code>

<code>            </code><code>eth0: 172.16.66.10</code>

<code>            </code><code>eth1: 192.168.100.3</code>

<code>    </code><code>RS1:</code>

<code>            </code><code>eth1: 192.168.66.11</code>

<code>            </code><code>gateway: 192.168.100.3</code>

<code>    </code><code>RS2:</code>

<code>            </code><code>eth1: 192.168.100.12</code>

集群系统性能提升方式:

    scale up: 向上扩展 (升级硬件设备 等)

    scale out: 向外扩展 (添加主机数量提升性能)

Linux Cluster 类型 

    负载均衡集群:Load Balancing (主要用于扩容、及可用性)

    高可用集群:High Availability (主要目标保证系统可用) (又称HA集群 )

        衡量可用性指标 = 平均无故障时间/(平均无故障时间+平均修复时间)    其比例 用于衡量可用性 性能 

            95%,  99%,  99.9%, 99.99%, 99.999% 

    高性能集群:High Performance    (又称HP 集群)

        www.top500.org 

负载均衡集群LB实现方式:

    软件:

        tcp:LVS (Linux Virtual Server), haproxy, nginx(能在用户空间模拟tcp进行调度)

        http: haproxy,nginx,Apache(proxy module, balancer module),ats(apache traffic server)--【Yahoo 贡献】,squid,varnish

        mysql: mysql-proxy [mysql 协议专用]

    硬件

        F5:Big-IP【性能最好,价位也贵】

        Citrix: NetScaler        思杰 (价位仅次于F5)

        A10:A10

        Array:

        RedWare:

LVS:Linux Virtual Server

    LVS工作在第四层:传输层

            layer4 router

            layer4 switch 

    原理:根据目标地址和端口作出转发与否的决策,根据调度方法作出转发至哪一个后端服务器的决策

    组成部分:

        ipvs (工作与内核空间) :工作在netfilter的 INPUT链

        ipvsadm (工作与用户空间):用于在ipvs上定义集群服务,同时也得定义此集群服务对应于有哪个后端主机可用

    lvs中的常用语约定

        Host:

            Director: 调度器 

            Real Server: RS,后端提供服务的主机

        IP:

            Client IP:CIP

            Director Virtual IP: VIP  【面向客户端提供服务的IP】

            Director IP: DIP    【面向后端提供服务的IP】

            Real IP: RIP    【后端提供服务的主机IP】    

    LVS的类型

        lvs-nat:

            masquerade: 基于地址伪装来实现

        lvs-dr:

            direct routing :直接路由

        lvs-tun:

            tunneling:基于IP隧道做转发

        lvs-fullnat:

            fullnat  : 入站或出站时即更改目标地址又更改源地址

    LVS类型详解:

        lvs-nat: 类似于DNAT,但支持多目标转发;

            它通过修改请求报文的目标地址为根据调度算法所跳出的某RS的RIP来进行转发;

         架构特性:

            (1)RS应该使用私有地址,即RIP应该为私有地址;各RS的网关必须指向DIP

            (2)请求和响应报文都经由Director转发,高负载场景中,Director易于成为系统瓶颈;

            (3)支持端口映射;

            (4)RS可以使用任意类型的OS;

            (5)RS的RIP必须与Director的DIP处于同一网络;

        lvs-dr: 直接路由

            Director在实现转发时不修改请求报文的IP首部,而是通过直接封装MAC首部完成转发;目标MAC是Director根据调度方法挑选出的某RS的MAC地址;拓扑结构有别于NAT类型;

            架构特性:    

                (1)保证前端路由器将目标地址为VIP的请求报文通过ARP的地址解析后送往Director

                    解决方案:

                        静态绑定:在前端路由直接将VIP对应的目标MAC静态配置为Director的MAC地址(不太现实 ,route 在运营商那里 一般我们没有权限,)

                        arptables:在各RS上,通过arptables规则拒绝其相应对VIP的ARP广播请求

                        内核参数:在RS上修改内核参数,并结合地址配置方式实现拒绝相应对VIP的ARP广播请求

                (2)RS的RIP可以使用私有地址;但也可以使用公网地址,此时可通过互联网上的主机直接对此RS发起管理操作;

                (3)请求报文必须经由Director调度,但相应报文必须不能经由Director;

                (4)各RIP必须与DIP在同一个物理网络中;

                (5)不支持端口映射

                (6)RS可是使用大多数的OS; (VIP 加进去)

                (7)RS的网关一定不能指向Director;

        lvs-tun:不修改请求报文的IP首部,而是通过IP隧道机制在原有的IP报文之外再封装IP首部,经由互联网把请求报文交给选定的RS;

                CIP;VIP  DIP;RIP

                tun    =&gt;  tunrel   隧道 

                IP隧道承载IP报文

                (1)RIP,DIP,VIP都是公网地址;

                (2)RS的网关不能,也不可能指向DIP;

                (3)请求报文由Director分发,但相应报文由RS响应给请求者Client

                (4)不支持端口映射

                (5)RS的OS必须得支持IP隧道;

           lvs-tun 这种模式不常用 

        lvs-fullnat:通过修改请求报文的源地址为DIP,目标地址为RIP来实现转发;对于响应报文而言,修改源地址为VIP,目标地址为CIP来实现转发;

                (1)RIP,DIP可以使用私有地址;

                (2)RIP和DIP可以不再同一个网络中,且RIP的网关未必需要指向DIP

                (3)支持端口映射;

                (4)RS的OS可以使用任意类型;

                (5)请求报文经由Director,响应报文经由Director

                【Linux 默认不支持lvs-fullnat 】

    LVS Scheduler:    LVS 的十种 调度方法

        静态方法:仅根据算法本身实现调度 (关注起点公平)

            RR:round-robin ,轮询;轮叫、论调、轮流

            WRR:weighted round-robin,加权轮询; (给每个RS一个权重)

                Overhead=conn/weight 

            SH:Source ip Hashing:源地址hash ,把来自于同一个地址的请求,统统定向至此前选定的RS; (session 绑定)  (将同一个client请求定向至同一个RS)

            DH:Destination Ip Hashing,目标地址哈希;把访问同一个目标地址的请求,统统定向至此前选定的RS(当公司出口有多个时才用的到)

        动态方法:根据算法及后端RS当前的负载状况实现调度 (关注结果公平)

            LC:least connection 最少链接

                Overhead=Active * 256 + Inactive   【Overhead值 = 活动链接 * 256 + 非活动链接】

            WLC:weighted least connection  【被当做LVS 默认调度,也是用的最多的调度算法】

                Overhead= (Active* 256 + Inactive)/weight 

            SED:Shorted Ecpection Delay  最短期望延迟

                Overhead=(Active +1 )*256 /weight 

            NQ: Never Queue 永不排队

            LBLC:local-Based Least Connection,动态方式的DH算法 【考虑RS状况进行调度】

            LBLCR: Replicated LBLC 

              【活动链接比较消耗资源】

    Session 保持  【session sharing ---session 共享 】

        Session Sticky 【简单粗暴、有效  、实现容易】

        Session Replication Cluster: Session 复制集群 【规模有限】

        Session Server 

ipvsadm 命令的用户;

            管理集群服务:创建、修改、删除、

            管理集群服务的RS:添加、修改、移除

            查看:

                统计数据

                速率

                -C  :清空规则

                -A:

                - Z:清空计数器

            管理集群服务: 

                创建或修改:

                     ipvsadm -A|E -t|u|f service-address [-s scheduler]

                        -A:添加

                        -E:修改 

                        -t:承载的应用层协议为基于TCP协议提供服务的协议;其service-address的格式为“VIP:PORT”;如“172.16.100.6:80"

                        -u:承载的应用层协议为基于TCP协议提供服务的协议;其service-address的格式为“VIP:PORT”;如“172.16.100.6:53";

                        -f:承载的应用层协议为基于TCP或UDP协议提供服务的协议;但此类报文会经由iptables/netfilter 打标记,即为防火墙标记;其service-address的格式为“FWM”;如“10"

                        -s scheduler: 指明调度方法,默认为WLC

                删除:

                     ipvsadm -D -t|u|f service-address

            管理集群服务上的RS:

                添加或修改:

                    ipvsadm -a|e -t|u|f service-address -r server-address [-g|i|m] [-w weight] [-x upper] [-y lower]

                        -r server-address: 指明RS,server-address格式一般为”IP[:PORT]";注意,只支持端口映射的lvs类型中才应该显式定义此处端口

                            例如: -r 192.168.10.7:80 

                        [-g|i|m] : 指明LVS类型

                            -g:gateway,意为dr类型;

                            -i:ipip,意为tun类型

                            -m: masquerade, 意为nat类型

                        [-w weight]:当前RS的权重:

                            注意:仅对于支持加权重调度的scheduler,权重才有意义;

                删除: 

                    ipvsadm -d -t|u|f service-address -r server-address

            清空所有集群服务的定义:

                ipvsadm -C 

            保存规则:

                ipvsadm -S &gt; /etc/sysconfig/ipvsadm 

                ipvsadm-save &gt; /etc/sysconfig/ipvsadm 

                service ipvsadm save 

                      /etc/sysconfig/ipvsadm

                ipvsadm -R &lt; /etc/sysconfig/ipvsadm 

                ipvsadm-restore &lt; /etc/sysconfig/ipvsadm 

                service ipvsadm restart 

            查看规则:

                ipvsadm -L | l [OPTIONS]

                    -c: 列出当前所有connection:

                    --stats:列出统计数据

                    --rate: 列出速率 

                    -n, --numeric: 数字格式显示IP及端口;

                    --exact:精确值;

            清空计数器 :

                ipvsadm -Z [-t|u|f service-address]                     

 ##############################################################

##############################################################                

前期准备:

RS1:

    1、安装httpd,启动服务

    2、设置主页面,为了区分调度效果,主页面内容设置为: This is RS1 Server

    3、设置IP: ifconfig eth1 192.168.100.11/24 up

    4、添加网关: # route add default gw 192.168.100.3

RS2:

    2、为WEB服务添加主页面,为了实验区分调度效果,主页面内容设置为: This is RS2 Server

    3、设置IP: ifconfig eth1 192.168.100.12/24 up

LVS Server :

    1、设置IP 

        # ifconfig eth0 172.16.66.10/16 up

        # ifconfig eth1 192.168.100.3/14 up

    2、安装ipvsadm   

        # yum -y install ipvsadm    

    3、开启forward 转发            

        # echo 1 &gt; /proc/sys/net/ipv4/ip_forward        

注: RS1、RS2与LVS Server的eth1 处于同一私有网段

实验一:

    配置lvs-nat类型 以轮调模式配置服务器集群

<code>    </code><code>[root@1inux ~]# ipvsadm -A -t 172.16.66.10:80 -s rr</code>

<code>[root@1inux ~]# ipvsadm -a -t 172.16.66.10:80 -r 192.168.100.11 -m</code>

<code>[root@1inux ~]# ipvsadm -a -t 172.16.66.10:80 -r 192.168.100.12 -m</code>

<code>[root@1inux ~]# ipvsadm -L -n</code>

<code>IP Virtual Server version 1.2.1 (size=4096)</code>

<code>Prot LocalAddress:Port Scheduler Flags</code>

<code>  </code><code>-&gt; RemoteAddress:Port           Forward Weight ActiveConn InActConn</code>

<code>TCP  172.16.66.10:80 rr</code>

<code>  </code><code>-&gt; 192.168.100.11:80            Masq    1      1          8         </code>

<code>  </code><code>-&gt; 192.168.100.12:80            Masq    1      0          1         </code>

<code>[root@1inux ~]#</code>

然后我们访问 http://172.16.66.10

我们可以看到首次访问的是 RS1  Server   

当我们使用F5 刷新出现了RS2 Server 页面 

<a href="http://s3.51cto.com/wyfs02/M00/6E/08/wKioL1VyUHvQZeAXAAD3wgInNYU539.jpg" target="_blank"></a>

可以看到RS1,RS2是以论调的方式依次出现的

使用ipvsadm命令查看LB Server 的数据 

查看 其统计数据 

[root@1inux ~]# ipvsadm -L -n --stats

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port               Conns   InPkts  OutPkts  InBytes OutBytes

  -&gt; RemoteAddress:Port

TCP  172.16.66.10:80                    16       89       82    10592     7300

  -&gt; 192.168.100.11:80                   8       47       41     5428     3646  

  -&gt; 192.168.100.12:80                   8       42       41     5164     3654

[root@1inux ~]# 

可以查看RS1、RS2其统计数据一致

保存ipvs配置规则

[root@1inux yum.repos.d]# service ipvsadm save    //其文件默认保存在/etc/sysconfig/ipvsadm 中

ipvsadm: Saving IPVS table to /etc/sysconfig/ipvsadm:      [  OK  ]

[root@1inux yum.repos.d]# 

删除配置规则:

[root@1inux yum.repos.d]# ipvsadm -D -t 172.16.66.10:80

[root@1inux yum.repos.d]# ipvsadm -L -n   //验证是否删除成功

Prot LocalAddress:Port Scheduler Flags

  -&gt; RemoteAddress:Port           Forward Weight ActiveConn InActConn

[root@1inux yum.repos.d]#     

恢复之前的保存配置规则 

<code>[root@1inux yum.repos.d]# ipvsadm -R &lt; /etc/sysconfig/ipvsadm</code>

<code>[root@1inux yum.repos.d]# ipvsadm -L -n</code>

<code>  </code><code>-&gt; 192.168.100.11:80            Masq    1      0          0         </code>

<code>  </code><code>-&gt; 192.168.100.12:80            Masq    1      0          0         </code>

<code>[root@1inux yum.repos.d]#</code>

实验二:

使用WLC调度方法,并添加权重 RS1 为1 , RS2 为2 

<code>[root@1inux ~]# ipvsadm -A -t 172.16.66.10:80 -s wlc</code>

<code>[root@1inux ~]# ipvsadm -a -t 172.16.66.10:80 -r 192.168.100.11 -m -w 1</code>

<code>[root@1inux ~]# ipvsadm -a -t 172.16.66.10:80 -r 192.168.100.12 -m -w 2</code>

验证配置情况

<code>TCP  172.16.66.10:80 wlc</code>

<code>  </code><code>-&gt; 192.168.100.12:80            Masq    2      0          0         </code>

然后客户端访问,同样多次刷新 ,发现每刷新三次会出现两次RS2 页面  一次RS1页面

查看当前链接统计

TCP  172.16.66.10:80                    21      105      105    13330     9625

  -&gt; 192.168.100.11:80                   7       35       35     4452     3549

  -&gt; 192.168.100.12:80                  14       70       70     8878     6076

由上面的可以看到  192.168.100.12 的conns数是 192.168.100.11 的两倍

本文转自 1inux 51CTO博客,原文链接:http://blog.51cto.com/1inux/1659048

继续阅读