LB简介
LB=Load Blancing,即负载均衡;
就是将负载(工作任务)进行平衡、分摊到多个操作单元上进行执行,例如Web服务器、FTP服务器、企业关键应用服务器等,从而共同完成工作任务的机制;
负载均衡设备不是基础网络设备,而是一种性能优化设备;
对于网络应用而言,并不是一开始就需要负载均衡,当网络应用的访问量不断增长,单个处理单元无法满足负载需求时,网络应用流量将要出现瓶颈时,负载均衡才会起到作用
LB分类
1
2
3
4
5
6
7
8
9
10
11
12
13
14
<code># 一般分类:</code>
<code>tcp层:LVS,Haproxy</code>
<code>应用层:Nginx,Haproxy,Ats</code>
<code>缓存:Varnish,Squid</code>
<code># 开源解决方案:</code>
<code>LVS:工作于tcp层,性能好,但控制力差</code>
<code>Haproxy:工作于tcp或http层</code>
<code>Nginx:较Haproxy性能欠佳,但缓存能力较好</code>
<code># 硬件解决方案:</code>
<code>BIG-IP(F5公司)</code>
<code>Netscaler(Citrix公司)</code>
<code>A10(A10公司)</code>
<code>Array</code>
<code>Redware</code>
LVS简介
LVS=Linux Virtual Server,意即Linux虚拟服务器,是一个虚拟的服务器集群系统;
本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一;
LVS组成
ipvs:框架,需要依赖于规则完成转发;工作于内核的INPUT链上;相当于iptables/netfilter中的netfilter
在INPUT链上强行将发送至本机的连接转发至POSTROUTING链;
与DNAT不同的是:在经过ipvs处理后,目标IP地址并不一定会修改;
ipvs提供集群服务(如172.16.100.7:80),定义一个或多个后端服务器RS
ipvsadm:用户空间的规则生成器
注:LVS工作于tcp/udp层,故又称为四层交换、四层路由
LVS基本结构图
<a href="http://s3.51cto.com/wyfs02/M01/24/99/wKiom1NUUN2Sj0KmAASTCcn-uiM346.jpg" target="_blank"></a>
LVS 4大模型
NAT:多目标的DNAT
特性:
RS应该使用私有地址;
RS的网关必须指向DIP;
RIP和DIP必须在同一网段内;
请求和响应的报文都得经过Director;(在高负载应用场景中,Director很可能成为系统性能瓶颈)
支持端口映射;
RS可以使用任意支持集群服务的OS(如Windows)
适用场景:
非高并发请求场景,10个RS以内;可隐藏内部的DIP和RIP地址;
结构图
<a href="http://s3.51cto.com/wyfs02/M00/24/98/wKioL1NUUR6xJPdIAAPI6-VYNAQ124.jpg" target="_blank"></a>
DR:Direct Routing
需解决的关键问题:
让前端路由将请求发往VIP时,只能是Director上的VIP进行响应;实现方式是修改RS上的Linux内核参数,将RS上的VIP配置为lo接口的别名,并限制Linux仅对对应接口的ARP请求做响应
RS可以使用私有地址,但也可以使用公网地址,此时可以直接通过互联网连入RS以实现配置,监控等;
RS的网关一定不能指向DIP;
RS和Director要在同一物理网络(即不能由路由器分隔)
请求报文经过Director,但响应报文一定不进过Director;
不支持端口映射;
RS可以使用大多数的操作系统
因为响应报文不经过Director,极大的减轻了Director的负载压力,故Director可以支持更大的并发访问,一般RS在100台以内;
结构图:
LVS-DR配置架构根据其VIP与RIP是否在同一个网段内又分为两种模型
<a href="http://s3.51cto.com/wyfs02/M02/24/99/wKiom1NUUYXgY-cuAAngzldUKCc340.jpg" target="_blank"></a>
TUN:IP隧道,即含有多个IP报头
RIP、DIP、VIP都得是公网地址;
RS的网关不会指向也不可能指向DIP;
请求报文经过Director,但响应报文一定不经过Director;
RS的操作系统必须得支持隧道功能,即部署ipip模块
跨互联网的请求转发
<a href="http://s3.51cto.com/wyfs02/M01/24/98/wKioL1NUUXyzlD3LAAWqhFn-JXs928.jpg" target="_blank"></a>
FULLNAT:NAT模型的改进版
实现RS间跨VLAN通信,是NAT模式的改进版;
默认内核不支持,需重新编译内核,才能使用;
内网服务器跨VLAN的负载分担
<a href="http://s3.51cto.com/wyfs02/M00/24/99/wKiom1NUUcPzKwifAAQPUKtOtLQ188.jpg" target="_blank"></a>
LVS调度算法
静态方法:仅根据算法本身进行调度
<code>rr:Round Robin </code><code># 即轮询</code>
<code>wrr:Weighted RR </code><code># 即加权轮询</code>
<code>sh:Source Hashing </code><code># 即来源IP地址hash</code>
<code>dh:Destination Hashing </code><code># 即目标地址hash(不常用,仅用于前端多防火墙的场景,保证防火墙的连接追踪功能有效)</code>
动态方法:根据算法及RS当前的负载情况
<code>lc:Least Connection</code>
<code># 评判标准:Overhead=Active*256+Inactive</code>
<code># Overhead最小者胜出</code>
<code>wlc:Weighted LC</code>
<code># 评判标准:Overhead=(Active*256+Inactive)/weight</code>
<code>sed</code><code>:Shortest Expect Delay</code>
<code># 评判标准:Overhead=(Active+1)*256/weight</code>
<code>nq:Never Queue </code><code># 集群开始时工作时,每台服务器都至少分配一个连接请求,然后再根据sed算法调度;</code>
<code>lblc:Locality-based Least Connection </code><code># 类似于dh+lc</code>
<code>lblcr:Relicated and Locality-based Least Connection </code><code># 主要用于后端服务器是缓存服务器时</code>
LVS持久连接
简介
无论LVS采用何种调度算法,都可以在一段时间内,将客户端的请求发往同一个后端RS;
类型
PCC=Persistent client connections:
将来自于同一客户端发往VIP的所有请求统统定向至同一RS;
PPC=Persistent port connections:
将来自于同一客户端发往某VIP的某端口的所有请求统统定向至同一个RS;针对特定服务特定端口转发的;
PFMC=Persistent Filewall Mark Connection
基于防火墙标记,将两个或以上的端口绑定为同一个服务
防火墙标记是0-99间的整数
实现:编写LVS规则时,加上-p选项即可
<code>PCC:ipvsadm -A -t 172.16.100.7:0 -s rr -p 120 </code><code># 端口为0表示全部端口</code>
<code>PPC:ipvsadm -A -t 172.16.100.7:80 -s rr -p 120</code>
<code>PFMC:</code><code># 首先需要利用iptables将相关的服务打上标签:</code>
<code>iptables -t mangle -A PREROUTING -d 172.16.100.8 -p tcp --dport 80 -j MARK --</code><code>set</code><code>-mark 10</code>
<code>iptables -t mangle -A PREROUTING -d 172.16.100.8 -p tcp --dport 443 -j MARK --</code><code>set</code><code>-mark 10</code>
<code>ipvsadm -A -f 10 -s rr -p 1200</code>
注:若LVS集群中存储的持久连接模板(即连接记录)倒计时归0了,则判断当前是否还有连接,若还有连接,则此模板就延时失效,每次延迟2min,直至连接断开
本文转自 xxrenzhe11 51CTO博客,原文链接:http://blog.51cto.com/xxrenzhe/1399229,如需转载请自行联系原作者