nginx ("engine x") 是一个高性能的http和 反向代理 服务器,也是一个 imap/pop3/smtp 服务器。 nginx 是由 igor sysoev 为俄罗斯访问量第二的 rambler.ru 站点开发的,第一个公开版本0.1.0发布于2004年10月4日。其将源代码以类bsd许可证的形式发布,因它的稳定性、丰富的功能集、示例配置文件和低系统资源的消耗而闻名。2011年6月1日,nginx 1.0.4发布。
nginx是一款轻量级的web 服务器/反向代理服务器及电子邮件(imap/pop3)代理服务器,并在一个bsd-like 协议下发行。由俄罗斯的程序设计师igor sysoev所开发,供俄国大型的入口网站及搜索引擎rambler(俄文:Рамблер)使用。其特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好,中国大陆使用nginx网站用户有:淘宝、百度、新浪、网易、腾讯等。
1、http服务器。nginx是一个http服务可以独立提供http服务。可以做网页静态服务器。
2、虚拟主机。可以实现在一台服务器虚拟出多个网站,例如个人网站使用的虚拟机。
3、反向代理,负载均衡。当网站的访问量达到一定程度后,单台服务器不能满足用户的请求时,需要用多台服务器集群可以使用nginx做反向代理。并且堕胎服务器可以平均分担负载,不会应为某台服务器负载高宕机而某台服务器闲置的情况。
nginx七层load balance结构图:
高并发连接: 官方称单节点支持5万并发连接数,实际生产环境能够承受2-3万并发。
内存消耗少: 在3万并发连接下,开启10个nginx进程仅消耗150m内存 (15m*10=150m)
配置简单
成本低廉: 开源免费
支持rewrite重写规则: 能够根据域名、url的不同,将http请求分发到后端不同的应用服务器节点上
内置健康检查功能: 如果后端的某台应用节点挂了,请求不会再转发给这个节点,不影响线上功能
节省带宽: 支持gzip压缩
反向代理: 支持分布式部署环境,消除单点故障,支持7 * 24小时不停机发布
阻塞(blocking)
非阻塞(nonblocking )
同步(synchronous )
阻塞i/o(blocking i/o)i/o多路复用
非阻塞i/o(nonblocking i/o)信号驱动
异步(asynchronous )
异步i/o
i/o涉及的对象:
应用程序进程(简称进程)
操作系统内核(简称内核)
i/o经历的过程(以读操作为例):
等待数据准备(简称准备过程)
将数据从内核拷贝到进程(简称拷贝过程)
阻塞:进程在准备过程中阻塞地等待
非阻塞:进程在准备过程中不会阻塞
同步:进程在拷贝过程中需要阻塞等待
异步:进程在拷贝过程中不需要阻塞等待
最常见也是默认情况下我们会使用的,进程发起read操作后,进程阻塞等待数据准备就绪,进程阻塞等待内核将数据拷贝到进程中。
所谓的select、epoll,又叫事件驱动i/o。在java中叫nio,进程发起一个或多个socket的read请求后:用select/epoll方法阻塞等待数据就绪,一旦有至少一个就绪,进程阻塞等待内核拷贝数据到进程中。处理单个连接并不比阻塞i/o快。好处在于可以提高并发性,一个线程可同时处理多个连接。
进程发起read操作后
进程无需阻塞等待数据准备就绪,若未就绪立即返回err
进程过一段时间后再次发起read操作,询问是否准备就绪
若已经准备就绪,则进程阻塞等待内核将数据拷贝到进程中
进程发起read操作时,注册信号handler
进程无需阻塞等待数据准备就绪
数据就绪后内核通过信号通知进程,并调用进程注册的信号handler
进程阻塞等待数据拷贝
进程发起read操作,将socket和接收数据的buffer传递给内核后:
无需阻塞等待数据准备就绪
数据就绪后也无需阻塞等待内核拷贝数据
内核拷贝数据完成后发送信号通知进程数据已经可用
nginx使用epoll(linux2.6内核)和kqueue(freebsd)网络模型,而apache使用传统的select模型
epoll 与 select都是 i/o 多路复用
epoll是当前在linux下开发大规模并发网络程序的热门选择。
select模型的缺点
最大并发数限制,因为一个进程所打开的fd(文件描述符)是有限制的,由fd_setsize设置,默认值是1024/2048,因此select模型的最大并发数就被相应限制了。自己改改这个fd_setsize?想法虽好,可是先看看下面吧…
效率问题,select每次调用都会线性扫描全部的fd集合,这样效率就会呈现线性下降,把fd_setsize改大的后果就是,大家都慢慢来,什么?都超时了。
内核/用户空间 内存拷贝问题,如何让内核把fd消息通知给用户空间呢?在这个问题上select采取了内存拷贝方法。
注:从上面看,select和epoll都需要在返回后,通过遍历文件描述符来获取就绪的socket。事实上,同时连接的大量客户端在同一时刻只有很少处于就绪状态,因此随着监视的文件数量增长,其效率也会呈现线性下降。
epoll 模型的优点:
相对于select和poll来说,epoll更加灵活,没有描述符限制(它所支持的fd上限是最大可以打开文件的数目,这个数字一般远大于2048,举个例子,在1gb内存的机器上大约是10万左右,具体数目可以cat/proc/sys/fs/file-max察看)。epoll使用一个文件描述符管理多个描述符,将用户关系的文件描述符的事件存放到内核的一个事件表中,这样在用户空间和内核空间的copy只需一次。
io的效率不会随着监视fd的数量的增长而下降。epoll不同于select和poll轮询的方式,而是通过每个fd定义的回调函数来实现的。只有就绪的fd才会执行回调函数。
内存拷贝,epoll在这点上使用了“共享内存”,这个内存拷贝也省略了。
注:epoll不仅会告诉应用程序有i/o事件到来,还会告诉应用程序相关的信息,根据这些信息应用程序就能直接定位到事件,而不必遍历整个fd集合