天天看點

為什麼Nginx的性能要比Apache高很多?

為什麼Nginx的性能要比Apache高很多? 這得益于Nginx使用了最新的epoll(Linux 2.6核心)和kqueue(freebsd)網絡I/O模型,而Apache則使用的是傳統的select模型。

目前Linux下能夠承受高并發通路的Squid、Memcached都采用的是epoll網絡I/O模型。

處理大量的連接配接的讀寫,Apache所采用的select網絡I/O模型非常低效。

下面用一個比喻來解析Apache采用的select模型和Nginx采用的epoll模型進行之間的差別:

假設你在大學讀書,住的宿舍樓有很多間房間,你的朋友要來找你。

select版宿管大媽就會帶着你的朋友挨個房間去找,直到找到你為止。

而epoll版宿管大媽會先記下每位同學的房間号,

你的朋友來時,隻需告訴你的朋友你住在哪個房間即可,不用親自帶着你的朋友滿大樓找人。

如果來了10000個人,都要找自己住這棟樓的同學時,select版和epoll版宿管大媽,誰的效率更高,不言自明。

同理,在高并發伺服器中,輪詢I/O是最耗時間的操作之一,select和epoll的性能誰的性能更高,同樣十分明了。

epoll - I/O event notification facility
      

在linux的網絡程式設計中,很長的時間都在使用select來做事件觸發。

在linux新的核心中,有了一種替換它的機制,就是epoll。

相比于select,epoll最大的好處在于它不會随着監聽fd數目的增長而降低效率。

因為在核心中的select實作中,它是采用輪詢來處理的,輪詢的fd數目越多,自然耗時越多。

并且,在linux/posix_types.h頭檔案有這樣的聲明:

#define __FD_SETSIZE    1024
      

表示select最多同時監聽1024個fd,當然,可以通過修改頭檔案再重編譯核心來擴大這個數目,但這似乎并不治本。

epoll的接口非常簡單,一共就三個函數:

1. int epoll_create(int size);

建立一個epoll的句柄,size用來告訴核心這個監聽的數目一共有多大。

這個參數不同于select()中的第一個參數,給出最大監聽的fd+1的值。

需要注意的是,當建立好epoll句柄後,它就是會占用一個fd值,在linux下如果檢視/proc/程序id/fd/,

是能夠看到這個fd的,是以在使用完epoll後,必須調用close()關閉,否則可能導緻fd被耗盡。

2. int epoll_ctl(int epfd, int op, int fd, struct epoll_event *event);

epoll的事件注冊函數,它不同與select()是在監聽事件時告訴核心要監聽什麼類型的事件,

而是在這裡先注冊要監聽的事件類型。第一個參數是epoll_create()的傳回值,

第二個參數表示動作,用三個宏來表示:

EPOLL_CTL_ADD:注冊新的fd到epfd中;

EPOLL_CTL_MOD:修改已經注冊的fd的監聽事件;

EPOLL_CTL_DEL:從epfd中删除一個fd;

第三個參數是需要監聽的fd,第四個參數是告訴核心需要監聽什麼事,struct epoll_event結構如下:

typedef union epoll_data {
void *ptr;
int fd;
__uint32_t u32;
__uint64_t u64;
} epoll_data_t;
struct epoll_event {
__uint32_t events; /* Epoll events */
epoll_data_t data; /* User data variable */
};
      

events可以是以下幾個宏的集合:

EPOLLIN :表示對應的檔案描述符可以讀(包括對端SOCKET正常關閉);

EPOLLOUT:表示對應的檔案描述符可以寫;

EPOLLPRI:表示對應的檔案描述符有緊急的資料可讀(這裡應該表示有帶外資料到來);

EPOLLERR:表示對應的檔案描述符發生錯誤;

EPOLLHUP:表示對應的檔案描述符被挂斷;

EPOLLET: 将EPOLL設為邊緣觸發(Edge Triggered)模式,這是相對于水準觸發(Level Triggered)來說的。

EPOLLONESHOT:隻監聽一次事件,當監聽完這次事件之後,

如果還需要繼續監聽這個socket的話,需要再次把這個socket加入到EPOLL隊列裡

3. int epoll_wait(int epfd, struct epoll_event * events, int maxevents, int timeout);

等待事件的産生,類似于select()調用。

參數events用來從核心得到事件的集合,maxevents告之核心這個events有多大,這個 maxevents的值不能大于建立epoll_create()時的size,參數timeout是逾時時間(毫秒,0會立即傳回,-1将不确定,也有說法說是永久阻塞)。

該函數傳回需要處理的事件數目,如傳回0表示已逾時。

4、關于ET、LT兩種工作模式:

可以得出這樣的結論:

ET模式僅當狀态發生變化的時候才獲得通知,這裡所謂的狀态的變化并不包括緩沖區中還有未處理的資料,也就是說,如果要采用ET模式,需要一直read/write直到出錯為止,很多人反映為什麼采用ET模式隻接收了一部分資料就再也得不到通知了,大多因為這樣;而LT模式是隻要有資料沒有處理就會一直通知下去的。

那麼究竟如何來使用epoll呢?其實非常簡單。

通過在包含一個頭檔案#include <sys/epoll.h> 以及幾個簡單的API将可以大大的提高你的網絡伺服器的支援人數。

首先通過create_epoll(int maxfds)來建立一個epoll的句柄,其中maxfds為你epoll所支援的最大句柄數。

這個函數會傳回一個新的epoll句柄,之後的所有操作将通過這個句柄來進行操作。

在用完之後,記得用close()來關閉這個建立出來的epoll句柄。

之後在你的網絡主循環裡面,每一幀的調用epoll_wait(int epfd, epoll_event events, int max events, int timeout)來查詢所有的網絡接口,看哪一個可以讀,哪一個可以寫了。基本的文法為:

nfds = epoll_wait(kdpfd, events, maxevents, -1);

其中kdpfd為用epoll_create建立之後的句柄,events是一個epoll_event*的指針,當epoll_wait這個函數操作成功之後,epoll_events裡面将儲存所有的讀寫事件。

max_events是目前需要監聽的所有socket句柄數。最後一個timeout是 epoll_wait的逾時,為0的時候表示馬上傳回,為-1的時候表示一直等下去,直到有事件範圍,為任意正整數的時候表示等這麼長的時間,如果一直沒有事件,則範圍。一般如果網絡主循環是單獨的線程的話,可以用-1來等,這樣可以保證一些效率,如果是和主邏輯在同一個線程的話,則可以用0來保證主循環的效率。

epoll_wait範圍之後應該是一個循環,遍利所有的事件。

幾乎所有的epoll程式都使用下面的架構:

for( ; ; )
    {
        nfds = epoll_wait(epfd,events,20,500);
        for(i=0;i<nfds;++i)
        {
            if(events[i].data.fd==listenfd) //有新的連接配接
            {
                connfd = accept(listenfd,(sockaddr *)&clientaddr, &clilen); //accept這個連接配接
                ev.data.fd=connfd;
                ev.events=EPOLLIN|EPOLLET;
                epoll_ctl(epfd,EPOLL_CTL_ADD,connfd,&ev); //将新的fd添加到epoll的監聽隊列中
            }
            else if( events[i].events&EPOLLIN ) //接收到資料,讀socket
            {
                n = read(sockfd, line, MAXLINE)) < 0    //讀
                ev.data.ptr = md;     //md為自定義類型,添加資料
                ev.events=EPOLLOUT|EPOLLET;
                epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev);//修改辨別符,等待下一個循環時發送資料,異步處理的精髓
            }
            else if(events[i].events&EPOLLOUT) //有資料待發送,寫socket
            {
                struct myepoll_data* md = (myepoll_data*)events[i].data.ptr;    //取資料
                sockfd = md->fd;
                send( sockfd, md->ptr, strlen((char*)md->ptr), 0 );        //發送資料
                ev.data.fd=sockfd;
                ev.events=EPOLLIN|EPOLLET;
                epoll_ctl(epfd,EPOLL_CTL_MOD,sockfd,&ev); //修改辨別符,等待下一個循環時接收資料
            }
            else
            {
                //其他的處理
            }
        }
    }
      

繼續閱讀