天天看點

Nginx 性能優化(突破十萬并發)

一般來說nginx配置檔案中對優化比較有作用的為以下幾項:

worker_processes 8;

nginx程序數,建議按照cpu數目來指定,一般為它的倍數。

worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000 10000000;

為每個程序配置設定cpu,上例中将8個程序配置設定到8個cpu,當然可以寫多個,或者将一個程序配置設定到多個cpu。

worker_rlimit_nofile 102400;

這個指令是指當一個nginx程序打開的最多檔案描述符數目,理論值應該是最多打開檔案數(ulimit -n)與nginx程序數相除,但是nginx配置設定請求并不是那麼均勻,是以最好與ulimit -n的值保持一緻。

use epoll;

使用epoll的I/O模型,這個不用說了吧。

worker_connections 102400;

每個程序允許的最多連接配接數,理論上每台nginx伺服器的最大連接配接數為worker_processes*worker_connections。

keepalive_timeout 60;

keepalive逾時時間。

client_header_buffer_size 4k;

用戶端請求頭部的緩沖區大小,這個可以根據你的系統分頁大小來設定,一般一個請求的頭部大小不會超過1k,不過由于一般系統分頁都要大于1k,是以這裡設定為分頁大小。分頁大小可以用指令getconf PAGESIZE取得。

open_file_cache max=102400 inactive=20s;

這個将為打開檔案指定緩存,預設是沒有啟用的,max指定緩存數量,建議和打開檔案數一緻,inactive是指經過多長時間檔案沒被請求後删除緩存。

open_file_cache_valid 30s;

這個是指多長時間檢查一次緩存的有效資訊。

open_file_cache_min_uses 1;

open_file_cache指令中的inactive參數時間内檔案的最少使用次數,如果超過這個數字,檔案描述符一直是在緩存中打開的,如上例,如果有一個檔案在inactive時間内一次沒被使用,它将被移除。

關于核心參數的優化:

http://yangrong.blog.51cto.com/6945369/1321594 

net.ipv4.tcp_max_tw_buckets = 6000

timewait的數量,預設是180000。(Deven:是以如果想把timewait降下了就要把tcp_max_tw_buckets值減小)

net.ipv4.ip_local_port_range = 1024     65000

# 預設值:32768   61000
# 作用:可用端口的範圍      

允許系統打開的端口範圍。

net.ipv4.tcp_tw_recycle = 1

也就是說,開啟了快速回收是TIME_WAIT的狀态持續700ms,而不是正常的2MSL(Linux是1分鐘,請參考:include/net/tcp.h 109行TCP_TIMEWAIT_LEN定義,by deven其實我們請求一個php檔案,然後檢視TIME_WAIT 多久消失就知道了)。

啟用timewait快速回收。

net.ipv4.tcp_tw_reuse = 1

開啟重用。允許将TIME-WAIT sockets重新用于新的TCP連接配接。

net.ipv4.tcp_syncookies = 1

開啟SYN Cookies,當出現SYN等待隊列溢出時,啟用cookies來處理。

net.core.somaxconn = 262144

# 預設值:128
# 作用:已經成功建立連接配接的套接字将要進入隊列的長度      

web應用中listen函數的backlog預設會給我們核心參數的net.core.somaxconn限制到128,而nginx定義的NGX_LISTEN_BACKLOG預設為511,是以有必要調整這個值。

net.core.netdev_max_backlog = 262144

# 預設值:1000
# 作用:網卡裝置将請求放入隊列的長度      

每個網絡接口接收資料包的速率比核心處理這些包的速率快時,允許送到隊列的資料包的最大數目。

net.ipv4.tcp_max_orphans = 262144

系統中最多有多少個TCP套接字不被關聯到任何一個使用者檔案句柄上。如果超過這個數字,孤兒連接配接将即刻被複位并列印出警告資訊。這個限制僅僅是為了防止簡單的DoS攻擊,不能過分依靠它或者人為地減小這個值,更應該增加這個值(如果增加了記憶體之後)。

net.ipv4.tcp_max_syn_backlog = 262144

記錄的那些尚未收到用戶端确認資訊的連接配接請求的最大值。對于有128M記憶體的系統而言,預設值是1024,小記憶體的系統則是128。

net.ipv4.tcp_timestamps = 0

時間戳可以避免序列号的卷繞。一個1Gbps的鍊路肯定會遇到以前用過的序列号。時間戳能夠讓核心接受這種“異常”的資料包。這裡需要将其關掉。

net.ipv4.tcp_synack_retries = 1

為了打開對端的連接配接,核心需要發送一個SYN并附帶一個回應前面一個SYN的ACK。也就是所謂三次握手中的第二次握手。這個設定決定了核心放棄連接配接之前發送SYN+ACK包的數量。

net.ipv4.tcp_syn_retries = 1

在核心放棄建立連接配接之前發送SYN包的數量。

net.ipv4.tcp_fin_timeout = 10

# 預設值:60
# 作用:TCP時間戳      

如果套接字由本端要求關閉,這個參數 決定了它保持在FIN-WAIT-2狀态的時間。對端可以出錯并永遠不關閉連接配接,甚至意外當機。預設值是60秒。2.2  核心的通常值是180秒,你可以按這個設定,但要記住的是,即使你的機器是一個輕載的WEB伺服器,也有因為大量的死套接字而記憶體溢出的風險,FIN-  WAIT-2的危險性比FIN-WAIT-1要小,因為它最多隻能吃掉1.5K記憶體,但是它們的生存期長些。

net.ipv4.tcp_keepalive_time = 30

當keepalive起用的時候,TCP發送keepalive消息的頻度。預設是2小時。

######################## cat /proc/sys/net/ipv4/tcp_keepalive_intvl 
# 預設值:75
# 作用:探測失敗後,間隔幾秒後重新探測
net.ipv4.tcp_keepalive_intvl = 30

######################## cat /proc/sys/net/ipv4/tcp_keepalive_probes 
# 預設值:9
# 作用:探測失敗後,最多嘗試探測幾次
net.ipv4.tcp_keepalive_probes = 3

######################## cat /proc/sys/net/ipv4/tcp_keepalive_time 
# 預設值:7200
# 作用:間隔多久發送1次keepalive探測包
net.ipv4.tcp_keepalive_time = 1200      

tcp_keepalive_time :INTEGER

預設值是7200(2小時)

當keepalive打開的情況下,TCP發送keepalive消息的頻率。(由于目前網絡攻擊等因素,造成了利用這個進行的攻擊很頻繁,曾經也有cu的朋友提到過,說如果2邊建立了連接配接,然後不發送任何資料或者rst/fin消息,那麼持續的時間是不是就是2小時,空連接配接攻擊? tcp_keepalive_time就是預防此情形的.我個人在做nat服務的時候的修改值為1800秒)

tcp_keepalive_probes:INTEGER

預設值是9

TCP發送keepalive探測以确定該連接配接已經斷開的次數。(注意:保持連接配接僅在SO_KEEPALIVE套接字選項被打開是才發送.次數預設不需要修改,當然根據情形也可以适當地縮短此值.設定為5比較合适)

tcp_keepalive_intvl:INTEGER

預設值為75

探測消息發送的頻率,乘以tcp_keepalive_probes就得到對于從開始探測以來沒有響應的連接配接殺除的時間。預設值為75秒,也就是沒有活動的連接配接将在大約11分鐘以後将被丢棄。(對于普通應用來說,這個值有一些偏大,可以根據需要改小.特别是web類伺服器需要改小該值,15是個比較合适的值)

下面貼一個完整的核心優化設定:

引用

net.ipv4.ip_forward = 0

net.ipv4.conf.default.rp_filter = 1

net.ipv4.conf.default.accept_source_route = 0

kernel.sysrq = 0

kernel.core_uses_pid = 1

kernel.msgmnb = 65536

kernel.msgmax = 65536

kernel.shmmax = 68719476736

kernel.shmall = 4294967296

net.ipv4.tcp_sack = 1

net.ipv4.tcp_window_scaling = 1

net.ipv4.tcp_rmem = 4096         87380   4194304

net.ipv4.tcp_wmem = 4096         16384   4194304

net.core.wmem_default = 8388608

net.core.rmem_default = 8388608

net.core.rmem_max = 16777216

net.core.wmem_max = 16777216

net.ipv4.tcp_max_orphans = 3276800

net.ipv4.tcp_mem = 94500000 915000000 927000000

net.ipv4.tcp_fin_timeout = 1

net.ipv4.ip_local_port_range = 1024     65000 

net.ipv4.ip_conntrack_max = 6553500

下面是一個簡單的nginx配置檔案:

user   www www;

worker_cpu_affinity 00000001 00000010 00000100 00001000 00010000 00100000 01000000;

error_log   /www/log/nginx_error.log   crit;

pid         /usr/local/nginx/nginx.pid;

worker_rlimit_nofile 204800;

events

{

   use epoll;

   worker_connections 204800;

}

http

   include       mime.types;

   default_type   application/octet-stream;

   charset   utf-8;

   server_names_hash_bucket_size 128;

   client_header_buffer_size 2k;

   large_client_header_buffers 4 4k;

   client_max_body_size 8m;

   sendfile on;

   tcp_nopush     on;

   keepalive_timeout 60;

   fastcgi_cache_path /usr/local/nginx/fastcgi_cache levels=1:2

                 keys_zone=TEST:10m

                 inactive=5m;

   fastcgi_connect_timeout 300;

   fastcgi_send_timeout 300;

   fastcgi_read_timeout 300;

   fastcgi_buffer_size 16k;

   fastcgi_buffers 16 16k;

   fastcgi_busy_buffers_size 16k;

   fastcgi_temp_file_write_size 16k;

   fastcgi_cache TEST;

   fastcgi_cache_valid 200 302 1h;

   fastcgi_cache_valid 301 1d;

   fastcgi_cache_valid any 1m;

   fastcgi_cache_min_uses 1;

   fastcgi_cache_use_stale error timeout invalid_header http_500;  

   open_file_cache max=204800 inactive=20s;

   open_file_cache_min_uses 1;

   open_file_cache_valid 30s;  

   tcp_nodelay on;

   gzip on;

   gzip_min_length   1k;

   gzip_buffers     4 16k;

   gzip_http_version 1.0;

   gzip_comp_level 2;

   gzip_types       text/plain application/x-javascript text/css application/xml;

   gzip_vary on;

   server

   {

     listen       8080;

     server_name   backup.aiju.com;

     index index.php index.htm;

     root   /www/html/;

     location /status

     {

         stub_status on;

     }

     location ~ .*\.(php|php5)?$

         fastcgi_pass 127.0.0.1:9000;

         fastcgi_index index.php;

         include fcgi.conf;

     location ~ .*\.(gif|jpg|jpeg|png|bmp|swf|js|css)$

       expires       30d;

     log_format   access   '$remote_addr - $remote_user [$time_local] "$request" '

               '$status $body_bytes_sent "$http_referer" '

               '"$http_user_agent" $http_x_forwarded_for';

     access_log   /www/log/access.log   access;

       }

關于FastCGI的幾個指令:

fastcgi_cache_path /usr/local/nginx/fastcgi_cache levels=1:2 keys_zone=TEST:10m inactive=5m;

這個指令為FastCGI緩存指定一個路徑,目錄結構等級,關鍵字區域存儲時間和非活動删除時間。

fastcgi_connect_timeout 300;

指定連接配接到後端FastCGI的逾時時間。

fastcgi_send_timeout 300;

向FastCGI傳送請求的逾時時間,這個值是指已經完成兩次握手後向FastCGI傳送請求的逾時時間。

fastcgi_read_timeout 300;

接收FastCGI應答的逾時時間,這個值是指已經完成兩次握手後接收FastCGI應答的逾時時間。

fastcgi_buffer_size 16k;

指定讀取FastCGI應答第一部分 需要用多大的緩沖區,這裡可以設定為fastcgi_buffers指令指定的緩沖區大小,上面的指令指定它将使用1個  16k的緩沖區去讀取應答的第一部分,即應答頭,其實這個應答頭一般情況下都很小(不會超過1k),但是你如果在fastcgi_buffers指令中指 定了緩沖區的大小,那麼它也會配置設定一個fastcgi_buffers指定的緩沖區大小去緩存。

fastcgi_buffers 16 16k;

指定本地需要用多少和多大的緩沖區來 緩沖FastCGI的應答,如上所示,如果一個php腳本所産生的頁面大小為256k,則會為其配置設定16個16k的緩沖區來緩存,如果大于256k,增大 于256k的部分會緩存到fastcgi_temp指定的路徑中,當然這對伺服器負載來說是不明智的方案,因為記憶體中處理資料速度要快于硬碟,通常這個值 的設定應該選擇一個你的站點中的php腳本所産生的頁面大小的中間值,比如你的站點大部分腳本所産生的頁面大小為 256k就可以把這個值設定為16  16k,或者4 64k 或者64 4k,但很顯然,後兩種并不是好的設定方法,因為如果産生的頁面隻有32k,如果用4  64k它會配置設定1個64k的緩沖區去緩存,而如果使用64 4k它會配置設定8個4k的緩沖區去緩存,而如果使用16  16k則它會配置設定2個16k去緩存頁面,這樣看起來似乎更加合理。

fastcgi_busy_buffers_size 32k;

這個指令我也不知道是做什麼用,隻知道預設值是fastcgi_buffers的兩倍。

fastcgi_temp_file_write_size 32k;

在寫入fastcgi_temp_path時将用多大的資料塊,預設值是fastcgi_buffers的兩倍。

fastcgi_cache TEST

開啟FastCGI緩存并且為其制定一個名稱。個人感覺開啟緩存非常有用,可以有效降低CPU負載,并且防止502錯誤。但是這個緩存會引起很多問題,因為它緩存的是動态頁面。具體使用還需根據自己的需求。

fastcgi_cache_valid 200 302 1h;

fastcgi_cache_valid 301 1d;

fastcgi_cache_valid any 1m;

為指定的應答代碼指定緩存時間,如上例中将200,302應答緩存一小時,301應答緩存1天,其他為1分鐘。

fastcgi_cache_min_uses 1;

緩存在fastcgi_cache_path指令inactive參數值時間内的最少使用次數,如上例,如果在5分鐘内某檔案1次也沒有被使用,那麼這個檔案将被移除。

fastcgi_cache_use_stale error timeout invalid_header http_500;

不知道這個參數的作用,猜想應該是讓nginx知道哪些類型的緩存是沒用的。

以上為nginx中FastCGI相關參數,另外,FastCGI自身也有一些配置需要進行優化,如果你使用php-fpm來管理FastCGI,可以修改配置檔案中的以下值:

<value name="max_children">60</value>

同時處理的并發請求數,即它将開啟最多60個子線程來處理并發連接配接。

<value name="rlimit_files">102400</value>

最多打開檔案數。

<value name="max_requests">204800</value>

每個程序在重置之前能夠執行的最多請求數。

轉自:http://hi.baidu.com/jaywang141/blog/item/a85328dfc869faf376c63899.html

Deven:Nginx優化記住幾點差不多了

worker_processes、worker_connections 、worker_rlimit_nofile、keepalive_timeout 60、#開啟壓縮gzip on、設定圖檔樣式JS等靜态檔案過期時間、關閉nginx分php檔案通路日志以便節省IO

因為TCP連接配接是雙向的,是以在關閉連接配接的時候,兩個方向各自都需要關閉。先發FIN包的一方執行的是主動關閉;後發FIN包的一方執行的是被動關閉。主動關閉的一方會進入TIME_WAIT狀态,并且在此狀态停留兩倍的MSL時長

.穿插一點MSL的知識:MSL指的是封包段的最大生存時間,如果封包段在網絡活動了MSL時間,還沒有被接收,那麼會被丢棄。關于MSL的大小,協定中給出的建議是兩分鐘,不過實際上不同的作業系統可能有不同的設定,以Linux為例,通常是半分鐘,兩倍的MSL就是一分鐘,也就是60秒,并且這個數值是寫死在核心中的,也就是說除非你重新編譯核心,否則沒法修改它.如果每秒的連接配接數是一千的話,那麼一分鐘就可能會産生六萬個TIME_WAIT。為什麼主動關閉的一方不直接進入CLOSED狀态,而是進入TIME_WAIT狀态,并且停留兩倍的MSL時長呢?這是因為TCP是一個建立在不可靠網絡上的可靠的協定,主動關閉的一方收到被動關閉的一方發出的FIN包後,回應ACK包,同時進入TIME_WAIT狀态,但是因為網絡原因,主動關閉的一方發送的這個ACK包很可能延遲,進而觸發被動連接配接一方重傳FIN包。極端情況下,這一去一回,就是兩倍的MSL時長。如果主動關閉的一方跳過TIME_WAIT直接進入CLOSED,或者在TIME_WAIT停留的時長不足兩倍的MSL,那麼當被動關閉的一方早先發出的延遲包到達後,就可能出現類似下面的問題:

1.舊的TCP連接配接已經不存在了,系統此時隻能傳回RST包

2.新的TCP連接配接被建立起來了,延遲包可能幹擾新的連接配接

不管是哪種情況都會讓TCP不在可靠,是以TIME_WAIT狀态有存在的必要性

如何控制TIME_WAIT的數量?

從前面的描述我們可以得出這樣的結論:TIME_WAIT這東西沒有的話不行,有的話太多也是個麻煩事。下面讓我們看看有哪些方法可以控制TIME_WAIT數量,這裡隻說一些正常方法,另外一些諸如SO_LINGER之類的方法太過偏門,略過不談。

(1)ip_conntrack顧名思義就是跟蹤連接配接。一旦激活了此子產品,就能在系統參數裡發現很多用來控制網絡連接配接狀态逾時的設定,其中自然也包括TIME_WAIT:

 modprobe ip_conntrack

 sysctl net.ipv4.netfilter.ip_conntrack_tcp_timeout_time_wait

我們可以嘗試縮小它的設定,比如十秒,甚至一秒,具體設定成多少合适取決于網絡情況而定,當然也可以參考相關的案例。不過就我的個人意見來說,ip_conntrack引入的問題比解決的還多,比如性能會大幅下降,是以不建議使用。

(2)tcp_tw_recycle

顧名思義就是回收TIME_WAIT連接配接。可以說這個核心參數已經變成了大衆處理TIME_WAIT的萬金油,如果你在網絡上搜尋TIME_WAIT的解決方案,十有八九會推薦設定它,不過這裡隐藏着一個不易察覺的陷阱當多個用戶端通過NAT方式聯網并與服務端互動時,服務端看到的是同一個IP,也就是說對服務端而言這些用戶端實際上等同于一個,可惜由于這些用戶端的時間戳可能存在差異,于是乎從服務端的視角看,便可能出現時間戳錯亂的現象,進而直接導緻時間戳小的資料包被丢棄。

(3)tcp_tw_reuse

顧名思義就是複用TIME_WAIT連接配接。當建立新連接配接的時候,如果可能的話會考慮複用相應的TIME_WAIT連接配接。通常認為「tcp_tw_reuse」比「tcp_tw_recycle」安全一些,官方文檔裡是這樣說的:如果從協定視角看它是安全的,那麼就可以使用。這簡直就是外交辭令啊!按我的看法,如果網絡比較穩定,比如都是内網連接配接,那麼就可以嘗試使用,畢竟此時出現前面提的延遲包的可能性微乎其微。不過需要注意的是在哪裡使用,既然我們要複用連接配接,那麼當然應該在連接配接的發起方使用,而不能在被連接配接方使用。舉例來說:用戶端向服務端發起HTTP請求,服務端響應後主動關閉連接配接,于是TIME_WAIT便留在了服務端,此類情況使用「tcp_tw_reuse」是無效的,因為服務端是被連接配接方,是以不存在複用連接配接一說。讓我們延伸一點來看,比如說服務端是PHP,它查詢另一個MySQL服務端,然後主動斷開連接配接,于是TIME_WAIT就落在了PHP一側,此類情況下使用「tcp_tw_reuse」是有效的,因為此時PHP相對于MySQL而言是用戶端,它是連接配接的發起方,是以可以複用連接配接。