天天看點

Linux伺服器性能評估與優化

 Linux伺服器性能評估與優化

2013-08-09 16:28:13

一、影響Linux伺服器性能的因素

1. 作業系統級

      CPU

      記憶體

      磁盤I/O帶寬

      網絡I/O帶寬

2.        程式應用級

二、系統性能評估标準

Linux伺服器性能評估與優化

其中:

      %user:表示CPU處在使用者模式下的時間百分比。

      %sys:表示CPU處在系統模式下的時間百分比。

      %iowait:表示CPU等待輸入輸出完成時間的百分比。

      swap in:即si,表示虛拟記憶體的頁導入,即從SWAP DISK交換到RAM

      swap out:即so,表示虛拟記憶體的頁導出,即從RAM交換到SWAP DISK。

三、系統性能分析工具

1.常用系統指令

Vmstat、sar、iostat、netstat、free、ps、top等

2.常用組合方式

          用vmstat、sar、iostat檢測是否是CPU瓶頸

          用free、vmstat檢測是否是記憶體瓶頸

          用iostat檢測是否是磁盤I/O瓶頸

          用netstat檢測是否是網絡帶寬瓶頸

四、Linux性能評估與優化

1. 系統整體性能評估(uptime指令)

[root@web1 ~]# uptime

16:38:00 up 118 days,  3:01,  5 users,  load average: 1.22, 1.02, 0.91

這裡需要注意的是:load average這個輸出值,這三個值的大小一般不能大于系統CPU的個數,例如,本輸出中系統有8個CPU,如果load average的三個值長期大于8時,說明CPU很繁忙,負載很高,可能會影響系統性能,但是偶爾大于8時,倒不用擔心,一般不會影響系統性能。相反,如果load average的輸出值小于CPU的個數,則表示CPU還有空閑的時間片,比如本例中的輸出,CPU是非常空閑的。

2. CPU性能評估

(1)利用vmstat指令監控系統CPU

  該指令可以顯示關于系統各種資源之間相關性能的簡要資訊,這裡我們主要用它來看CPU一個負載情況。

  下面是vmstat指令在某個系統的輸出結果:

[root@node1 ~]# vmstat 2 3

procs -----------memory----------  ---swap--  -----io---- --system--  -----cpu------

r  b   swpd   free      buff  cache   si   so    bi    bo       in     cs     us sy  id   wa st

0  0    0    162240   8304  67032   0    0    13    21   1007   23     0  1   98   0   0

0  0    0    162240   8304  67032   0    0     1     0     1010   20     0  1   100 0   0

0  0    0    162240   8304  67032   0    0     1     1     1009   18     0  1    99  0   0

l        Procs

    r清單示運作和等待cpu時間片的程序數,這個值如果長期大于系統CPU的個數,說明CPU不足,需要增加CPU。

    b清單示在等待資源的程序數,比如正在等待I/O、或者記憶體交換等。

l        Cpu

   us列顯示了使用者程序消耗的CPU 時間百分比。us的值比較高時,說明使用者程序消耗的cpu時間多,但是如果長期大于50%,就需要考慮優化程式或算法。

    sy列顯示了核心程序消耗的CPU時間百分比。Sy的值較高時,說明核心消耗的CPU資源很多。

   根據經驗,us+sy的參考值為80%,如果us+sy大于 80%說明可能存在CPU資源不足。

(2)利用sar指令監控系統CPU

sar功能很強大,可以對系統的每個方面進行單獨的統計,但是使用sar指令會增加系統開銷,不過這些開銷是可以評估的,對系統的統計結果不會有很大影響。

下面是sar指令對某個系統的CPU統計輸出:

[root@webserver ~]# sar -u 3 5

Linux 2.6.9-42.ELsmp (webserver)        11/28/2008      _i686_  (8 CPU)

11:41:24 AM     CPU     %user     %nice   %system   %iowait    %steal     %idle

11:41:27 AM     all      0.88      0.00      0.29      0.00      0.00     98.83

11:41:30 AM     all      0.13      0.00      0.17      0.21      0.00     99.50

11:41:33 AM     all      0.04      0.00      0.04      0.00      0.00     99.92

11:41:36 AM     all      90.08     0.00      0.13      0.16      0.00     9.63

11:41:39 AM     all      0.38      0.00      0.17      0.04      0.00     99.41

Average:        all      0.34      0.00      0.16      0.05      0.00     99.45

對上面每項的輸出解釋如下:

l        %user列顯示了使用者程序消耗的CPU 時間百分比。

l        %nice列顯示了運作正常程序所消耗的CPU 時間百分比。

l        %system列顯示了系統程序消耗的CPU時間百分比。

l        %iowait列顯示了IO等待所占用的CPU時間百分比

l        %steal列顯示了在記憶體相對緊張的環境下pagein強制對不同的頁面進行的steal操作 。

l        %idle列顯示了CPU處在空閑狀态的時間百分比。

問題

1.你是否遇到過系統CPU整體使用率不高,而應用緩慢的現象?

      在一個多CPU的系統中,如果程式使用了單線程,會出現這麼一個現象,CPU的整體使用率不高,但是系統應用卻響應緩慢,這可能是由于程式使用單線程的原因,單線程隻使用一個CPU,導緻這個CPU占用率為100%,無法處理其它請求,而其它的CPU卻閑置,這就導緻了整體CPU使用率不高,而應用緩慢現象的發生。

3. 記憶體性能評估

(1)利用free指令監控記憶體

free是監控linux記憶體使用狀況最常用的指令,看下面的一個輸出:

[root@webserver ~]# free  -m

               total         used       free     shared    buffers     cached

Mem:       8111       7185        926          0        243           6299

-/+ buffers/cache:     643       7468

Swap:       8189          0         8189

    一般有這樣一個經驗公式:應用程式可用記憶體/系統實體記憶體>70%時,表示系統記憶體資源非常充足,不影響系統性能,應用程式可用記憶體/系統實體記憶體<20%時,表示系統記憶體資源緊缺,需要增加系統記憶體,20%<應用程式可用記憶體/系統實體記憶體<70%時,表示系統記憶體資源基本能滿足應用需求,暫時不影響系統性能。

3.記憶體性能評估

(2)利用vmstat指令監控記憶體

r  b   swpd   free      buff  cache   si   so    bi    bo       in     cs     us sy  id  wa st

0  0    0    162240   8304  67032   0    0    13    21   1007   23     0  1  98   0  0

0  0    0    162240   8304  67032   0    0     1     0     1010   20     0  1  100 0  0

0  0    0    162240   8304  67032   0    0     1     1     1009   18     0  1  99   0  0

l        memory

        swpd清單示切換到記憶體交換區的記憶體數量(以k為機關)。如果swpd的值不為0,或者比較大,隻要si、so的值長期為0,這種情況下一般不用擔心,不會影響系統性能。

        free清單示目前空閑的實體記憶體數量(以k為機關)

        buff清單示buffers cache的記憶體數量,一般對塊裝置的讀寫才需要緩沖。

        cache清單示page cached的記憶體數量,一般作為檔案系統cached,頻繁通路的檔案都會被cached,如果cache值較大,說明cached的檔案數較多,如果此時IO中bi比較小,說明檔案系統效率比較好。

l        swap

si清單示由磁盤調入記憶體,也就是記憶體進入記憶體交換區的數量。

so清單示由記憶體調入磁盤,也就是記憶體交換區進入記憶體的數量。

一般情況下,si、so的值都為0,如果si、so的值長期不為0,則表示系統記憶體不足。需要增加系統記憶體。

4.磁盤I/O性能評估  

(1)磁盤存儲基礎

l             熟悉RAID存儲方式,可以根據應用的不同,選擇不同的RAID方式。

l             盡可能用記憶體的讀寫代替直接磁盤I/O,使頻繁通路的檔案或資料放入記憶體中進行操作處理,因為記憶體讀寫操作比直接磁盤讀寫的效率要高千倍。

l             将經常進行讀寫的檔案與長期不變的檔案獨立出來,分别放置到不同的磁盤裝置上。

l              對于寫操作頻繁的資料,可以考慮使用裸裝置代替檔案系統。

      使用裸裝置的優點有:

ü           資料可以直接讀寫,不需要經過作業系統級的緩存,節省了記憶體資源,避免了記憶體資源争用。

ü           避免了檔案系統級的維護開銷,比如檔案系統需要維護超級塊、I-node等。

ü           避免了作業系統的cache預讀功能,減少了I/O請求。

      使用裸裝置的缺點是:

ü            資料管理、空間管理不靈活,需要很專業的人來操作。

(2)利用iostat評估磁盤性能

[root@webserver ~]#   iostat -d 2 3

Linux 2.6.9-42.ELsmp (webserver)        12/01/2008      _i686_  (8 CPU)

Device:         tps   Blk_read/s   Blk_wrtn/s   Blk_read      Blk_wrtn

sda               1.87         2.58       114.12        6479462     286537372

Device:         tps   Blk_read/s   Blk_wrtn/s   Blk_read   Blk_wrtn

sda               0.00         0.00         0.00              0                0

Device:         tps   Blk_read/s   Blk_wrtn/s   Blk_read    Blk_wrtn

sda               1.00         0.00        12.00             0                24

Blk_read/s表示每秒讀取的資料塊數。

Blk_wrtn/s表示每秒寫入的資料塊數。

Blk_read表示讀取的所有塊數。

Blk_wrtn表示寫入的所有塊數。

           可以通過Blk_read/s和Blk_wrtn/s的值對磁盤的讀寫性能有一個基本的了解,如果Blk_wrtn/s值很大,表示磁盤的寫操作很頻繁,可以考慮優化磁盤或者優化程式,如果Blk_read/s值很大,表示磁盤直接讀取操作很多,可以将讀取的資料放入記憶體中進行操作。

           對于這兩個選項的值沒有一個固定的大小,根據系統應用的不同,會有不同的值,但是有一個規則還是可以遵循的:長期的、超大的資料讀寫,肯定是不正常的,這種情況一定會影響系統性能。

(3)利用sar評估磁盤性能

        通過“sar –d”組合,可以對系統的磁盤IO做一個基本的統計,請看下面的一個輸出:

[root@webserver ~]# sar -d 2 3

Linux 2.6.9-42.ELsmp (webserver)        11/30/2008      _i686_  (8 CPU)

11:09:33 PM  DEV     tps   rd_sec/s   wr_sec/s  avgrq-sz  avgqu-sz   await  svctm   %util

11:09:35 PM dev8-0  0.00  0.00            0.00        0.00          0.00         0.00   0.00     0.00

11:09:35 PM  DEV     tps  rd_sec/s    wr_sec/s  avgrq-sz  avgqu-sz  await   svctm   %util

11:09:37 PM dev8-0  1.00  0.00         12.00        12.00         0.00        0.00    0.00     0.00

11:09:37 PM   DEV    tps    rd_sec/s  wr_sec/s   avgrq-sz  avgqu-sz  await  svctm   %util

11:09:39 PM dev8-0  1.99   0.00         47.76         24.00       0.00        0.50    0.25     0.05

Average:  DEV          tps    rd_sec/s   wr_sec/s  avgrq-sz  avgqu-sz    await  svctm   %util

Average:  dev8-0      1.00   0.00          19.97         20.00       0.00         0.33    0.17     0.02

     需要關注的幾個參數含義:

    await表示平均每次裝置I/O操作的等待時間(以毫秒為機關)。

    svctm表示平均每次裝置I/O操作的服務時間(以毫秒為機關)。

    %util表示一秒中有百分之幾的時間用于I/O操作。

對以磁盤IO性能,一般有如下評判标準:

    正常情況下svctm應該是小于await值的,而svctm的大小和磁盤性能有關,CPU、記憶體的負荷也會對svctm值造成影響,過多的請求也會間接的導緻svctm值的增加。

    await值的大小一般取決與svctm的值和I/O隊列長度以及I/O請求模式,如果svctm的值與await很接近,表示幾乎沒有I/O等待,磁盤性能很好,如果await的值遠高于svctm的值,則表示I/O隊列等待太長,系統上運作的應用程式将變慢,此時可以通過更換更快的硬碟來解決問題。

    %util項的值也是衡量磁盤I/O的一個重要名額,如果%util接近100%,表示磁盤産生的I/O請求太多,I/O系統已經滿負荷的在工作,該磁盤可能存在瓶頸。長期下去,勢必影響系統的性能,可以通過優化程式或者通過更換更高、更快的磁盤來解決此問題。

5. 網絡性能評估

(1)通過ping指令檢測網絡的連通性

(2)通過netstat –i組合檢測網絡接口狀況

(3)通過netstat –r組合檢測系統的路由表資訊

(4)通過sar –n組合顯示系統的網絡運作狀态

五、Oracle在Linux下的性能優化

Oracle資料庫記憶體參數的優化

      與oracle相關的系統核心參數

      SGA、PGA參數設定

Oracle下磁盤存儲性能優化

      檔案系統的選擇(ext2/ext3、xfs、ocfs2)

      Oracle  ASM存儲

1.優化oracle性能參數之前要了解的情況

1)實體記憶體有多大

2)作業系統估計要使用多大記憶體

3)資料庫是使用檔案系統還是裸裝置

4)有多少并發連接配接

5)應用是OLTP類型還是OLAP類型

2.oracle資料庫記憶體參數的優化

(1)系統核心參數

修改 /etc/sysctl.conf 這個檔案,加入以下的語句:

kernel.shmmax = 2147483648

kernel.shmmni = 4096

kernel.shmall = 2097152

kernel.sem = 250 32000 100 128

fs.file-max = 65536

net.ipv4.ip_local_port_range = 1024 65000

參數依次為:

Kernel.shmmax:共享記憶體段的最大尺寸(以位元組為機關)。

Kernel.shmmni:系統中共享記憶體段的最大數量。

Kernel.shmall:共享記憶體總量,以頁為機關。

fs.file-max:檔案句柄數,表示在Linux系統中可以打開的檔案數量。

net.ipv4.ip_local_port_range:應用程式可使用的IPv4端口範圍。

需要注意的幾個問題

關于Kernel.shmmax

    Oracle SGA 由共享記憶體組成,如果錯誤設定 SHMMAX可能會限制SGA 的大小,SHMMAX設定不足可能會導緻以下問題:ORA-27123:unable to attach to shared memory segment,如果該參數設定小于Oracle SGA設定,那麼SGA就會被配置設定多個共享記憶體段。這在繁忙的系統中可能成為性能負擔,帶來系統問題。

    Oracle建議Kernel.shmmax最好大于sga,以讓oracle共享記憶體區SGA在一個共享記憶體段中,進而提高性能。

關于Kernel.shmall

    表示系統共享記憶體總大小,以頁為機關。

    一個32位的Linux系統,8G的記憶體,可以設定kernel.shmall = 2097152,即為: 2097152*4k/1024/1024 = 8G就是說可用共享記憶體一共8G,這裡的4K是32位作業系統一頁的大小,即4096位元組。

關于Kernel.shmmni

    表示系統中共享記憶體段的最大數量。系統預設是4096,一般無需修改,在SUN OS下還有Kernel.shmmin參數,表示共享記憶體段最小尺寸,勿要混肴!

(2)SGA、PAG參數的設定

A Oracle在記憶體管理方面的改進

    Oracle 9i通過參數PGA_AGGREGATE_TARGET參數實作PGA自動管理  Oracle 10g通過參數SGA_TARGET參數實作了SGA的自動管理,

    Oracle 11g實作了資料庫所有記憶體塊的全自動化管理,使得動态管理SGA和PGA成為現實。

自動記憶體管理的兩個參數:

    MEMORY_TARGET:表示整個ORACLE執行個體所能使用的記憶體大小,包括PGA和SGA的整體大小,即這個參數是動态的,可以動态控制SGA和PGA的大小。

    MEMORY_MAX_TARGET:這個參數定義了MEMORY_TARGET最大可以達到而不用重新開機執行個體的值,如果沒有設定MEMORY_MAX_TARGET值,預設等于MEMORY_TARGET的值。

    使用動态記憶體管理時,SGA_TARGET和PGA_AGGREGATE_TARGET代表它們各自記憶體區域的最小設定,要讓Oracle完全控制記憶體管理,這兩個參數應該設定為0。

B Oracle五種記憶體管理方式

        自動記憶體管理,即AMM (Automatic Memory Management)

        自動共享記憶體管理,即ASMM(Automatic Shared Memory Management)

        手動共享記憶體管理

        自動PGA管理

        手動PGA管理

自動記憶體管理(AMM)

預設安裝oracle11g的執行個體就是AMM方式。通過如下檢視:

示例如下:

SQL> show parameters target

NAME                                       TYPE                  VALUE

------------ ---------------------      ------------------    ---------------------- archive_lag_target                     integer                      0

db_flashback_retention_target   integer                    1860

fast_start_io_target                    integer                      0

fast_start_mttr_target                 integer                      0

memory_max_target                  big integer              1400M

memory_target                          big integer              1400M

pga_aggregate_target                big integer                0

sga_target                                  big integer                0

注意:如果初始化參數 LOCK_SGA = true ,則 AMM 是不可用的。

自動共享記憶體管理

自動共享記憶體管理是oracle10g引進的,如果要使用自動共享記憶體管理,隻需設定MEMORY_TARGET=0,然後顯式指定SGA_TARGET即可。

SQL> alter system set memory_target=0 scope=both;

System altered.

SQL> alter system set sga_target=1024m scope=both;

SQL>

手工共享記憶體管理

Oracle9i以及以前版本,隻能手工設定共享記憶體管理,如果要使用手動共享記憶體管理,首先需要設定SGA_TARGET 與 MEMORY_TARGET為0。

SGA包含主要參數有:

share_pool_size:共享池大小,建議300-500M之間。

Log_buffer:日志緩沖區大小,建議1-3M之間。

Large_pool_size:大緩沖池大小,非MTS系統,建議在20-30M之間。

Java_pool_size:java池大小,沒有java應用時,建議10-20M之間。

db_cache_size:資料緩沖區大小,根據可使用記憶體大小,盡可能大。

自動PAG管理

Oracle9i版本引入了自動PGA管理,如果使用的是AMM管理方式,則無需擔心PGA的配置,但是如果對對AMM管理不放心的話,可以設定自動PGA管理,設定

    WORKAREA_SIZE_POLICY = AUTO

然後指定PGA_AGGREGATE_TARGET大小即可。,

手工PAG管理

如果要做到精确的控制PGA,還可以設定手動管理PGA,設定

WORKAREA_SIZE_POLICY = manual

然後分别指定PGA相關參數即可:

PGA相關參數有:

SORT_AREA_SIZE

SORT_AREA_RETAINED_SIZE,

3.Oracle下磁盤存儲性能優化

①      選擇檔案系統存取資料

檔案系統的選擇

    單一檔案系統(ext2、ext3、xfs等)

    叢集檔案系統(gfs、ocfs2)

檔案系統存儲優缺點:

    優點:管理維護友善。

    缺點:資料讀寫要經過作業系統級的緩存,效率不是很高。

②      ASM(Automatic Storage Management)

ASM優點:

    資料可直接讀寫,無需經過作業系統存取效率很高,讀寫效率與直接的原始裝置基本相同。

    Oracle提供了專門的管理和維護工具

本文轉摘自→ http://www.itlearner.com/article/4553

範例:NFS的調優

首先介紹下伺服器的環境,這台伺服器通過nfs将存儲上的資料共享給用戶端伺服器,開發人員在用戶端伺服器上工作,開發團隊大概有100人。由于開發人員多,項目也多,完全有可能因為nfs服務的性能瓶頸影響系統性能。

記得曾經跟紅帽售後提過一個問題,大概是:我nfs伺服器要接受好幾台用戶端伺服器的挂載,而且研發人員也多,負載高的話,nfs服務會不會受不了。當時售後給我的答複是“沒關系,隻要把nfs程序數調大來就可以了”,如此淡定的回答讓我信服了。不過這個時候我nfs伺服器程序已經調到80個程序了,難道還不夠?于是把程序數改到160個,重新開機nfs服務,觀察了一段時間,伺服器負載降下來了,到現在再也沒出現類似負載高的情況。

其實像這樣規模的開發環境就不應該用一台伺服器安裝linux系統搭建nfs服務來共享檔案,這樣性能也不怎麼好,而應該直接用一台中高端的儲存設備,用存儲自帶的nfs共享功能,這樣性能比系統搭建出來的nfs性能要好,這也是當初環境搭建方案的一個敗筆。

調整nfs程序方法:

[root@server2 ~]# vim /etc/init.d/nfs

# Number of servers to be started by default

[ -z "$RPCNFSDCOUNT" ] && RPCNFSDCOUNT=8

預設是8個程序,一般在生産伺服器上,在系統資源夠的情況下,可以按照一顆CPU 8個nfs程序來算,我24顆CPU 160個程序也比較合理。如果有某個系統資源成瓶頸的時候,就要适當減少nfs程序數,否則也有可能因為nfs程序過多導緻負載升高。