天天看點

linux out of memory分析(OOM)

Linux有一個特性:OOM Killer,一個保護機制,用于避免在記憶體不足的時候不至于出現嚴重問題,把一些無關的程序優先殺掉,即在記憶體嚴重不足時,系統為了繼續運轉,核心會挑選一個程序,将其殺掉,以釋放記憶體,緩解記憶體不足情況,不過這種保護是有限的,不能完全的保護程序的運作。    在很多情況下,經常會看到還有剩餘記憶體時,oom-killer依舊把程序殺死了,現象是在/var/log/messages日志檔案中有如下資訊:

    Out of Memory: Killed process [PID] [process name].

    該問題是low memory耗盡,因為核心使用low memory來跟蹤所有的記憶體配置設定。

    當low memory耗盡,不管high memory剩多少,oom-killer都會殺死程序,以保持系統的正常運作。

    在32位CPU下尋址範圍是有限的,Linux核心定義了下面三個區域:

    LowMem區(也叫NORMAL ZONE)共880MB,并且是固定不能變的(除非使用hugemem核心),對于高負荷的系統,可能因為LowMem使用不好而觸發了OOM Killer機制。因為記憶體配置設定是一個連續的區域,在此時,如果LowMem裡存在很多碎片或者LowFree太少,此時無法配置設定到一塊連續的記憶體區域,就觸發了OOM Killer。

    檢視目前LowFree值:

    cat /proc/meminfo | grep LowFree

    檢視LowMem記憶體碎片:

    cat /proc/buddyinfo

    上面這指令需要在2.6核心才有效。

    有如下方法可以解決該問題:

    1、更新到64位系統,這是最好的方法,因為此時所有的記憶體都屬low memory,如此時提示out of memory,則真的是low memory耗盡,真的OOM了。

    2、如必須使用32位系統,那麼可以使用hugemem核心,此時核心會以不同的方式分割low/high memory,而大多數情況下會提供足夠多的low memory至high memory的映射,此時很簡單的一個修複方法是可以安裝hugemem核心包,然後重新開機。

    3、如果hugemem核心也用不了,那麼我們可以嘗試将/proc/sys/vm/lower_zone_protection的值設為250或更大,可使用如下指令檢視和設定該值:

       cat /proc/sys/vm/lower_zone_protection

       echo 250 > /proc/sys/vm/lower_zone_protection

       或者可以修改/etc/sysctl.conf檔案,以便重新開機後生效,添加的内容如下:

       vm.lower_zone_protection = 250

    4、實在沒辦法,那麼我們把oom-killer關掉,不過該選項可能導緻系統挂起,故要看實際情況使用。

       檢視目前的oom-killer的狀态:cat /proc/sys/vm/oom-kill

       關閉/打開oom-killer:

       echo "0" > /proc/sys/vm/oom-kill

       echo "1" > /proc/sys/vm/oom-kill

       或者直接加到/etc/sysctl.conf檔案,内容如下:

       vm.oom-kill = 0

       此時,當程序被oom-killer嘗試殺死而沒有成功時,會把相關資訊記錄到/var/log/messages檔案中,資訊如下:

       "Would have oom-killed but /proc/sys/vm/oom-kill is disabled"

    5、或者不把oom-killer關掉,隻針對單一程序處理,把某個程序保護起來,此時,我們可以使用如下指令:

       echo -17 > /proc/[pid]/oom_adj

       /proc/[pid]/oom_adj中oom_adj的取值範圍是-17~15,當該值為-17時,系統将不會殺死指定pid的程序,而-16~15則會使得程序的/proc/[pid]/oom_adj值呈指數(K*2^n)形式遞增,即它們被殺掉的可能性呈指數遞增。針對init(程序号為1)這個程序,無論該值設為多少都不會被殺。

    6、參考資料

以上是從網絡上查到,結合自己的問題進行下補充:

一開始由于系統配置是2G,而且沒有交換分區,是以每天導緻out of memory,後來增加了實體記憶體,并做了交換分區,情況有所改善,但是運作2-3天後還是會出現out of memory的情況,後來分析日志檔案messages發現粗體部分,分析是low memory不足導緻,後來自己試驗用sync ;echo 3 >> /proc/sys/vm/drop_caches可以将記憶體釋放出來,檢視/proc/buddyinfo記憶體釋放出來。

Jun 10 13:33:11 xx user.warn kernel: DMA free:3548kB min:68kB low:84kB high:100kB active:0kB inactive:0kB present:16384kB pages_scanned:0 all_unreclaimable? yes

Jun 10 13:33:11 xx user.warn kernel: lowmem_reserve[]: 0 0 880 4080

Jun 10 13:33:11 xx user.warn kernel: DMA32 free:0kB min:0kB low:0kB high:0kB active:0kB inactive:0kB present:0kB pages_scanned:0 all_unreclaimable? no

Jun 10 13:33:11 xx user.warn kernel: Normal free:1340kB min:3756kB low:4692kB high:5632kB active:0kB inactive:28kB present:901120kB pages_scanned:2456536 all_unreclaimable? yes

Jun 10 13:33:11 xx user.warn kernel: lowmem_reserve[]: 0 0 0 25600

Jun 10 13:33:11 xx user.warn kernel: HighMem free:1615600kB min:512kB low:3928kB high:7344kB active:274112kB inactive:24928kB present:3276800kB pages_scanned:0 all_unreclaimable? no

Jun 10 13:33:11 xx user.warn kernel: lowmem_reserve[]: 0 0 0 0

Jun 10 13:33:11 xx user.warn kernel: DMA: 1*4kB 1*8kB 1*16kB 0*32kB 1*64kB 1*128kB 1*256kB 0*512kB 1*1024kB 1*2048kB 0*4096kB = 3548kB

Jun 10 13:33:11 xx user.warn kernel: DMA32: empty

Jun 10 13:33:11 xx user.warn kernel: Normal: 1*4kB 1*8kB 1*16kB 1*32kB 0*64kB 0*128kB 1*256kB 0*512kB 1*1024kB 0*2048kB 0*4096kB = 1340kB

Jun 10 13:33:11 CHINASOFT user.warn kernel: HighMem: 8192*4kB 7506*8kB 5166*16kB 2932*32kB 1528*64kB 688*128kB 253*256kB 86*512kB 67*1024kB 12*2048kB 234*4096kB = 1615600kB

以上是自己遇到的問題,處理肯定有不對的地方,如果您發現請指正!補充:核心是2.26.16

繼續閱讀