天天看點

Linux的五種IO模型

1)阻塞I/O(blocking I/O)

2)非阻塞I/O (nonblocking I/O)

3) I/O複用(select 和poll) (I/O multiplexing)

4)信号驅動I/O (signal driven I/O (SIGIO))

5)異步I/O (asynchronous I/O (the POSIX aio_functions))

前四種都是同步,隻有最後一種才是異步IO。

阻塞I/O模型:

        簡介:程序會一直阻塞,直到資料拷貝完成

     應用程式調用一個IO函數,導緻應用程式阻塞,等待資料準備好。 如果資料沒有準備好,一直等待….資料準備好了,從核心拷貝到使用者空間,IO函數傳回成功訓示。

      我們 第一次接觸到的網絡程式設計都是從 listen()、send()、recv()等接口開始的。使用這些接口可以很友善的建構伺服器 /客戶機的模型。

阻塞I/O模型圖:在調用recv()/recvfrom()函數時,發生在核心中等待資料和複制資料的過程。

Linux的五種IO模型

   當調用recv()函數時,系統首先查是否有準備好的資料。如果資料沒有準備好,那麼系統就處于等待狀态。當資料準備好後,将資料從系統緩沖區複制到使用者空間,然後該函數傳回。在套接應用程式中,當調用recv()函數時,未必使用者空間就已經存在資料,那麼此時recv()函數就會處于等待狀态。

     當使用socket()函數和WSASocket()函數建立套接字時,預設的套接字都是阻塞的。這意味着當調用Windows Sockets API不能立即完成時,線程處于等待狀态,直到操作完成。

    并不是所有Windows Sockets API以阻塞套接字為參數調用都會發生阻塞。例如,以阻塞模式的套接字為參數調用bind()、listen()函數時,函數會立即傳回。将可能阻塞套接字的Windows Sockets API調用分為以下四種:

    1.輸入操作: recv()、recvfrom()、WSARecv()和WSARecvfrom()函數。以阻塞套接字為參數調用該函數接收資料。如果此時套接字緩沖區内沒有資料可讀,則調用線程在資料到來前一直睡眠。

    2.輸出操作: send()、sendto()、WSASend()和WSASendto()函數。以阻塞套接字為參數調用該函數發送資料。如果套接字緩沖區沒有可用空間,線程會一直睡眠,直到有空間。

    3.接受連接配接:accept()和WSAAcept()函數。以阻塞套接字為參數調用該函數,等待接受對方的連接配接請求。如果此時沒有連接配接請求,線程就會進入睡眠狀态。

   4.外出連接配接:connect()和WSAConnect()函數。對于TCP連接配接,用戶端以阻塞套接字為參數,調用該函數向伺服器發起連接配接。該函數在收到伺服器的應答前,不會傳回。這意味着TCP連接配接總會等待至少到伺服器的一次往返時間。

  使用阻塞模式的套接字,開發網絡程式比較簡單,容易實作。當希望能夠立即發送和接收資料,且處理的套接字數量比較少的情況下,使用阻塞模式來開發網絡程式比較合适。

    阻塞模式套接字的不足表現為,在大量建立好的套接字線程之間進行通信時比較困難。當使用“生産者-消費者”模型開發網絡程式時,為每個套接字都分别配置設定一個讀線程、一個處理資料線程和一個用于同步的事件,那麼這樣無疑加大系統的開銷。其最大的缺點是當希望同時處理大量套接字時,将無從下手,其擴充性很差.

      阻塞模式給網絡程式設計帶來了一個很大的問題,如在調用 send()的同時,線程将被阻塞,在此期間,線程将無法執行任何運算或響應任何的網絡請求。這給多客戶機、多業務邏輯的網絡程式設計帶來了挑戰。這時,我們可能會選擇多線程的方式來解決這個問題。

       應對多客戶機的網絡應用,最簡單的解決方式是在伺服器端使用多線程(或多程序)。多線程(或多程序)的目的是讓每個連接配接都擁有獨立的線程(或程序),這樣任何一個連接配接的阻塞都不會影響其他的連接配接。

       具體使用多程序還是多線程,并沒有一個特定的模式。傳統意義上,程序的開銷要遠遠大于線程,是以,如果需要同時為較多的客戶機提供服務,則不推薦使用多程序;如果單個服務執行體需要消耗較多的 CPU 資源,譬如需要進行大規模或長時間的資料運算或檔案通路,則程序較為安全。通常,使用 pthread_create () 建立新線程,fork() 建立新程序。

      多線程/程序伺服器同時為多個客戶機提供應答服務。模型如下:

Linux的五種IO模型

    主線程持續等待用戶端的連接配接請求,如果有連接配接,則建立新線程,并在新線程中提供為前例同樣的問答服務。

      上述多線程的伺服器模型似乎完美的解決了為多個客戶機提供問答服務的要求,但其實并不盡然。如果要同時響應成百上千路的連接配接請求,則無論多線程還是多程序都會嚴重占據系統資源,降低系統對外界響應效率,而線程與程序本身也更容易進入假死狀态。

       由此可能會考慮使用“線程池”或“連接配接池”。“線程池”旨在減少建立和銷毀線程的頻率,其維持一定合理數量的線程,并讓空閑的線程重新承擔新的執行任務。“連接配接池”維持連接配接的緩存池,盡量重用已有的連接配接、減少建立和關閉連接配接的頻率。這兩種技術都可以很好的降低系統開銷,都被廣泛應用很多大型系統,如apache,mysql資料庫等。

      但是,“線程池”和“連接配接池”技術也隻是在一定程度上緩解了頻繁調用 IO 接口帶來的資源占用。而且,所謂“池”始終有其上限,當請求大大超過上限時,“池”構成的系統對外界的響應并不比沒有池的時候效果好多少。是以使用“池”必須考慮其面臨的響應規模,并根據響應規模調整“池”的大小。

      對應上例中的所面臨的可能同時出現的上千甚至上萬次的用戶端請求,“線程池”或“連接配接池”或許可以緩解部分壓力,但是不能解決所有問題。

非阻塞IO模型 :

       簡介:非阻塞IO通過程序反複調用IO函數(多次系統調用,并馬上傳回);在資料拷貝的過程中,程序是阻塞的;    

       我們把一個SOCKET接口設定為非阻塞就是告訴核心,當所請求的I/O操作無法完成時,不要将程序睡眠,而是傳回一個錯誤。這樣我們的I/O操作函數将不斷的測試資料是否已經準備好,如果沒有準備好,繼續測試,直到資料準備好為止。在這個不斷測試的過程中,會大量的占用CPU的時間。

    把SOCKET設定為非阻塞模式,即通知系統核心:在調用Windows Sockets API時,不要讓線程睡眠,而應該讓函數立即傳回。在傳回時,該函數傳回一個錯誤代碼。圖所示,一個非阻塞模式套接字多次調用recv()函數的過程。前三次調用recv()函數時,核心資料還沒有準備好。是以,該函數立即傳回WSAEWOULDBLOCK錯誤代碼。第四次調用recv()函數時,資料已經準備好,被複制到應用程式的緩沖區中,recv()函數傳回成功訓示,應用程式開始處理資料。

Linux的五種IO模型

     當使用socket()函數和WSASocket()函數建立套接字時,預設都是阻塞的。在建立套接字之後,通過調用ioctlsocket()函數,将該套接字設定為非阻塞模式。Linux下的函數是:fcntl().

    套接字設定為非阻塞模式後,在調用Windows Sockets API函數時,調用函數會立即傳回。大多數情況下,這些函數調用都會調用“失敗”,并傳回WSAEWOULDBLOCK錯誤代碼。說明請求的操作在調用期間内沒有時間完成。通常,應用程式需要重複調用該函數,直到獲得成功傳回代碼。

    需要說明的是并非所有的Windows Sockets API在非阻塞模式下調用,都會傳回WSAEWOULDBLOCK錯誤。例如,以非阻塞模式的套接字為參數調用bind()函數時,就不會傳回該錯誤代碼。當然,在調用WSAStartup()函數時更不會傳回該錯誤代碼,因為該函數是應用程式第一調用的函數,當然不會傳回這樣的錯誤代碼。

    要将套接字設定為非阻塞模式,除了使用ioctlsocket()函數之外,還可以使用WSAAsyncselect()和WSAEventselect()函數。當調用該函數時,套接字會自動地設定為非阻塞方式。

  由于使用非阻塞套接字在調用函數時,會經常傳回WSAEWOULDBLOCK錯誤。是以在任何時候,都應仔細檢查傳回代碼并作好對“失敗”的準備。應用程式連續不斷地調用這個函數,直到它傳回成功訓示為止。上面的程式清單中,在While循環體内不斷地調用recv()函數,以讀入1024個位元組的資料。這種做法很浪費系統資源。

    要完成這樣的操作,有人使用MSG_PEEK标志調用recv()函數檢視緩沖區中是否有資料可讀。同樣,這種方法也不好。因為該做法對系統造成的開銷是很大的,并且應用程式至少要調用recv()函數兩次,才能實際地讀入資料。較好的做法是,使用套接字的“I/O模型”來判斷非阻塞套接字是否可讀可寫。

    非阻塞模式套接字與阻塞模式套接字相比,不容易使用。使用非阻塞模式套接字,需要編寫更多的代碼,以便在每個Windows Sockets API函數調用中,對收到的WSAEWOULDBLOCK錯誤進行處理。是以,非阻塞套接字便顯得有些難于使用。

    但是,非阻塞套接字在控制建立的多個連接配接,在資料的收發量不均,時間不定時,明顯具有優勢。這種套接字在使用上存在一定難度,但隻要排除了這些困難,它在功能上還是非常強大的。通常情況下,可考慮使用套接字的“I/O模型”,它有助于應用程式通過異步方式,同時對一個或多個套接字的通信加以管理。

IO複用模型:

             簡介:主要是select和epoll;對一個IO端口,兩次調用,兩次傳回,比阻塞IO并沒有什麼優越性;關鍵是能實作同時對多個IO端口進行監聽;

      I/O複用模型會用到select、poll、epoll函數,這幾個函數也會使程序阻塞,但是和阻塞I/O所不同的的,這兩個函數可以同時阻塞多個I/O操作。而且可以同時對多個讀操作,多個寫操作的I/O函數進行檢測,直到有資料可讀或可寫時,才真正調用I/O操作函數。

用select函數來管理多個檔案描述符,一旦檢測到一個或多個檔案描述有資料到來,select函數就傳回,這時再調用recv函數就不會阻塞了,資料從核心空間拷貝到使用者空間,recv函數傳回。

阻塞的位置提前到select函數。

Linux的五種IO模型

信号驅動IO

    簡介:兩次調用,兩次傳回;

    首先我們允許套接口進行信号驅動I/O,并安裝一個信号處理函數,程序繼續運作并不阻塞。當資料準備好時,程序會收到一個SIGIO信号,可以在信号處理函數中調用I/O操作函數處理資料。

在使用者态程式安裝SIGIO信号處理函數,可以用sigaction函數或者signal函數來安裝自定義的信号處理函數。

使用者态程式安裝完信号處理函數後可以執行其他的操作。

一旦有資料到來,作業系統以信号的方式來通知使用者态程式,使用者态程式跳轉到自定義的信号處理函數。

在信号處理函數中調用recv函數,接收資料。

資料從核心空間拷貝到使用者态空間後,recv函數傳回。

recv函數不會因為等待資料到來而阻塞。

這種方式使異步處理成為可能,信号是異步處理的基礎。

Linux的五種IO模型

異步IO模型

         簡介:資料拷貝的時候程序無需阻塞。

     當一個異步過程調用發出後,調用者不能立刻得到結果。實際處理這個調用的部件在完成後,通過狀态、通知和回調來通知調用者的輸入輸出操作

異步IO的效率是最高的。

異步IO通過aio_read函數實作,aio_read送出請求,并遞交一個使用者态空間下的緩沖區。

即使核心中沒有資料到來,aio_read函數也立刻傳回,應用程式就可以處理其他的事情。

當資料到來後,作業系統自動把資料從核心空間拷貝到aio_read函數遞交的使用者态緩沖區。

拷貝完成以信号的方式通知使用者态程式,使用者态程式拿到資料後就可以執行後續操作。

Linux的五種IO模型

同步IO引起程序阻塞,直至IO操作完成。

異步IO不會引起程序阻塞。

IO複用是先通過select調用阻塞。

5個I/O模型的比較:

Linux的五種IO模型

異步IO和信号驅動IO的不同之處在于信号通知使用者态程式時,異步IO已經把資料從核心空間拷貝到使用者空間了,而信号驅動IO的資料還在核心空間,等着recv函數把資料拷貝到使用者态空間。

異步IO主動把資料拷貝到使用者态空間,主動推送資料到使用者态空間,不需要調用recv方法把資料從核心空間拉到使用者态空間。異步IO是一種推資料的機制,相比于信号處理IO拉資料的機制效率更高。

推資料時直接完成的,而拉資料時需要調用recv函數,調用函數會産生額外的開銷,故效率低。

select、poll、epoll簡介

epoll跟select都能提供多路I/O複用的解決方案。在現在的Linux核心裡有都能夠支援,其中epoll是Linux所特有,而select則應該是POSIX所規定,一般作業系統均有實作

select:

select本質上是通過設定或者檢查存放fd标志位的資料結構來進行下一步處理。這樣所帶來的缺點是:

1、 單個程序可監視的fd數量被限制,即能監聽端口的大小有限。

      一般來說這個數目和系統記憶體關系很大,具體數目可以cat /proc/sys/fs/file-max察看。32位機預設是1024個。64位機預設是2048.

2、 對socket進行掃描時是線性掃描,即采用輪詢的方法,效率較低:

       當套接字比較多的時候,每次select()都要通過周遊FD_SETSIZE個Socket來完成排程,不管哪個Socket是活躍的,都周遊一遍。這會浪費很多CPU時間。如果能給套接字注冊某個回調函數,當他們活躍時,自動完成相關操作,那就避免了輪詢,這正是epoll與kqueue做的。

3、需要維護一個用來存放大量fd的資料結構,這樣會使得使用者空間和核心空間在傳遞該結構時複制開銷大

poll:

poll本質上和select沒有差別,它将使用者傳入的數組拷貝到核心空間,然後查詢每個fd對應的裝置狀态,如果裝置就緒則在裝置等待隊列中加入一項并繼續周遊,如果周遊完所有fd後沒有發現就緒裝置,則挂起目前程序,直到裝置就緒或者主動逾時,被喚醒後它又要再次周遊fd。這個過程經曆了多次無謂的周遊。

它沒有最大連接配接數的限制,原因是它是基于連結清單來存儲的,但是同樣有一個缺點:

1、大量的fd的數組被整體複制于使用者态和核心位址空間之間,而不管這樣的複制是不是有意義。                                                                                                                                      2、poll還有一個特點是“水準觸發”,如果報告了fd後,沒有被處理,那麼下次poll時會再次報告該fd。

epoll:

epoll支援水準觸發和邊緣觸發,最大的特點在于邊緣觸發,它隻告訴程序哪些fd剛剛變為就需态,并且隻會通知一次。還有一個特點是,epoll使用“事件”的就緒通知方式,通過epoll_ctl注冊fd,一旦該fd就緒,核心就會采用類似callback的回調機制來激活該fd,epoll_wait便可以收到通知

epoll的優點:

1、沒有最大并發連接配接的限制,能打開的FD的上限遠大于1024(1G的記憶體上能監聽約10萬個端口);

2、效率提升,不是輪詢的方式,不會随着FD數目的增加效率下降。隻有活躍可用的FD才會調用callback函數;

      即Epoll最大的優點就在于它隻管你“活躍”的連接配接,而跟連接配接總數無關,是以在實際的網絡環境中,Epoll的效率就會遠遠高于select和poll。

3、 記憶體拷貝,利用mmap()檔案映射記憶體加速與核心空間的消息傳遞;即epoll使用mmap減少複制開銷。

select、poll、epoll 差別總結:

1、支援一個程序所能打開的最大連接配接數

select 單個程序所能打開的最大連接配接數有FD_SETSIZE宏定義,其大小是32個整數的大小(在32位的機器上,大小就是32*32,同理64位機器上FD_SETSIZE為32*64),當然我們可以對進行修改,然後重新編譯核心,但是性能可能會受到影響,這需要進一步的測試。
poll poll本質上和select沒有差別,但是它沒有最大連接配接數的限制,原因是它是基于連結清單來存儲的
epoll 雖然連接配接數有上限,但是很大,1G記憶體的機器上可以打開10萬左右的連接配接,2G記憶體的機器可以打開20萬左右的連接配接

2、FD劇增後帶來的IO效率問題

select 因為每次調用時都會對連接配接進行線性周遊,是以随着FD的增加會造成周遊速度慢的“線性下降性能問題”。
poll 同上
epoll 因為epoll核心中實作是根據每個fd上的callback函數來實作的,隻有活躍的socket才會主動調用callback,是以在活躍socket較少的情況下,使用epoll沒有前面兩者的線性下降的性能問題,但是所有socket都很活躍的情況下,可能會有性能問題。

3、 消息傳遞方式

select 核心需要将消息傳遞到使用者空間,都需要核心拷貝動作
poll 同上
epoll epoll通過核心和使用者空間共享一塊記憶體來實作的。

總結:

綜上,在選擇select,poll,epoll時要根據具體的使用場合以及這三種方式的自身特點。

1、表面上看epoll的性能最好,但是在連接配接數少并且連接配接都十分活躍的情況下,select和poll的性能可能比epoll好,畢竟epoll的通知機制需要很多函數回調。

2、select低效是因為每次它都需要輪詢。但低效也是相對的,視情況而定,也可通過良好的設計改善

參考1:https://blog.csdn.net/chengonghao/article/details/51111671

參考2:https://blog.csdn.net/taiyang1987912/article/details/43731629

繼續閱讀