天天看點

[轉]兩種高性能I/O設計模式(Reactor/Proactor)的比較

【原文位址: http://www.cppblog.com/pansunyou/archive/2011/01/26/io_design_patterns.html

綜述

這篇文章探讨并比較兩種用于TCP伺服器的高性能設計模式. 除了介紹現有的解決方案, 還提出了一種更具伸縮性,隻需要維護一份代碼并且跨平台的解決方案(含代碼示例), 以及其在不同平台上的微調. 此文還比較了java,c#,c++對各自現有以及提到的解決方案的實作性能.

系統I/O 可分為阻塞型, 非阻塞同步型以及非阻塞異步型[

1 2

]. 阻塞型I/O意味着控制權隻到調用操作結束了才會回到調用者手裡. 結果調用者被阻塞了, 這段時間了做不了任何其它事情. 更郁悶的是,在等待IO結果的時間裡,調用者所線上程此時無法騰出手來去響應其它的請求,這真是太浪費資源了。拿read()操作來說吧, 調用此函數的代碼會一直僵在此處直至它所讀的socket緩存中有資料到來.

相比之下,非阻塞同步是會立即傳回控制權給調用者的。調用者不需要等等,它從調用的函數擷取兩種結果:要麼此次調用成功進行了;要麼系統傳回錯誤辨別告訴調用者目前資源不可用,你再等等或者再試度看吧。比如read()操作, 如果目前socket無資料可讀,則立即傳回EWOULBLOCK/EAGAIN,告訴調用read()者"資料還沒準備好,你稍後再試".

在非阻塞異步調用中,稍有不同。調用函數在立即傳回時,還告訴調用者,這次請求已經開始了。系統會使用另外的資源或者線程來完成這次調用操作,并在完成的時候知會調用者(比如通過回調函數)。拿Windows的ReadFile()或者POSIX的aio_read()來說,調用它之後,函數立即傳回,作業系統在背景同時開始讀操作。

在以上三種IO形式中,非阻塞異步是性能最高、伸縮性最好的。

這篇文章探讨不同的I/O利用機制并提供一種跨平台的設計模式(解決方案). 希望此文可以給于TCP高性能伺服器開發者一些幫助,選擇最佳的設計方案。下面我們會比較 Java, c#, C++各自對探讨方案的實作以及性能. 我們在文章的後面就不再提及阻塞式的方案了,因為阻塞式I/O實在是缺少可伸縮性,性能也達不到高性能伺服器的要求。

兩種IO多路複用方案:Reactor and Proactor

一般情況下,I/O 複用機制需要事件分享器(event demultiplexor [

3

]). 事件分享器的作用,即将那些讀寫事件源分發給各讀寫事件的處理者,就像送快遞的在樓下喊: 誰的什麼東西送了, 快來拿吧。開發人員在開始的時候需要在分享器那裡注冊感興趣的事件,并提供相應的處理者(event handlers),或者是回調函數; 事件分享器在适當的時候會将請求的事件分發給這些handler或者回調函數.

涉及到事件分享器的兩種模式稱為:Reactor and Proactor [

]. Reactor模式是基于同步I/O的,而Proactor模式是和異步I/O相關的. 在Reactor模式中,事件分離者等待某個事件或者可應用或個操作的狀态發生(比如檔案描述符可讀寫,或者是socket可讀寫),事件分離者就把這個 事件傳給事先注冊的事件處理函數或者回調函數,由後者來做實際的讀寫操作。

而在Proactor模式中,事件處理者(或者代由事件分離者發起)直接發起一個異步讀寫操作(相當于請求),而實際的工作是由作業系統來完成的。發起 時,需要提供的參數包括用于存放讀到資料的緩存區,讀的資料大小,或者用于存放外發資料的緩存區,以及這個請求完後的回調函數等資訊。事件分離者得知了這 個請求,它默默等待這個請求的完成,然後轉發完成事件給相應的事件處理者或者回調。舉例來說,在Windows上事件處理者投遞了一個異步IO操作(稱有 overlapped的技術),事件分離者等IOCompletion事件完成[

]. 這種異步模式的典型實作是基于作業系統底層異步API的,是以我們可稱之為“系統級别”的或者“真正意義上”的異步,因為具體的讀寫是由作業系統代勞的。

舉另外個例子來更好地了解Reactor與Proactor兩種模式的差別。這裡我們隻關注read操作,因為write操作也是差不多的。下面是Reactor的做法:

  • 某個事件處理者宣稱它對某個socket上的讀事件很感興趣;
  • 事件分離者等着這個事件的發生;
  • 當事件發生了,事件分離器被喚醒,這負責通知先前那個事件處理者;
  • 事件處理者收到消息,于是去那個socket上讀資料了. 如果需要,它再次宣稱對這個socket上的讀事件感興趣,一直重複上面的步驟;

下面再來看看真正意義的異步模式Proactor是如何做的:

  • 事件處理者直接投遞發一個寫操作(當然,作業系統必須支援這個異步操作). 這個時候,事件處理者根本不關心讀事件,它隻管發這麼個請求,它魂牽夢萦的是這個寫操作的完成事件。這個處理者很拽,發個指令就不管具體的事情了,隻等着别人(系統)幫他搞定的時候給他回個話。
  • 事件分離者等着這個讀事件的完成(比較下與Reactor的不同);
  • 當事件分離者默默等待完成事情到來的同時,作業系統已經在一邊開始幹活了,它從目标讀取資料,放入使用者提供的緩存區中,最後通知事件分離者,這個事情我搞完了;
  • 事件分享者通知之前的事件處理者: 你吩咐的事情搞定了;
  • 事件處理者這時會發現想要讀的資料已經乖乖地放在他提供的緩存區中,想怎麼處理都行了。如果有需要,事件處理者還像之前一樣發起另外一個寫操作,和上面的幾個步驟一樣。

現行做法

開源C++開發架構 ACE[

](Douglas Schmidt, et al.開發) 提供了大量平台獨立的底層并發支援類(線程、互斥量等). 同時在更高一層它也提供了獨立的幾組C++類,用于實作Reactor及Proactor模式。 盡管它們都是平台獨立的單元,但他們都提供了不同的接口.

ACE Proactor在MS-Windows上無論是性能還在健壯性都更勝一籌,這主要是由于Windows提供了一系列高效的底層異步API. [

4 5

].

(這段可能過時了點吧) 不幸的是,并不是所有作業系統都為底層異步提供健壯的支援。舉例來說, 許多Unix系統就有麻煩.是以, ACE Reactor可能是Unix系統上更合适的解決方案. 正因為系統底層的支援力度不一,為了在各系統上有更好的性能,開發者不得不維護獨立的好幾份代碼: 為Windows準備的ACE Proactor以及為Unix系列提供的ACE Reactor.

就像我們提到過的,真正的異步模式需要作業系統級别的支援。由于事件處理者及作業系統互動的差異,為Reactor和Proactor設計一種通用統一的外部接口是非常困難的。這也是設計通行開發架構的難點所在。

更好的解決方案

在文章這一段時,我們将嘗試提供一種融合了Proactor和Reactor兩種模式的解決方案. 為了示範這個方案,我們将Reactor稍做調整,模拟成異步的Proactor模型(主要是在事件分離器裡完成本該事件處理者做的實際讀寫工作,我們稱這種方法為"模拟異步")。 下面的示例可以看看read操作是如何完成的:

  • 事件處理者宣稱對讀事件感興趣,并提供了用于存儲結果的緩存區、讀資料長度等參數;
  • 調試者等待(比如通過select());
  • 當有事件到來(即可讀),調試者被喚醒, 調試者去執行非阻塞的讀操作(前面事件處理者已經給了足夠的資訊了)。讀完後,它去通知事件處理者。
  • 事件處理者這時被知會讀操作已完成,它擁有完整的原先想要擷取的資料了.

我們看到,通過為分離者(也就上面的調試者)添加一些功能,可以讓Reactor模式轉換為Proactor模式。所有這些被執行的操作,其實是和 Reactor模型應用時完全一緻的。我們隻是把工作打散配置設定給不同的角色去完成而已。這樣并不會有額外的開銷,也不會有性能上的的損失,我們可以再仔細 看看下面的兩個過程,他們實際上完成了一樣的事情:

标準的經典的 Reactor模式:

  • 步驟 1) 等待事件 (Reactor 的工作)
  • 步驟 2) 發"已經可讀"事件發給事先注冊的事件處理者或者回調 ( Reactor 要做的)
  • 步驟 3) 讀資料 (使用者代碼要做的)
  • 步驟 4) 處理資料 (使用者代碼要做的)

模拟的Proactor模式:

  • 步驟 1) 等待事件 (Proactor 的工作)
  • 步驟 2) 讀資料(看,這裡變成成了讓 Proactor 做這個事情)
  • 步驟 3) 把資料已經準備好的消息給使用者處理函數,即事件處理者(Proactor 要做的)

在沒有底層異步I/O API支援的作業系統,這種方法可以幫我們隐藏掉socket接口的差異(無論是性能還是其它), 提供一個完全可用的統一"異步接口"。這樣我們就可以開發真正平台獨立的通用接口了。

TProactor

我們提出的TProactor方案已經由TerabitP/L [

6

]公司實作了. 它有兩種實作: C++的和Java的.C++版本使用了ACE平台獨立的底層元件,最終在所有作業系統上提供了統一的異步接口。

TProactor中最重要的元件要數Engine和WaitStrategy了. Engine用于維護異步操作的生命周期;而WaitStrategy用于管理并發政策. WaitStrategy和Engine一般是成對出現的, 兩者間提供了良好的比對接口.

Engines和等待政策被設計成高度可組合的(完整的實作清單請參照附錄1)。TProactor是高度可配置的方案,通過使用異步核心API和同步Unix API(select(), poll(), /dev/poll (Solaris 5.8+), port_get (Solaris 5.10),RealTime (RT) signals (Linux 2.4+), epoll (Linux 2.6), k-queue (FreeBSD) ),它内部實作了三種引擎(POSIX AIO, SUN AIO and Emulated AIO)并隐藏了六類等待政策。TProactor實作了和标準的 ACE Proactor一樣的接口。這樣一來,為不同平台提供通用統一的隻有一份代碼的跨平台解決方案成為可能。

Engines和WaitStrategies可以像樂高積木一樣自由地組合,開發者可以在運作時通過配置參數來選擇合适的内部機制(引擎和等待政策)。 可以根據需求設定配置,比如連接配接數,系統伸縮性,以及運作的作業系統等。如果系統支援相應的異步底層API,開發人員可以選擇真正的異步政策,否則使用者也 可以選擇使用模拟出來的異步模式。所有這一切政策上的實作細節都不太需要關注,我們看到的是一個可用的異步模型。

舉例來說,對于運作在Sun Solaris上的HTTP伺服器,如果需要支援大量的連接配接數,/dev/poll或者port_get()之類的引擎是比較合适的選擇;如果需要高吞吐 量,那使用基本select()的引擎會更好。由于不同選擇政策内在算法的問題,像這樣的彈性選擇是标準ACE Reactor/Proactor模式所無法提供的(見附錄2)。

在性能方面,我們的測試顯示,模拟異步模式并未造成任何開銷,沒有變慢,反倒是性能有所提升。根據我們的測試結果,TProactor相較标簽的ACE Reactor在Unix/Linux系統上有大約10-35%性能提升,而在Windows上差不多(測試了吞吐量及響應時間)。

性能比較 (JAVA / C++ / C#).

除了C++,我們也在Java中實作了TProactor. JDK1.4中, Java僅提供了同步方法, 像C中的select() [

7 8

]. Java TProactor基于Java的非阻塞功能(java.nio包),類似于C++的TProactor使用了select()引擎.

圖1、2顯示了以 bits/sec為機關的傳輸速度以及相應的連接配接數。這些圖比較了以下三種方式實作的echo伺服器:标準ACE Reactor實作(基于RedHat Linux9.0)、TProactor C++/Java實作(Microsoft Windows平台及RedHat v9.0), 以及C#實作。測試的時候,三種伺服器使用相同的用戶端瘋狂地連接配接,不間斷地發送固定大小的資料包。

這幾組測試是在相同的硬體上做的,在不同硬體上做的相對結果對比也是類似。

圖 1. Windows XP/P4 2.6GHz HyperThreading/512 MB RAM.

圖 2. Linux RedHat 2.4.20-smp/P4 2.6GHz HyperThreading/512 MB RAM.

使用者代碼示例

下面是TProactor Java實作的echo伺服器代碼架構。總的來說,開發者隻需要實作兩個接口:一是OpRead,提供存放讀結果的緩存;二是OpWrite,提供存儲待 寫資料的緩存區。同時,開發者需要通過回調onReadComplated()和onWriteCompleted()實作協定相關的業務代碼。這些回調 會在合适的時候被調用.

class EchoServerProtocol implements AsynchHandler

{


AsynchChannel achannel = null;


EchoServerProtocol( Demultiplexor m,  SelectableChannel channel ) 

throws Exception

{

this.achannel = new AsynchChannel( m, this, channel );

}


public void start() throws Exception

{

// called after construction

System.out.println( Thread.currentThread().getName() + 

": EchoServer protocol started" );

achannel.read( buffer);

}


public void onReadCompleted( OpRead opRead ) throws Exception

{

if ( opRead.getError() != null )

{

// handle error, do clean-up if needed

System.out.println( "EchoServer::readCompleted: " + 

opRead.getError().toString());

achannel.close();

return;

}


if ( opRead.getBytesCompleted () <= 0)

{

System.out.println("EchoServer::readCompleted: Peer closed " 

+ opRead.getBytesCompleted();

achannel.close();

return;

}


ByteBuffer buffer = opRead.getBuffer();


achannel.write(buffer);

}


public void onWriteCompleted(OpWrite opWrite) 

throws Exception

{

// logically similar to onReadCompleted

...

}

}      

結束語

TProactor為多個平台提供了一個通用、彈性、可配置的高性能通訊元件,所有那些在附錄2中提到的問題都被很好地隐藏在内部實作中了。

從上面的圖中我們可以看出C++仍舊是編寫高性能伺服器最佳選擇,雖然Java已緊随其後。然而因為Java本身實作上的問題,其在Windows上表現不佳(這已經應該成為曆史了吧)。

需要注意的是,以上針對Java的測試,都是以裸資料的形式測試的,未涉及到資料的處理(影響性能)。

縱觀AIO在Linux上的快速發展[

9

], 我們可以預計Linux核心API将會提供大量更加強健的異步API, 如此一來以後基于此而實作的新的Engine/等待政策将能輕松地解決能用性方面的問題,并且這也能讓标準ACE Proactor接口受益。

附錄 I

TProactor中實作的Engines 和 等待政策

引擎類型 等待政策 作業系統
POSIX_AIO (true async)

aio_read()

/

aio_write()

aio_suspend() Waiting for RT signal Callback function

POSIX complained UNIX (not robust)

POSIX (not robust)

SGI IRIX, LINUX (not robust)

SUN_AIO (true async)

aio_read()

aio_write()

aio_wait()

SUN (not robust)

Emulated Async

Non-blocking 

read()

write()

select()

poll()

/dev/poll

Linux RT signals

Kqueue

generic POSIX

Mostly all POSIX implementations

SUN

Linux

FreeBSD

附錄 II

所有同步等待政策可劃分為兩組:

  • edge-triggered (e.g. Linux實時信号) - signal readiness only when socket became ready (changes state);
  • level-triggered (e.g. 

    select()

    poll()

    , /dev/poll) - readiness at any time.

讓我們看看這兩組的一些普遍的邏輯問題:

  • edge-triggered group: after executing I/O operation, the demultiplexing loop can lose the state of socket readiness. Example: the "read" handler did not read whole chunk of data, so the socket remains still ready for read. But the demultiplexor loop will not receive next notification.
  • level-triggered group: when demultiplexor loop detects readiness, it starts the write/read user defined handler. But before the start, it should remove socket descriptior from theset of monitored descriptors. Otherwise, the same event can be dispatched twice.
  • Obviously, solving these problems adds extra complexities to development. All these problems were resolved internally within TProactor and the developer should not worry about those details, while in the synch approach one needs to apply extra effort to resolve them.

資源

[1] Douglas C. Schmidt, Stephen D. Huston "C++ Network Programming." 2002, Addison-Wesley ISBN 0-201-60464-7

[2] W. Richard Stevens "UNIX Network Programming" vol. 1 and 2, 1999, Prentice Hill, ISBN 0-13- 490012-X

[3] Douglas C. Schmidt, Michael Stal, Hans Rohnert, Frank Buschmann "Pattern-Oriented Software Architecture: Patterns for Concurrent and Networked Objects, Volume 2" Wiley & Sons, NY 2000

[4] INFO: Socket Overlapped I/O Versus Blocking/Non-blocking Mode. Q181611. Microsoft Knowledge Base Articles.

[5] Microsoft MSDN. I/O Completion Ports.

http://msdn.microsoft.com/library/default.asp?url=/library/en- us/fileio/fs/i_o_completion_ports.asp

[6] TProactor (ACE compatible Proactor).

www.terabit.com.au

[7] JavaDoc java.nio.channels

http://java.sun.com/j2se/1.4.2/docs/api/java/nio/channels/package-summary.html

[8] JavaDoc Java.nio.channels.spi Class SelectorProvider 

http://java.sun.com/j2se/1.4.2/docs/api/java/nio/channels/spi/SelectorProvider.html

[9] Linux AIO development 

http://lse.sourceforge.net/io/aio.html

, and

http://archive.linuxsymposium.org/ols2003/Proceedings/All-Reprints/Reprint-Pulavarty-OLS2003.pdf

更多

Ian Barile "I/O Multiplexing & Scalable Socket Servers", 2004 February, DDJ 

Further reading on event handling

- http://www.cs.wustl.edu/~schmidt/ACE-papers.html

The Adaptive Communication Environment

http://www.cs.wustl.edu/~schmidt/ACE.html

Terabit Solutions

http://terabit.com.au/solutions.php

關于作者

Alex Libman has been programming for 15 years. During the past 5 years his main area of interest is pattern-oriented multiplatform networked programming using C++ and Java. He is big fan and contributor of ACE.

Vlad Gilbourd works as a computer consultant, but wishes to spend more time listening jazz :) As a hobby,he started and runs 

www.corporatenews.com.au

 website.