天天看點

twitter技術架構

随着資訊爆炸的加劇,微部落格網站Twitter橫空出世了。用橫空出世這個詞來形容Twitter的成長,并不誇張。從2006年5月Twitter上線,到2007年12月,一年半的時間裡,Twitter使用者數從0增長到6.6萬。又過了一年,2008年12月,Twitter的使用者數達到5百萬。[1]

Twitter網站的成功,先決條件是能夠同時給千萬使用者提供服務,而且提供服務的速度要快。[2,3,4]

有觀點認為,Twitter的業務邏輯簡單,是以競争門檻低。前半句正确,但是後半句有商榷餘地。Twitter的競争力,離不開嚴謹的系統架構設計。

【1】萬事開頭易

Twitter的核心業務邏輯,在于Following和Be followed。[5]

進入Twitter個人首頁,你會看到你following的那些作者,最近發表的微部落格。所謂微部落格,就是一則短信,Twitter規定,短信的長度不得超過140個字。短信不僅可以包含普通文字資訊,也可以包含URL,指向某個網頁,或者照片及視訊等等。這就是following的過程。

當你寫了一則短信并發表以後,你的followers會立刻在他們的個人首頁中看到你寫的最新短信。這就是be followed的過程。

實作這個業務流程似乎很容易。

1. 為每一個注冊使用者訂制一個Be-followed的表,主要内容是每一個follower的ID。同時,也訂制一個Following的表,主要内容是每一個following作者的ID。

2. 當使用者打開自己的個人空間時,Twitter先查閱Following表,找到所有following的作者的ID。然後去資料庫讀取每一位作者最近寫的短信。彙總後按時間順序顯示在使用者的個人首頁上。

3. 當使用者寫了一則短信時,Twitter先查閱Be-followed表,找到所有followers的IDs。然後逐個更新那些followers的首頁。

如果有follower正在閱讀他的Twitter個人首頁,首頁裡暗含的JavaScript會自動每隔幾十秒,通路一下Twitter伺服器,檢查正在看的這個個人首頁是否有更新。如果有更新,立刻下載下傳新的首頁内容。這樣follower就能讀到最新發表的短信了。

從作者發表到讀者擷取,中間的延遲,取決于JavaScript更新的間隔,以及Twitter伺服器更新每個follower的首頁的時間。

從系統架構上來說,似乎傳統的三段論(Three-tier architecture [6]),足夠滿足這個業務邏輯的需要。事實上,最初的Twitter系統架構,的确就是三段論。

Reference:

[1] Fixing Twitter. (http://www.bookfm.com/courseware/coursewaredetail.html?cid=100777)

[2] Twitter blows up at SXSW conference. (http://gawker.com/tech/next-big-thing/twitter-blows-up-at-sxsw-conference-243634.php)

[3] First Hand Accounts of Terrorist Attacks in India on Twitter and Flickr. (http://www.techcrunch.com/2008/11/26/first-hand-accounts-of-terrorist-attacks-in-india-on-twitter/)

[4] Social Media Takes Center Stage in Iran. (http://www.findingdulcinea.com/news/technology/2009/June/Twitter-on-Iran-a-Go-to-Source-or-Almost-Useless.html)

[5] Twitter的這些那些. (http://www.ccthere.com/article/2363334) (http://www.ccthere.com/article/2369092)

[6] Three tier architecture. http://en.wikipedia.org/wiki/Multitier_architecture

【2】三段論

網站的架構設計,傳統的做法是三段論。所謂“傳統的”,并不等同于“過時的”。大型網站的架構設計,強調實用。新潮的設計,固然吸引人,但是技術可能不成熟,風險高。是以,很多大型網站,走的是穩妥的傳統的路子。

2006年5月Twitter剛上線的時候,為了簡化網站的開發,他們使用了Ruby-On-Rails工具,而Ruby-On-Rails的設計思想,就是三段論。

1. 前段,即表述層(Presentation Tier) 用的工具是Apache Web Server,主要任務是解析HTTP協定,把來自不同使用者的,不同類型的請求,分發給邏輯層。

2. 中段,即邏輯層 (Logic Tier)用的工具是Mongrel Rails Server,利用Rails現成的子產品,降低開發的工作量。

3. 後段,即資料層 (Data Tier) 用的工具是MySQL 資料庫。

先說後段,資料層。

Twitter 的服務,可以概括為兩個核心,1. 使用者,2. 短信。使用者與使用者之間的關系,是追與被追的關系,也就是Following和Be followed。對于一個使用者來說,他隻讀自己“追”的那些人寫的短信。而他自己寫的短信,隻有那些“追”自己的人才會讀。抓住這兩個核心,就不難了解 Twitter的其它功能是如何實作的[7]。

圍繞這兩個核心,就可以着手設計Data Schema,也就是存放在資料層(Data Tier)中的資料的組織方式。不妨設定三個表[8],

1. 使用者表:使用者ID,姓名,登入名和密碼,狀态(線上與否)。

2. 短信表:短信ID,作者ID,正文(定長,140字),時間戳。

3. 使用者關系表,記錄追與被追的關系:使用者ID,他追的使用者IDs (Following),追他的使用者IDs (Be followed)。

再說中段,邏輯層。

當使用者發表一條短信的時候,執行以下五個步驟,

1. 把該短信記錄到“短信表” 中去。

2. 從“使用者關系表”中取出追他的使用者的IDs。

3. 有些追他的使用者目前線上,另一些可能離線。線上與否的狀态,可以在“使用者表”中查到。過濾掉那些離線的使用者的IDs。

4. 把那些追他的并且目前線上的使用者的IDs,逐個推進一個隊列(Queue)中去。

5. 從這個隊列中,逐個取出那些追他的并且目前線上的使用者的IDs,并且更新這些人的首頁,也就是添加最新發表的這條短信。

以上這五個步驟,都由邏輯層(Logic Tier)負責。前三步容易解決,都是簡單的資料庫操作。最後兩步,需要用到一個輔助工具,隊列。隊列的意義在于,分離了任務的産生與任務的執行。

隊列的實作方式有多種,例如Apache Mina[9]就可以用來做隊列。但是Twitter團隊自己動手實作了一個隊列,Kestrel [10,11]。Mina與Kestrel,各自有什麼優缺點,似乎還沒人做過詳細比較。

不管是Kestrel還是Mina,看起來都很複雜。或許有人問,為什麼不用簡單的資料結構來實作隊列,例如動态連結清單,甚至靜态數組?如果邏輯層隻在一台伺服器上運作,那麼對動态連結清單和靜态數組這樣的簡單的資料結構,稍加改造,的确可以當作隊列使用。Kestrel和Mina這些“重量級”的隊列,意義在于支援聯絡多台機器的,分布式的隊列。在本系列以後的篇幅中,将會重點介紹。

最後說說前段,表述層。

表述層的主要職能有兩 個,1. HTTP協定處理器(HTTP Processor),包括拆解接收到的使用者請求,以及封裝需要發出的結果。2. 分發器(Dispatcher),把接收到的使用者請求,分發給邏輯層的機器處理。如果邏輯層隻有一台機器,那麼分發器無意義。但是如果邏輯層由多台機器組成,什麼樣的請求,發給邏輯層裡面哪一台機器,就大有講究了。邏輯層裡衆多機器,可能各自專門負責特定的功能,而在同功能的機器之間,要分攤工作,使負載均衡。

通路Twitter網站的,不僅僅是浏覽器,而且還有手機,還有像QQ那樣的電腦桌面工具,另外還有各式各樣的網站插件,以便把其它網站聯系到Twitter.com上來[12]。是以,Twitter的通路者與Twitter網站之間的通訊協定,不一定是HTTP,也存在其它協定。

三段論的Twitter架構,主要是針對HTTP協定的終端。但是對于其它協定的終端,Twitter的架構沒有明顯地劃分成三段,而是把表述層和邏輯層合二為一,在Twitter的文獻中,這二合一經常被稱為“API”。

綜上所述,一個能夠完成Twitter基本功能的,簡單的架構如Figure 1 所示。或許大家會覺得疑惑,這麼出名的網站,架構就這麼簡單?Yes and No,2006年5月Twitter剛上線的時候,Twitter架構與Figure 1差距不大,不一樣的地方在于加了一些簡單的緩存(Cache)。即便到了現在,Twitter的架構依然可以清晰地看到Figure 1 的輪廓。

twitter技術架構

Figure 1. The essential 3-tier of Twitter architecture

Courtesy http://alibuybuy-img1011.stor.sinaapp.com/2010/11/d22c_4051785892_e677ae9d33_o.png

Reference,

[7] Tweets中常用的工具 (http://www.ccthere.com/article/2383833)

[8] 建構基于PHP的微部落格服務 (http://webservices.ctocio.com.cn/188/9092188.shtml)

[9] Apache Mina Homepage (http://mina.apache.org/)

[10] Kestrel Readme (http://github.com/robey/kestrel)

[11] A Working Guide to Kestrel. (http://github.com/robey/kestrel/blob/master/docs/guide.md)

[12] Alphabetical List of Twitter Services and Applications (http://en.wikipedia.org/wiki/List_of_Twitter_services_and_applications)

【3】Cache == Cash

Cache == Cash,緩存等于現金收入。雖然這話有點誇張,但是正确使用緩存,對于大型網站的建設,是至關重要的大事。網站在回應使用者請求時的反應速度,是影響使用者體驗的一大因素。而影響速度的原因有很多,其中一個重要的原因在于硬碟的讀寫(Disk IO)。

Table 1 比較了記憶體(RAM),硬碟(Disk),以及新型的閃存(Flash),在讀寫方面的速度比較。硬碟的讀寫,速度比記憶體的慢了百萬倍。是以,要提高網站的速度,一個重要措施是盡可能把資料緩存在記憶體裡。當然,在硬碟裡也必須保留一個拷貝,以此防範萬一由于斷電,記憶體裡的資料丢失的情況發生。

twitter技術架構

Table 1. Storage media comparison of Disk, Flash and RAM [13]

Courtesy http://alibuybuy-img1011.stor.sinaapp.com/2010/11/9d42_4060534279_f575212c12_o.png

Twitter 工程師認為,一個使用者體驗良好的網站,當一個使用者請求到達以後,應該在平均500ms以内完成回應。而Twitter的理想,是達到200ms- 300ms的反應速度[17]。是以在網站架構上,Twitter大規模地,多層次多方式地使用緩存。Twitter在緩存使用方面的實踐,以及從這些實踐中總結出來的經驗教訓,是Twitter網站架構的一大看點。

twitter技術架構

Figure 2. Twitter architecture with Cache

Courtesy http://alibuybuy-img1011.stor.sinaapp.com/2010/11/0ea9_4065827637_bb2ccc8e3f_o.png

哪裡需要緩存?越是Disk IO頻繁的地方,越需要緩存。

前面說到,Twitter業務的核心有兩個,使用者和短信(Tweet)。圍繞這兩個核心,資料庫中存放着若幹表,其中最重要的有三個,如下所示。這三個表的設定,是旁觀者的猜測,不一定與Twitter的設定完全一緻。但是萬變不離其宗,相信即便有所不同,也不會本質差別。

1. 使用者表:使用者ID,姓名,登入名和密碼,狀态(線上與否)。

2. 短信表:短信ID,作者ID,正文(定長,140字),時間戳。

3. 使用者關系表,記錄追與被追的關系:使用者ID,他追的使用者IDs (Following),追他的使用者IDs (Be followed)。

有沒有必要把這幾個核心的資料庫表統統存放到緩存中去?Twitter的做法是把這些表拆解,把其中讀寫最頻繁的列放進緩存。

1. Vector Cache and Row Cache

具體來說,Twitter工程師認為最重要的列是IDs。即新發表的短信的IDs,以及被頻繁閱讀的熱門短信的IDs,相關作者的IDs,以及訂閱這些作者的讀者的IDs。把這些IDs存放進緩存 (Stores arrays of tweet pkeys [14])。在Twitter文獻中,把存放這些IDs的緩存空間,稱為Vector Cache [14]。

Twitter工程師認為,讀取最頻繁的内容是這些IDs,而短信的正文在其次。是以他們決定,在優先保證Vector Cache所需資源的前提下,其次重要的工作才是設立Row Cache,用于存放短信正文。

命中率(Hit Rate or Hit Ratio)是測量緩存效果的最重要名額。如果一個或者多個使用者讀取100條内容,其中99條内容存放在緩存中,那麼緩存的命中率就是99%。命中率越高,說明緩存的貢獻越大。

設立Vector Cache和Row Cache後,觀測實際運作的結果,發現Vector Cache的命中率是99%,而Row Cache的命中率是95%,證明了Twitter工程師早先押注的,先IDs後正文的判斷。

Vector Cache和Row Cache,使用的工具都是開源的MemCached [15]。

2. Fragment Cache and Page Cache

前文說到,通路Twitter網站的,不僅僅是浏覽器,而且還有手機,還有像QQ那樣的電腦桌面工具,另外還有各式各樣的網站插件,以便把其它網站聯系到Twitter.com上來[12]。接待這兩類使用者的,是以Apache Web Server為門戶的Web通道,以及被稱為“API”的通道。其中API通道受理的流量占總流量的80%-90% [16]。

是以,繼Vector Cache和Row Cache以後,Twitter工程師們把進一步建築緩存的工作,重點放在如何提高API通道的反應速度上。

讀者頁面的主體,顯示的是一條又一條短信。不妨把整個頁面分割成若幹局部,每個局部對應一條短信。所謂Fragment,就是指頁面的局部。除短信外,其它内容例如Twitter logo等等,也是Fragment。如果一個作者擁有衆多讀者,那麼緩存這個作者寫的短信的布局頁面(Fragment),就可以提高網站整體的讀取效率。這就是Fragment Cache的使命。

對于一些人氣很旺的作者,讀者們不僅會讀他寫的短信,而且會通路他的首頁,是以,也有必要緩存這些人氣作者的個人首頁。這就是Page Cache的使命。

Fragment Cache和Page Cache,使用的工具也是MemCached。

觀測實際運作的結果,Fragment Cache的命中率高達95%,而Page Cache的命中率隻有40%。雖然Page Cache的命中率低,但是它的内容是整個個人首頁,是以占用的空間卻不小。為了防止Page Cache争奪Fragment Cache的空間,在實體部署時,Twitter工程師們把Page Cache分離到不同的機器上去。

3. HTTP Accelerator

解決了API通道的緩存問題,接下去Twitter工程師們着手處理Web通道的緩存問題。經過分析,他們認為Web通道的壓力,主要來自于搜尋。尤其是面臨突發事件時,讀者們會搜尋相關短信,而不理會這些短信的作者,是不是自己“追”的那些作者。

要降低搜尋的壓力,不妨把搜尋關鍵詞,及其對應的搜尋結果,緩存起來。Twitter工程師們使用的緩存工具,是開源項目Varnish [18]。

比較有趣的事情是,通常把Varnish部署在Web Server之外,面向Internet的位置。這樣,當使用者通路網站時,實際上先通路Varnish,讀取所需内容。隻有在Varnish沒有緩存相應内容時,使用者請求才被轉發到Web Server上去。而Twitter的部署,卻是把Varnish放在Apache Web Server内側[19]。原因是Twitter的工程師們覺得Varnish的操作比較複雜,為了降低Varnish崩潰造成整個網站癱瘓的可能性,他們便采取了這種古怪而且保守的部署方式。

Apache Web Server的主要任務,是解析HTTP,以及分發任務。不同的Mongrel Rails Server負責不同的任務,但是絕大多數Mongrel Rails Server,都要與Vector Cache和Row Cache聯系,讀取資料。Rails Server如何與MemCached聯系呢?Twitter工程師們自行開發了一個Rails插件(Gem),稱為CacheMoney。

雖然Twitter沒有公開Varnish的命中率是多少,但是[17]聲稱,使用了Varnish以後,導緻整個Twitter.com網站的負載下降了50%,參見Figure 3.

twitter技術架構

Figure 3. Cache decreases Twitter.com load by 50% [17]

Courtesy http://alibuybuy-img1011.stor.sinaapp.com/2010/11/0b3a_4061273900_2d91c94374_o.png

Reference,

[12] Alphabetical List of Twitter Services and Applications.

(http://en.wikipedia.org/wiki/List_of_Twitter_services_and_applications)

[13] How flash changes the DBMS world.

(http://hansolav.net/blog/content/binary/HowFlashMemory.pdf)

[14] Improving running component of Twitter.

(http://qconlondon.com/london-2009/file?path=/qcon-london-2009/slides/

EvanWeaver_ImprovingRunningComponentsAtTwitter.pdf)

[15] A high-performance, general-purposed, distributed memory object caching system.

(http://www.danga.com/memcached/)

[16] Updating Twitter without service disruptions.

(http://gojko.net/2009/03/16/qcon-london-2009-upgrading-twitter-without-service-disruptions/)

[17] Fixing Twitter. (http://assets.en.oreilly.com/1/event/29/

Fixing_Twitter_Improving_the_Performance_and_Scalability_of_the_World_s_

Most_Popular_Micro-blogging_Site_Presentation%20Presentation.pdf)

[18] Varnish, a high-performance HTTP accelerator.

(http://varnish.projects.linpro.no/)

[19] How to use Varnish in Twitter.com?

(http://projects.linpro.no/pipermail/varnish-dev/2009-February/000968.html)

[20] CacheMoney Gem, an open-source write-through caching library.

(http://github.com/nkallen/cache-money)

【4】抗洪需要隔離

如果說如何巧用Cache是Twitter的一大看點,那麼另一大看點是它的消息隊列(Message Queue)。為什麼要使用消息隊列?[14]的解釋是“隔離使用者請求與相關操作,以便燙平流量高峰 (Move operations out of the synchronous request cycle, amortize load over time)”。

為了了解這段話的意思,不妨來看一個執行個體。2009年1月20日星期二,美國總統Barack Obama就職并發表演說。作為美國曆史上第一位黑人總統,Obama的就職典禮引起強烈反響,導緻Twitter流量猛增,如Figure 4 所示。

twitter技術架構

Figure 4. Twitter burst during the inauguration of Barack Obama, 1/20/2009, Tuesday

Courtesy http://alibuybuy-img1011.stor.sinaapp.com/2010/11/d594_4071879010_19fb519124_o.png

其中洪峰時刻,Twitter網站每秒鐘收到350條新短信,這個流量洪峰維持了大約5分鐘。根據統計,平均每個Twitter使用者被120人“追”,這就 是說,這350條短信,平均每條都要發送120次 [16]。這意味着,在這5分鐘的洪峰時刻,Twitter網站每秒鐘需要發送350 x 120 = 42,000條短信。

面對洪峰,如何才能保證網站不崩潰?辦法是迅速接納,但是推遲服務。打個比方,在晚餐高峰時段,餐館常常客滿。對于新來的顧客,餐館服務員不是拒之門外,而是讓這些顧客在休息廳等待。這就是[14] 所說的 “隔離使用者請求與相關操作,以便燙平流量高峰”。

如何實施隔離呢?當一位使用者通路Twitter網站時,接待他的是Apache Web Server。Apache做的事情非常簡單,它把使用者的請求解析以後,轉發給Mongrel Rails Sever,由Mongrel負責實際的處理。而Apache騰出手來,迎接下一位使用者。這樣就避免了在洪峰期間,使用者連接配接不上Twitter網站的尴尬局面。

雖然Apache的工作簡單,但是并不意味着Apache可以接待無限多的使用者。原因是Apache解析完使用者請求,并且轉發給 Mongrel Server以後,負責解析這個使用者請求的程序(process),并沒有立刻釋放,而是進入空循環,等待Mongrel Server傳回結果。這樣,Apache能夠同時接待的使用者數量,或者更準确地說,Apache能夠容納的并發的連接配接數量(concurrent connections),實際上受制于Apache能夠容納的程序數量。Apache系統内部的程序機制參見Figure 5,其中每個Worker代表一個程序。

Apache能夠容納多少個并發連接配接呢?[22]的實驗結果是4,000個,參見Figure 6。如何才能提高Apache的并發使用者容量呢?一種思路是不讓連接配接受制于程序。不妨把連接配接作為一個資料結構,存放到記憶體中去,釋放程序,直到 Mongrel Server傳回結果時,再把這個資料結構重新加載到程序上去。

事實上Yaws Web Server[24],就是這麼做的[23]。是以,Yaws能夠容納80,000以上的并發連接配接,這并不奇怪。但是為什麼Twitter用 Apache,而不用Yaws呢?或許是因為Yaws是用Erlang語言寫的,而Twitter工程師對這門新語言不熟悉 (But you need in house Erlang experience [17])。

twitter技術架構

Figure 5. Apache web server system architecture [21]

Courtesy http://alibuybuy-img1011.stor.sinaapp.com/2010/11/3b81_4071355801_db6c8cd6c0_o.png

twitter技術架構

Figure 6. Apache vs. Yaws.

The horizonal axis shows the parallel requests,

the vertical one shows the throughput (KBytes/second).

The red curve is Yaws, running on NFS.

The blue one is Apache, running on NFS,

while the green one is also Apache but on a local file system.

Apache dies at about 4,000 parallel sessions,

while Yaws is still functioning at over 80,000 parallel connections. [22]

Courtesy http://alibuybuy-img1011.stor.sinaapp.com/2010/11/8fa1_4072077210_3c3a507a8a_o.jpg

Reference,

[14] Improving running component of Twitter.

(http://qconlondon.com/london-2009/file?path=/qcon-london-

2009/slides/EvanWeaver_ImprovingRunningComponentsAtTwitter.pdf)

[16] Updating Twitter without service disruptions.

(http://gojko.net/2009/03/16/qcon-london-2009-upgrading-

twitter-without-service-disruptions/)

[17] Fixing Twitter. (http://assets.en.oreilly.com/1/event/29/Fixing_Twitter_

Improving_the_Performance_and_Scalability_of_the_World_s_Most_Popular_

Micro-blogging_Site_Presentation%20Presentation.pdf)

[21] Apache system architecture.

(http://www.fmc-modeling.org/download/publications/

groene_et_al_2002-architecture_recovery_of_apache.pdf)

[22] Apache vs Yaws. (http://www.sics.se/~joe/apachevsyaws.html)

[23] 質疑Apache和Yaws的性能比較. (http://www.javaeye.com/topic/107476)

[24] Yaws Web Server. (http://yaws.hyber.org/)

[25] Erlang Programming Language. (http://www.erlang.org/)

【5】資料流與控制流

通過讓Apache程序空循環的辦法,迅速接納使用者的通路,推遲服務,說白了是個緩兵之計,目的是讓使用者不至于收到“HTTP 503” 錯誤提示,“503錯誤” 是指 “服務不可用(Service Unavailable)”,也就是網站拒絕通路。

大禹治水,重在疏導。真正的抗洪能力,展現在蓄洪和洩洪兩個方面。蓄洪容易了解,就是建水庫,要麼建一個超大的水庫,要麼造衆多小水庫。洩洪包括兩個方面,1. 引流,2. 管道。

對于Twitter系統來說,龐大的伺服器叢集,尤其是以MemCached為主的衆多的緩存,展現了蓄洪的容量。引流的手段是Kestrel消息隊列,用于傳遞控制指令。管道是機器與機器之間的資料傳輸通道,尤其是通往MemCached的資料通道。管道的優劣,在于是否通暢。

Twitter的設計,與大禹的做法,形相遠,實相近。Twitter系統的抗洪措施,展現在有效地控制資料流,保證在洪峰到達時,能夠及時把資料疏散到多個機器上去,進而避免壓力過度集中,造成整個系統的癱瘓。

2009 年6月,Purewire公司通過爬Twitter網站,跟蹤Twitter使用者之間“追”與“被追”的關系,估算出Twitter使用者總量在 7,000,000左右 [26]。在這7百萬使用者中,不包括那些既不追别人,也不被别人追的孤立使用者。也不包括孤島人群,孤島内的使用者隻互相追與被追,不與外界聯系。如果加上這 些孤立使用者和孤島使用者群,目前Twitter的使用者總數,或許不會超過1千萬。

截止2009年3月,中國移動使用者數已達 4.7億戶[27]。如果中國移動的飛信[28] 和139說客[29] 也想往Twitter方向發展,那麼飛信和139的抗洪能力應該設計到多少呢?簡單講,需要把Twitter系統的現有規模,至少放大47倍。是以,有人 這樣評論移動網際網路産業,“在中國能做到的事情,在美國一定能做到。反之,不成立”。

但是無論如何,他山之石可以攻玉。這就是我們研究Twitter的系統架構,尤其是它的抗洪機制的目的。

twitter技術架構

Figure 7. Twitter internal flows

Courtesy http://alibuybuy-img1011.stor.sinaapp.com/2010/11/fe8f_4095392354_66bd4bcc30_o.png

下面舉個簡單的例子,剖析一下Twitter網站内部的流程,借此考察Twitter系統有哪些機制,去實作抗洪的三要素,“水庫”,“引流”和“管道”。

假設有兩個作者,通過浏覽器,在Twitter網站上發表短信。有一個讀者,也通過浏覽器,通路網站并閱讀他們寫的短信。

1. 作者的浏覽器與網站建立連接配接,Apache Web Server配置設定一個程序(Worker Process)。作者登入,Twitter查找作者的ID,并作為Cookie,記憶在HTTP郵包的頭屬性裡。

2. 浏覽器上傳作者新寫的短信(Tweet),Apache收到短信後,把短信連同作者ID,轉發給Mongrel Rails Server。然後Apache程序進入空循環,等待Mongrel的回複,以便更新作者首頁,把新寫的短信添加上去。

3. Mongrel收到短信後,給短信配置設定一個ID,然後把短信ID與作者ID,緩存到Vector MemCached伺服器上去。

同時,Mongrel讓Vector MemCached查找,有哪些讀者“追”這位作者。如果Vector MemCached沒有緩存這些資訊,Vector MemCached自動去MySQL資料庫查找,得到結果後,緩存起來,以備日後所需。然後,把讀者IDs回複給Mongrel。

接着,Mongrel把短信ID與短信正文,緩存到Row MemCached伺服器上去。

4. Mongrel通知Kestrel消息隊列伺服器,為每個作者及讀者開設一個隊列,隊列的名稱中隐含使用者ID。如果Kestrel伺服器中已經存在這些隊列,那就延用以往的隊列。

對應于每個短信,Mongrel已經從Vector MemCached那裡知道,有哪些讀者追這條短信的作者。Mongrel把這條短信的ID,逐個放進每位讀者的隊列,以及作者本人的隊列。

5. 同一台Mongrel Server,或者另一台Mongrel Server,在處理某個Kestrel隊列中的消息前,從這個隊列的名稱中解析出相應的使用者ID,這個使用者,既可能是讀者,也可能是作者。

然後Mongrel從Kestrel隊列中,逐個提取消息,解析消息中包含的短信ID。并從Row MemCached緩存器中,查找對應于這個短信ID的短信正文。

這時,Mongrel既得到了使用者的ID,也得到了短信正文。接下去Mongrel就着手更新使用者的首頁,添加上這條短信的正文。

6. Mongrel把更新後的作者的首頁,傳遞給正在空循環的Apache的程序。該程序把作者首頁主動傳送(push)給作者的浏覽器。

如果讀者的浏覽器事先已經登入Twitter網站,建立連接配接,那麼Apache給該讀者也配置設定了一個程序,該程序也處于空循環狀态。Mongrel把更新後的讀者的首頁,傳遞給相應程序,該程序把讀者首頁主動傳遞給讀者的浏覽器。

咋一看,流程似乎不複雜。“水庫”,“引流”和“管道”,這抗洪三要素展現在哪裡呢?盛名之下的Twitter,妙處何在?值得細究的看點很多。

Reference,

[26] Twitter user statistics by Purewire, June 2009.

(http://www.nickburcher.com/2009/06/twitter-user-statistics-purewire-report.html)

[27] 截止2009年3月,中國移動使用者數已達4.7億戶.

(http://it.sohu.com/20090326/n263018002.shtml)

[28] 中國移動飛信網. (http://www.fetion.com.cn/)

[29] 中國移動139說客網. (http://www.139.com/)

【6】流量洪峰與雲計算

上一篇曆數了一則短信從發表到被閱讀,Twitter業務邏輯所經曆的6個步驟。表面上看似乎很乏味,但是細細咀嚼,把每個步驟展開來說,都有一段故事。

美國年度橄榄球決賽,綽号超級碗(Super Bowl)。Super Bowl在美國的收視率,相當于中國的央視春節晚會。2008年2月3日,星期天,該年度Super Bowl如期舉行。紐約巨人隊(Giants),對陣波士頓愛國者隊(Patriots)。這是兩支實力相當的球隊,決賽結果難以預料。比賽吸引了近一億美國人觀看電視實況轉播。

對于Twitter來說,可以預料的是,比賽進行過程中,Twitter流量必然大漲。比賽越激烈,流量越高漲。Twitter無法預料的是,流量究竟會漲到多少,尤其是洪峰時段,流量會達到多少。

根據[31]的統計,在Super Bowl比賽進行中,每分鐘的流量與當日平均流量相比,平均高出40%。在比賽最激烈時,更高達150%以上。與一周前,2008年1月27日,一個平靜的星期天的同一時段相比,流量的波動從平均10%,上漲到40%,最高波動從35%,上漲到150%以上。

twitter技術架構

Figure 8. Twitter traffic during Super Bowl, Sunday, Feb 3, 2008 [31]. The blue line represents the percentage of updates per minute during the Super Bowl normalized to the average number of updates per minute during the rest of the day, with spikes annotated to show what people were twittering about. The green line represents the traffic of a “regular” Sunday, Jan 27, 2008.

Courtesy http://alibuybuy-img1011.stor.sinaapp.com/2010/11/d4fa_4085122087_970072e518_o.png

由此可見,Twitter流量的波動十分可觀。對于Twitter公司來說,如果預先購置足夠的裝置,以承受流量的變化,尤其是重大事件導緻的洪峰流量,那麼這些裝置在大部分時間處于閑置狀态,非常不經濟。但是如果缺乏足夠的裝置,那麼面對重大事件,Twitter系統有可能崩潰,造成的後果是使用者流失。

怎麼辦?辦法是變買為租。Twitter公司自己購置的裝置,其規模以應付無重大事件時的流量壓力為限。同時租賃雲計算平台公司的裝置,以應付重大事件來臨時的洪峰流量。租賃雲計算的好處是,計算資源實時配置設定,需求高的時候,自動配置設定更多計算資源。

Twitter公司在2008年以前,一直租賃Joyent公司的雲計算平台。在2008年2月3日的Super Bowl即将來臨之際,Joyent答應Twitter,在比賽期間免費提供額外的計算資源,以應付洪峰流量[32]。但是詭異的是,離大賽隻剩下不到4天,Twitter公司突然于1月30日晚10時,停止使用Joyent的雲計算平台,轉而投奔Netcraft [33,34]。

Twitter棄Joyent,投Netcraft,其背後的原因是商務糾葛,還是擔心Joyent的服務不可靠,至今仍然是個謎。

變買為租,應對洪峰,這是一個不錯的思路。但是租來的計算資源怎麼用,又是一個大問題。檢視一下[35],不難發現Twitter把租賃來的計算資源,大部分用于增加Apache Web Server,而Apache是Twitter整個系統的最前沿的環節。

為什麼Twitter很少把租賃來的計算資源,配置設定給Mongrel Rails Server,MemCached Servers,Varnish HTTP Accelerators等等其它環節?在回答這個問題以前,我們先複習一下前一章“資料流與控制流”的末尾,Twitter從寫到讀的6個步驟。

這6個步驟的前2步說到,每個通路Twitter網站的浏覽器,都與網站保持長連接配接。目的是一旦有人發表新的短信,Twitter網站在500ms以内,把新短信push給他的讀者。問題是在沒有更新的時候,每個長連接配接占用一個Apache的程序,而這個程序處于空循環。是以,絕大多數Apache程序,在絕大多數時間裡,處于空循環,是以占用了大量資源。

事實上,通過Apache Web Servers的流量,雖然隻占Twitter總流量的10%-20%,但是Apache卻占用了Twitter整個伺服器叢集的50%的資源[16]。是以,從旁觀者角度來看,Twitter将來勢必罷黜Apache。但是目前,當Twitter配置設定計算資源時,迫不得已,隻能優先保證Apache的需求。

迫不得已隻是一方面的原因,另一方面,也表明Twitter的工程師們,對其系統中的其它環節,太有信心了。

在第四章“抗洪需要隔離”中,我們曾經打過一個比方,“在晚餐高峰時段,餐館常常客滿。對于新來的顧客,餐館服務員不是拒之門外,而是讓這些顧客在休息廳等待”。對于Twitter系統來說,Apache充當的角色就是休息廳。隻要休息廳足夠大,就能暫時穩住使用者,換句行話講,就是不讓使用者收到HTTP-503的錯誤提示。

穩住使用者以後,接下去的工作是高效率地提供服務。高效率的服務,展現在Twitter業務流程6個步驟中的後4步。為什麼Twitter對這4步這麼有信心?

Reference,

[16] Updating Twitter without service disruptions.

(http://gojko.net/2009/03/16/qcon-london-2009-upgrading-twitter-without-service-disruptions/)

[30] Giants and Patriots draws 97.5 million US audience to the Super Bowl. (http://www.reuters.com/article/topNews/idUSN0420266320080204)

[31] Twitter traffic during Super Bowl 2008.

(http://blog.twitter.com/2008/02/highlights-from-superbowl-sunday.html)

[32] Joyent provides Twitter free extra capacity during the Super Bowl 2008.

(http://blog.twitter.com/2008/01/happy-happy-joyent.html)

[33] Twitter stopped using Joyent’s cloud at 10PM, Jan 30, 2008. (http://www.joyent.com/joyeurblog/2008/01/31/twitter-and-joyent-update/)

[34] The hasty divorce for Twitter and Joyent.

(http://www.datacenterknowledge.com/archives/2008/01/31/hasty-divorce-for-twitter-joyent/)

[35] The usage of Netcraft by Twitter.

(http://toolbar.netcraft.com/site_report?url=http://twitter.com)

【7】作為一種進步的不徹底

不徹底的工作方式,對于架構設計是一種進步。

當一個來自浏覽器的使用者請求到達Twitter背景系統的時候,第一個迎接它的,是Apache Web Server。第二個出場的,是Mongrel Rails Server。Mongrel既負責處理上傳的請求,也負責處理下載下傳的請求。Mongrel處理上傳和下載下傳的業務邏輯非常簡潔,但是簡潔的表象之下,卻蘊含着反正常的設計。這種反正常的設計,當然不是疏忽的結果,事實上,這正是Twitter架構中,最值得注意的亮點。

twitter技術架構

Figure 9. Twitter internal flows

Courtesy http://alibuybuy-img1011.stor.sinaapp.com/2010/11/fe8f_4095392354_66bd4bcc30_o.png

所謂上傳,是指使用者寫了一個新短信,上傳給Twitter以便發表。而下載下傳,是指Twitter更新讀者的首頁,添加最新發表的短信。Twitter下載下傳的方式,不是讀者主動送出請求的pull的方式,而是Twitter伺服器主動把新内容push給讀者的方式。先看上傳,Mongrel處理上傳的邏輯很簡潔,分兩步。

1. 當Mongrel收到新短信後,配置設定一個新的短信ID。然後把新短信的ID,連同作者ID,緩存進Vector MemCached伺服器。接着,把短信ID以及正文,緩存進Row MemCached伺服器。這兩個緩存的内容,由Vector MemCached與Row MemCached在适當的時候,自動存放進MySQL資料庫中去。

2. Mongrel在Kestrel消息隊列伺服器中,尋找每一個讀者及作者的消息隊列,如果沒有,就建立新的隊列。接着,Mongrel把新短信的ID,逐個放進“追”這位作者的所有線上讀者的隊列,以及作者本人的隊列。

品味一下這兩個步驟,感覺是Mongrel的工作不徹底。一,把短信及其相關IDs,緩存進Vector MemCached和Row Cached就萬事大吉,而不直接負責把這些内容存入MySQL資料庫。二,把短信ID扔進Kestrel消息隊列,就宣告上傳任務結束。Mongrel 沒有用任何方式去通知作者,他的短信已經被上傳。也不管讀者是否能讀到新發表的短信。

為什麼Twitter采取了這種反正常的不徹底的工作方式?回答這個問題以前,不妨先看一看Mongrel處理下載下傳的邏輯。把上傳與下載下傳兩段邏輯聯系起來,對比一下,有助于了解。Mongrel下載下傳的邏輯也很簡單,也分兩步。

1. 分别從作者和讀者的Kestrel消息隊列中,獲得新短信的ID。

2. 從Row MemCached緩存器那裡獲得短信正文。以及從Page MemCached那裡獲得讀者以及作者的首頁,更新這些首頁,也就是添加上新的短信的正文。然後通過Apache,push給讀者和作者。

對照Mongrel處理上傳和下載下傳的兩段邏輯,不難發現每段邏輯都“不徹底”,合在一起才形成一個完整的流程。所謂不徹底的工作方式,反映了 Twitter架構設計的兩個“分”的理念。一,把一個完整的業務流程,分割成幾段相對獨立的工作,每一個工作由同一台機器中不同的程序負責,甚至由不同的機器負責。二,把多個機器之間的協作,細化為資料與控制指令的傳遞,強調資料流與控制流的分離。

分割業務流程的做法,并不是Twitter的首創。事實上,三段論的架構,宗旨也是分割流程。Web Server負責HTTP的解析,Application Server負責業務邏輯,Database負責資料存儲。遵從這一宗旨,Application Server的業務邏輯也可以進一步分割。

1996年,發明TCL語言的前伯克利大學教授John Ousterhout,在Usenix大會上做了一個主題演講,題目是“為什麼在多數情況下,多線程是一個糟糕的設計[36]”。2003年,同為伯克利大學教授的Eric Brewer及其學生們,發表了一篇題為“為什麼對于高并發伺服器來說,事件驅動是一個糟糕的設計[37]”。這兩個伯克利大學的同僚,同室操戈,他們在争論什麼?

所謂多線程,簡單講就是由一根線程,從頭到尾地負責一個完整的業務流程。打個比方,就像修車行的師傅每個人負責修理一輛車。而所謂事件驅動,指的是把一個完整的業務流程,分割成幾個獨立工作,每個工作由一個或者幾個線程負責。打個比方,就像汽車制造廠裡的流水線,有多個工位組成,每個工位由一位或者幾位勞工負責。

很顯然,Twitter的做法,屬于事件驅動一派。事件驅動的好處在于動态調用資源。當某一個工作的負擔繁重,成為整個流程中的瓶頸的時候,事件驅動的架構可以很友善地調集更多資源,來化解壓力。對于單個機器而言,多線程和事件驅動的兩類設計,在性能方面的差異,并不是非常明顯。但是對于分布式系統而言,事件驅動的優勢發揮得更為淋漓盡緻。

Twitter把業務流程做了兩次分割。一,分離了Mongrel與MySQL資料庫,Mongrel不直接插手MySQL資料庫的操作,而是委托MemCached全權負責。二,分離了上傳和下載下傳兩段邏輯,兩段邏輯之間通過Kestrel隊列來傳遞控制指令。

在John Ousterhout和Eric Brewer兩位教授的争論中,并沒有明确提出資料流與控制流分離的問題。所謂事件,既包括控制信号,也包括資料本身。考慮到通常資料的尺寸大,傳輸成本高,而控制信号的尺寸小,傳輸簡便。把資料流與控制流分離,可以進一步提高系統效率。

在Twitter系統中,Kestrel消息隊列專門用來傳輸控制信号,所謂控制信号,實際上就是IDs。而資料是短信正文,存放在Row MemCached中。誰去處理這則短信正文,由Kestrel去通知。

Twitter完成整個業務流程的平均時間是500ms,甚至能夠提高到200-300ms,說明在Twitter分布式系統中,事件驅動的設計是成功。

Kestrel消息隊列,是Twitter自行開發的。消息隊列的開源實作很多,Twitter為什麼不用現成的免費工具,而去費神自己研發呢?

Reference,

[36] Why threads are a bad idea (for most purposes), 1996.

(http://www.stanford.edu/class/cs240/readings/threads-bad-usenix96.pdf)

[37] Why events are a bad idea (for high-concurrency servers), 2003.

(http://www.cs.berkeley.edu/~brewer/papers/threads-hotos-2003.pdf)

【8】 得過不且過

北京西直門立交橋的設計,經常遭人诟病。客觀上講,對于一座立交橋而言,能夠四通八達,就算得上基本完成任務了。大家诟病的原因,主要是因為行進路線太複雜。

當然,站在設計者角度講,他們需要綜合考慮來自各方面的制約。但是考慮到世界上立交橋比比皆是,各有各的難處,然而像西直門立交橋這樣讓人迷惑的,還真是少見。是以,對于西直門立交橋的設計者而言,困難是客觀存在的,但是改進的空間總還是有的。

twitter技術架構

Figure 10. 北京西直門立交橋行進路線

Courtesy http://alibuybuy-img1011.stor.sinaapp.com/2010/11/ef82_4113112287_86cfb1cffd_o.png

大型網站的架構設計也一樣,沿用傳統的設計,省心又省力,但是代價是網站的性能。網站的性能不好,使用者的體驗也不好。Twitter這樣的大型網站之是以能夠一飛沖天,不僅功能的設計迎合了時代的需要,同時,技術上精益求精也是成功的必要保障。

例如,從Mongrel到MemCached之間,需要一個資料傳輸通道。或者嚴格地說,需要一個client library communicating to the memcached server。Twitter的工程師們,先用Ruby實作了一個通道。後來又用C實作了一個更快的通道。随後,不斷地改進細節,不斷地提升資料傳輸的效率。這一系列的改進,使Twitter的運作速度,從原先不設緩存時,每秒鐘處理3.23個請求,到現在每秒處理139.03個請求,參見Figure 11。這個資料通道,現在定名為libmemcached,是開源項目 [38]。

twitter技術架構

Figure 11. Evolving from a Ruby memcached client to a C client with optimised hashing. These changes increases Twitter performance from 3.23 requests per second without caching, to 139.03 requests per second nowadays [14].

Courtesy http://alibuybuy-img1011.stor.sinaapp.com/2010/11/7666_4115077218_55c7250d43_o.png

又例如,Twitter系統中用消息隊列來傳遞控制信号。這些控制信号,從插入隊列,到被删除,生命周期很短。短暫的生命周期,意味着消息隊列的垃圾回收(Garbage Collection)的效率,會嚴重影響整個系統的效率。是以,改進垃圾回收的機制,不斷提高效率,成為不可避免的問題。Twitter使用的消息隊列,原先不是Kestrel,而是用Ruby編寫的一個簡單的隊列工具。但是如果繼續沿用Ruby這種語言,性能優化的空間不大。Ruby的優點是內建了很多功能,進而大大減少了開發過程中編寫程式的工作量。但是優點也同時是缺點,內建的功能太多,拖累也就多,牽一發而動全身,造成優化困難。

Twitter工程師戲言,”Ruby抗拒優化”,(“Ruby is optimization resistant”, by Evan Weaver [14])。幾經嘗試以後,Twitter的工程師們最終放棄了Ruby語言,改用Scala語言,自行實作了一個隊列,命名為Kestrel [39]。

改換語言的主要動機是,Scala運作在JVM之上,是以優化Garbage Collection性能的手段豐富。Figure 12. 顯示了使用Kestrel以後,垃圾回收的滞後,在平時隻有2ms,最高不超過4ms。高峰時段,平均滞後5ms,最高不超過35ms。

twitter技術架構

Figure 12. The latency of Twitter Kestrel garbage collection [14].

Courtesy http://alibuybuy-img1011.stor.sinaapp.com/2010/11/2f0a_4115072726_c611955bb2_o.png

RubyOnRails逐漸淡出Twitter,看來這是大勢所趨。最後一步,也是最高潮的一步,可能是替換Mongrel。事實上,Twitter所謂“API Server”,很可能是他們替換Mongrel的前奏。

Twitter的Evan Weaver說,“API Server”的運作效率,比Apache+Mongrel組合的速度快4倍。所謂Apache+Mongrel組合,是RubyOnRails的一種實作方式。Apache+Mongrel組合,每秒能夠處理139個請求,參見Figure 11,而“API Server” 每秒鐘能夠處理大約550個請求 [16]。換句話說,使用Apache+Mongrel組合,優點是降低了工程師們寫程式的負擔,但是代價是系統性能降低了4倍,換句話說,使用者平均等待的時間延長了4倍。

活着通常不難,活得精彩永遠很難。得過不且過,這是一種精神。

Reference,

[14] Improving running component of Twitter.

(http://qconlondon.com/london-2009/file?path=/qcon-london-2009/slides/EvanWeaver_ImprovingRunningComponentsAtTwitter.pdf)

[16] Updating Twitter without service disruptions.

(http://gojko.net/2009/03/16/qcon-london-2009-upgrading-twitter-without-service-disruptions/)

[38] Open source project, libmemcached, by Twitter.

(http://tangent.org/552/libmemcached.html)

[39] Open source project, Kestrel Messaging Queue, by Twitter.

(http://github.com/robey/kestrel)

【9】結語

這個系列讨論了Twitter架構設計,尤其是cache的應用,資料流與控制流的組織等等獨特之處。把它們與抗洪搶險中,蓄洪,引流,管道三種手段相對比,便于加深了解。同時參考實際運作的結果,驗證這樣的設計是否能夠應付實際運作中遇到的壓力。

解剖一個現實網站的架構,有一些難度。主要展現在相關資料散落各處,而且各個資料的視點不同,覆寫面也不全。更嚴重的問題是,這些資料不是學術論文,品質良莠不齊,而且一些文章或多或少地存在缺失,甚至錯誤。

單純把這些資料羅列在一起,并不能滿足全景式的解剖的需要。整理這些資料的過程,很像是偵探辦案。福爾摩斯探案的方法,是證據加推理。

1. 如果觀察到證據O1,而造成O1出現的原因,有可能是R1,也有可能是R2或者R3。究竟哪一個原因,才是真正的原因,需要進一步收集更多的證據,例如O2,O3。如果造成O2 出現的可能的原因是R2和R4,造成O3 出現的可能原因是R3和R5。把所有證據O1 O2 O3,綜合起來考慮,可能性最大的原因必然是(R1,R2,R3), (R2,R4), (R3,R5) 的交集,也就是R2。這是反繹推理的過程。

2. 如果反繹推理仍然不能确定什麼是最可能的原因,那麼假定R2是真實的原因,采用演繹推理,R2必然導緻O4證據的出現。接下去要做的事情是,确認O4是否真的出現,或者尋找O4肯定不會出現的證據。以此循環。

解剖網絡架構的方法,與探案很相似。隻讀一篇資料是不夠的,需要多多收集資料,交叉印證。不僅交叉印證,而且引申印證,如果某一環節A是這樣設計的,那麼關聯環節B必然相應地那樣設計。如果一時難以确定A到底是如何設計的,不妨先确定B是如何設計的。反推回來,就知道A應該如何設計了。

Ruby on Rails:web應用程式的架構

Erlang:通用的面向并發的程式設計語言,開源項目位址:http://www.erlang.org/

AWStats:實時日志分析系統:開源項目位址:http://awstats.sourceforge.net/

Memcached:分布式記憶體緩存組建

Starling:Ruby開發的輕量級消息隊列

Varnish:高性能開源HTTP加速器

Kestrel:scala編寫的消息中間件,開源項目位址:http://github.com/robey/kestrel

Comet Server:Comet是一種ajax長連接配接技術,利用Comet可以實作伺服器主動向web浏覽器推送資料,進而避免用戶端的輪詢帶來的性能損失。

libmemcached:一個memcached用戶端

使用mysql資料庫伺服器

Mongrel:Ruby的http伺服器,專門應用于rails,開源項目位址:http://rubyforge.org/projects/mongrel/

Munin:服務端監控程式,項目位址:http://munin-monitoring.org/

Nagios:網絡監控系統,項目位址:http://www.nagios.org/

繼續閱讀