天天看點

揭秘Facebook北極圈資料中心:降溫效果杠杠的,日處理100億條資訊

它看起來就像一個外表不規則的飛船。走進内部,又像極了《銀翼殺手》中的場景:一條一條狹長的走廊發出嗡嗡聲,忙碌中的伺服器不停閃爍藍光,巨大的風扇高速運轉。這裡利用當地便宜的水電來運轉,借室外的冷空氣降溫,這裡修築的圍牆不是為了攔截間諜,而是用來攔麋鹿的。

歡迎來到facebook在位于瑞典北部lulea的一個資料中心--nodepole,它離北極圈僅一步之遙,處理着你發到facebook上的任何自拍和任何一個點"贊"。

nodepole早在2013年已開始運作,最近陸續向一些媒體公開。nodepole藏身于一大片神秘的松林、湖泊和衆群島中間,由數以千計的矩形金屬闆組成,是facebook首次在美國以外的地區開設資料中心,同時也是歐洲最大的資料中心之一。nodepole中心長300米寬100米,差不多四個足球場大。

揭秘Facebook北極圈資料中心:降溫效果杠杠的,日處理100億條資訊

facebook每天處理來自全球的3.5億張照片、45億個"贊"和100億條消息,這意味着facebook需要為此配備難以置信的、巨大的技術基礎設施。不管你在香港上傳自拍、在巴黎更新個人狀态,你的資料都會被存在lulea,這個栖息着麋鹿和能看到北極光的地方。你要翻出一張2008年拍的照片,也靠這個中心的伺服器做出應答。在瑞典建這個資料中心主要就是為了處理來自全世界驚人的資料量,按規律,每18個月産生的資料就會翻倍。

和多數網際網路企業會直接去購買伺服器不同,facebook幾年前就開始通過設計自己的系統和外包基建項目來建立自己的服務系統。以所有公開的标準來衡量,nodepole是目前為止能效最高的計算機設施。相對于傳統伺服器廠商的産品,這一項目開發的伺服器硬體性能高38%,而營運費用則低24%。lulea資料中心還是facebook第一次使用來自自主"開放計算項目"的伺服器硬體。

針對這些伺服器,facebook的工程師做了極大的簡化,去除了許多典型的元件,如額外的記憶體插槽、電纜和塑膠保護包裝。伺服器基本上就是一個簡裝和外露的主機闆,被放置在冰箱大小的機架上,這種設計的目的是讓通風效果更好。基于這種伺服器架構的系統需要的冷卻也更少。

這裡冬天平均氣溫差不多零下20度,外界的冷空氣被泵進中心大樓内,伺服器産生的大量熱空氣和進來的冷空氣循環交換,形成自然冷卻的過程。

揭秘Facebook北極圈資料中心:降溫效果杠杠的,日處理100億條資訊

  大量風扇維持着室溫的恒定

facebook選擇這裡的另外一個原因就是看上這裡的供電。大約一個世紀之前,瑞典為幫助國内的鋼鐵、造紙等工業發展修建了水電大壩,但随着部分産業的衰落,這裡的電用不完了。facebook資料中心就利用了這些富餘的電能。負責該資料中心營運tomfurlong所說,facebook在節能環保上已經下了很大功夫,目标是到2018年,所有資料中心50%靠清潔能源和可再生能源運作。甚至有人腦洞大開,設想把多餘的熱能輸送給遊泳池,furlong也承認facebook确實考慮過這個點子,但發現這樣做并不經濟。

揭秘Facebook北極圈資料中心:降溫效果杠杠的,日處理100億條資訊

中心内部混搭了瑞典和加州風格。中央是一個六邊形的雪花和facebook的logo;前台牆上挂着彩色的麋鹿圖案油畫;塗鴉的藍色facebook占據了一整面牆體。不同的時鐘顯示着位于北卡、艾奧瓦以及俄勒岡其他幾個資料中心的時間。包括lulea在内,facebook在美國已有四個大型資料中心,為了迎接下一個10億使用者,今年7月facebook又宣布将在得克薩斯的fortworth建第5座資料中心。

有傳言,當初為了給遙遠的lulea招商引資,lulea也做了很多工作。2009年matzengman作為代表飛到矽谷見了多位科技大佬,并在接下來的兩年裡基本過着和瑞典9小時時差的美西時間,進過多次談判才最終落實了nodepole計劃。為了保密,engman甚至給facebook資料中心項目取了代号:黃金工程。

lulea也因是全世界最安全穩定的地方被大家知道。資料顯示,瑞典最近一次戰争發生在1814年,距今已有200多年;地震活動極少。

本文轉自d1net(轉載)

繼續閱讀