天天看點

PUE逼近1.0 全浸沒液冷伺服器叢集現身阿裡巴巴

4月5日,阿裡巴巴技術在官方微網誌釋出了一組照片,以此回應在4月1日愚人節提及的“麒麟”計劃。據證明,該麒麟計劃實為業界首批浸沒液冷伺服器叢集,通過液冷而不是常見風冷的方式為伺服器叢集降溫,最終其pue值可接近1.0,達到了世界領先水準。

PUE逼近1.0 全浸沒液冷伺服器叢集現身阿裡巴巴

阿裡巴巴技術官方微網誌截圖

PUE逼近1.0 全浸沒液冷伺服器叢集現身阿裡巴巴

阿裡巴巴浸沒液冷伺服器集裝箱

阿裡技術的微網誌這樣寫道,“這是阿裡巴巴又一黑科技産品,将創造多個業界記錄,支撐阿裡巴巴‘nasa’行動計劃”。照片顯示,放置在樓頂的集裝箱裡擺滿了印有阿裡logo的黑色金屬箱,以及在透明玻璃下箱體内部的線纜、銅管和高密伺服器節點。

PUE逼近1.0 全浸沒液冷伺服器叢集現身阿裡巴巴

阿裡巴巴浸沒液冷伺服器叢集

PUE逼近1.0 全浸沒液冷伺服器叢集現身阿裡巴巴

阿裡巴巴浸沒液冷伺服器叢集内部結構

經官方正式确認,4月1日愚人節提及的“麒麟”計劃是技術研發成功後的一個小插曲。該項目負責人阿裡巴巴伺服器産品進階專家熾平表示,這些照片背後是浸沒液冷伺服器叢集,pue(能源使用效率)逼近1.0。

阿裡巴巴重構液冷伺服器 透過阿裡雲推廣為普惠技術

浸沒液冷是最近幾年備受業界關注的新型散熱技術,尤其在sc14全球超級計算大會上,來自國内外的多家伺服器企業均展示了在浸沒液冷散熱上的産品,大幅提高了業界對液冷的關注度。

但遺憾的是,受限于技術實作的難度,目前參與浸沒液冷伺服器設計的企業,對浸沒液冷的應用也僅局限于單機測試、單機展示階段,從目前公開的資訊看,并無伺服器叢集部署先例。

浸沒液冷伺服器叢集部署一直未實作的主要原因,在于浸沒液冷解決方案相比風冷是一種全新的變革,需要具備從伺服器到資料中心整套解決方案的架構創新和重構設計的能力。

“阿裡巴巴進行了浸沒液冷的新材料技術研究,液冷伺服器架構設計以及液冷資料中心整體方案重構”。熾平表示,目前阿裡巴巴已經在整機櫃伺服器技術規範上形成了原創設計思想積累,在結合自身需求以及在自研資料中心的積累後,快速設計出符合自己需求的浸沒液冷伺服器整套解決方案,并進行叢集化實踐。

據悉,阿裡巴巴對于液冷方案貫徹了系統化設計思路,除了硬體外,同期還設計了一套适合浸沒液冷的監控管理系統。

除了應用于自身業務場景外,浸沒液冷的成套先進技術也将率先應用于阿裡雲資料中心,通過阿裡雲對外服務來實作技術的普惠應用。據了解,浸沒液冷伺服器将在高主頻計算領域發揮重要價值,也将是以大大節約能源,實作綠色計算。

pue無限逼近1.0 可達理論極限值

對于行業内最關心的液冷伺服器pue數值,阿裡巴巴給出了一個瘋狂的數字——逼近1.0。

pue值是指資料中心消耗的所有能源與it裝置負載消耗的能源之比。pue值越接近1.0,表示資料中心的能效越好,綠色化程度越高,也就是越節約能源。

阿裡巴巴浸沒液冷伺服器采用了3m氟化液液體,全環境無風扇無振動設計,達到卓越散熱冷卻效果。同時由于沒有空氣,水汽,灰塵,風扇振動等環境影響,元器件可靠性也大幅提升。

近年來阿裡巴巴一直緻力于綠色資料中心的技術創新,實作對能源的節約。2015年投入營運的華東某資料中心采用深層湖水制冷,年均pue低于1.3。近日由阿裡雲對外開放服務的華北3資料中心則充分利用環境優勢,大面積采用新風自然冷和水側自然冷技術,年均pue低于1.25。此次的浸沒液冷,更是将pue推向理論極限值1.0。

技術的進步,一直在不斷激發行業對未來綠色資料中心建設的想象力。

<a href="https://mp.weixin.qq.com/s/wshbtrotbiexsinmpx8zzq">原文連結</a>

繼續閱讀