天天看點

Hadoop裝置實際上屬于有待編排的超級計算機

zd至頂網伺服器頻道 06月12日 新聞消息: ibm公司認為hadoop及apache spark等配置方案在本質上其實屬于超級計算機,而秉持着這一思路,藍色巨人開始調整自家超級計算機管理代碼以處理x86叢集之上的各類應用。

根據ibm公司軟體定義基礎設施副總裁bernie sprang的解釋,分布于叢集上的應用需要跨越各計算與存儲資源池進行工作負載優化,而提供相關模闆不僅能夠簡化部署過程,同時也能夠擺脫對專有硬體的依賴。另外,sprang強調稱,企業客戶中存在“叢集蠕動”現象,即組織内共同建立計算叢集并以共享而非獨占方式使用。

藍色巨人認為,工作負載部署與排程工具能夠幫助企業客戶有效降低采購及運維的叢集數量,且保證資料不會耗盡現有處理資源。

而在新的ibm“spectrum”工具當中,包含有“conductor”産品作為資源共享工具,能夠對叢集化應用進行“模闆化”調整。另外“spectrum lsf”工具則負責工作負載排程。ibm公司還推出了spectrum storage,這套原本名為gpfs的檔案系統能夠支援大規模工作負載。

藍色巨人将上述工具共同打包在軟體定義套件當中,但并非面向主流工作負載。在ibm看來,此套件更适合用于雲或者混合雲分析方案,因為其能夠輕松跨越本地與公有雲環境。

sprang希望将spectrum套件定義為類似于虛拟機管理程式的方案,因為其同樣位于伺服器與工作負載之間。但二者的共通之處也僅此而已了:spectrum主要面向叢集化應用,而藍色巨人希望借此将其高端技術成果引入目前的超大規模工作負載當中。

原文釋出時間為:2016-06-12

本文作者:畢波

本文來自雲栖社群合作夥伴至頂網,了解相關資訊可以關注至頂網。

繼續閱讀