但這種方式在國内并不多見,個人了解主要原因是對SAS共享存儲硬體并且要求關閉存儲的進階功能如RAID等限制。本文中介紹的在Windows Server 2016中提供的方式邏輯存儲空間實際使用的是伺服器本地的存儲建構的分布式存儲應用,這種方式不再有共享SAS存儲的需求,完全可以利用本地SATA SSD/Flash閃存,NVMe低延遲PCIe閃存來提供更高的性能。那麼結構也就有先前看到的圖二,轉化成了圖三結構;部署,管理和監控仍然通過熟悉的System Center的SCVMM和SCOM或者PowerShell來實作。
<a href="http://s3.51cto.com/wyfs02/M02/76/7A/wKioL1ZUPB6TlTk8AACagsle5gE166.png" target="_blank"></a>
其實建構存儲空間直連模式的初衷就是用最高效的方式提供私有雲存儲,并且衍生出很多做法,包括:
Hyper-V IaaS存儲
作為備份和複制的存儲目标
存儲計算一體化的超融合架構
存儲和計算分離的融合架構
以上架構,無論對于企業還是雲供應商都可以加以使用建構。目前存儲空間直連主要通過兩種部署方式建構:
第一種就是私有雲超融合結構,就是上述的存儲空間和虛拟化層在同一台伺服器上建構的結構。
第二種方法是融合結構,即存儲計算非聚集模式,存儲叢集和計算叢集(Hyper-V叢集)分離。非聚集模式的好處是可以分别管理和擴充存儲和計算單元,也可以有效防止過渡部署的情況出現。
<a href="http://s3.51cto.com/wyfs02/M00/76/7B/wKiom1ZUPIKhQeblAADADxSN1q8968.png" target="_blank"></a>
注意這裡涉及的架構之是以先進就是因為采用了無共享存儲架構,因為這裡引入的概念是利用每個伺服器本機的本地實體存儲而不是像Windows Server 2012 R2中采用所有存儲伺服器叢集中共享的SAS實體存儲建構;存儲空間直連技術的魅力就在于通過池化所有網絡連接配接的叢集節點本地的儲存設備,這些本地儲存設備可以來自于不同的廠商和品牌;如前文所述,SAS共享存儲對硬體有特殊的要求,并且實體連接配接和部署都需要人工介入,這種複雜程度遠大于在網絡共享環境中添加一個獨立的實體伺服器到叢集環境中,如果建構的叢集規模擴大複雜度也會成指數增長。當然,還有一個顯而易見的好處,其實個人了解這也是融合架構的必經之路,我們需要一條足夠寬速度足夠快的跑道來并行起降我們的工作負載,這種結構我們采用的是SMB直連技術,如果您沒有聽說這個是在2年前微軟提出的技術了,通過這個技術我們可以做到超高速線上遷移虛拟機等功能;這種技術的前提是我們需要在叢集節點中激活帶RDMA功能的網卡使用者存儲服務,RDMA的好處是可以提供一個高帶寬延遲的網絡,并且可以大幅度降低主機CPU的開銷,就是我們說的這個"高速公路",有了這條寬帶我們就有了部署融合架構的基礎;SMB 3.0多通道技術也為了我們提供了更高的帶寬聚合和更高的可用性,并且這是自适應的技術;也正是得以與這個通道我們才可以體驗無共享式的存儲服務。
目前也有打包好的合作夥伴解決方案包括,思科,戴爾,富士通,惠普,因特爾和聯想等,可以提供軟硬一體化的存儲空間直連技術來直接使用。
本文轉自 翟老貓 51CTO部落格,原文連結:http://blog.51cto.com/3387405/1716500,如需轉載請自行聯系原作者