
作用:主要是将裸磁盤空間映射給主機使用,磁盤陣列(内含多塊硬碟)做raid操作或者lvm操作,邏輯劃分出n塊logic盤并映射給主機使用,作業系統會識别到n塊硬碟,但是無法感覺到底是邏輯盤還是實體盤,是以還是會對其進行分區和格式化(無法共享資料)。每塊邏輯盤實際上是由多塊硬碟共同組成,在讀寫資料的時候,幾塊實體硬碟可以并行尋址和操作,大大提高了io效率。
優點:對塊磁盤組成邏輯盤,讀寫效率增加
缺點:相當于自己主機的硬碟,無法進行資料共享
典型裝置:<code>ftp、nfs伺服器</code>
優點:客服了塊存儲檔案無法共享的問題
缺點:讀寫、傳輸速率低
場景:日志、郵箱、目錄結構檔案存儲
備注:常見的存儲中 nfs、nas也是屬于檔案系統存儲
對象存儲:<code>也叫做基于對象的存儲,是用來描述解決和處理離散單元的方法的通用術語,這些離散單元被稱作為對象。</code>
對象存儲經常被比作在一家進階餐廳代客停車。當一個顧客需要代客停車時,他就把鑰匙交給别人,換來一張收據。這個顧客不用知道他的車被停在哪,也不用知道在他用餐時服務員會把他的車移動多少次。在這個比喻中,一個存儲對象的唯一辨別符就代表顧客的收據。
優點:綜合了塊讀寫高速、檔案共享特性
存儲資料類型:指非結構化資料,如圖檔、音視訊、文檔等
應用場景:即一次寫入多次讀取。
分布式存儲:是将資料分散存儲在多台獨立的裝置上。傳統的網絡存儲系統采用集中的存儲伺服器存放所有資料,存儲伺服器成為系統性能的瓶頸,也是可靠性和安全性的焦點,不能滿足大規模存儲應用的需要。分布式網絡存儲系統采用可擴充的系統結構,利用多台存儲伺服器分擔存儲負荷,利用位置伺服器定位存儲資訊,它不但提高了系統的可靠性、可用性和存取效率,還易于擴充。
1、高可用性,副本數靈活控制,支援故障域分割,資料強一緻性,沒有單點故障
2、高可擴充性
3、特性豐富
簡介:不管你是想為雲平台提供ceph 對象存儲和/或 ceph 塊裝置,還是想部署一個 ceph 檔案系統或者把 ceph 作為他用,所有 ceph 存儲叢集的部署都始于部署一個個 ceph 節點、網絡和 ceph 存儲叢集。 ceph 存儲叢集至少需要一個 ceph monitor 和兩個 osd 守護程序。而運作 ceph 檔案系統用戶端時,則必須要有中繼資料伺服器( metadata server )
1. crush算法:
ceph摒棄了傳統的集中式存儲中繼資料尋址的方案,轉而使用crush算法完成資料的尋址操作。crush在一緻性哈希基礎上很好的考慮了容災域的隔離,能夠實作各類負載的副本放置規則
2.高可用:
ceph中的資料副本數量可以由管理者自行定義,并可以通過crush算法指定副本的實體存儲位置以分隔故障域,支援資料強一緻性; ceph可以忍受多種故障場景并自動嘗試并行修複。
3 高擴充性:
ceph不同于swift,用戶端所有的讀寫操作都要經過代理節點。一旦叢集并發量增大時,代理節點很容易成為單點瓶頸。ceph本身并沒有主要節點,擴充起來比較容易,并且理論上,它的性能會随着磁盤數量的增加而線性增長。
4 特性豐富
ceph支援三種調用接口:對象存儲,塊存儲,檔案系統挂載。三種方式可以一同使用。在國内一些公司的雲環境中,通常會采用ceph作為openstack的唯一後端存儲來提升資料轉發效率。
ceph的基本組成結構如下圖:
ceph osds: ceph osd 守護程序( ceph osd )的功能是存儲資料,處理資料的複制、恢複、回填、再均衡,并通過檢查其他osd 守護程序的心跳來向 ceph monitors 提供一些監控資訊。當 ceph 存儲叢集設定為有2個副本時,至少需要2個 osd 守護程序,叢集才能達到 active+clean 狀态( ceph 預設有3個副本,但你可以調整副本數)。
monitors: ceph monitor維護着展示叢集狀态的各種圖表,包括螢幕圖、 osd 圖、歸置組( pg )圖、和 crush 圖。 ceph 儲存着發生在monitors 、 osd 和 pg上的每一次狀态變更的曆史資訊(稱為 epoch )。
mdss: ceph 中繼資料伺服器( mds )為 ceph 檔案系統存儲中繼資料(也就是說,ceph 塊裝置和 ceph 對象存儲不使用mds )。中繼資料伺服器使得 posix 檔案系統的使用者們,可以在不對 ceph 存儲叢集造成負擔的前提下,執行諸如 ls、find 等基本指令。
官網指導部署
準備三台伺服器
配置互信(各個節點)
配置ceph源
服務端:
用戶端
首先啟動主節點mon(ceph-admin節點)
若直接使用非xfs檔案系統的硬碟,需要在配置檔案中加以下配置:
ceph-node1執行
ceph-node2執行
rdb是存儲池名字,64是pg數量,pg值計算參考https://ceph.com/pgcalc/
檢查osd tree
docker exec mon ceph -s
測試ceph叢集在塊存儲下鏡像的建立和檔案的上傳,如果成功才能說明ceph叢集安裝成功
原文連結:http://dwz-9.cn/3p3i8