Ceph — V11.2.0 KRAKEN
- Ceph V1120 KRAKEN
- 對比JEWEL版本的主要變化
- RADOS
- RGW
- RBD
- CephFS
- 對比JEWEL版本的主要變化
ceph的版本出到K了,針對bluestore又有了新的優化,并進行了一定的壓力和故障測試,當然還有其他的特性,針對Jewel版本有較多改動。我查了一下,目前還沒有什麼中文資料,ceph中文社群(http://docs.ceph.org.cn/)中關于V11.2.0還沒有更新進去,是以閑暇之餘翻譯了一下,也給大家節省時間。
請尊重一下勞動成果,轉載請注明出處!!
英文原文連結:http://docs.ceph.com/docs/master/release-notes/#v11.2.0-kraken
這是Kraken系列的第一個release版本。它适用于生産部署,并将維護到下一個穩定的版本Luminous,将在2017年春季完成。
對比JEWEL版本的主要變化
RADOS
- 新的BlueStore 後端現在有一個穩定的磁盤格式,并通過了我們的故障和壓力測試。盡管該後端仍被标記為實驗性的,但我們鼓勵使用者使用非生産叢集和非關鍵資料集進行嘗試。
- RADOS現在已經對EC-pool上的覆寫寫(overwrites)進行了實驗性支援。因為磁盤格式和實作尚未完成,是以必須啟用特殊pool選項才能測試新功能。在群集上啟用此選項将永久禁止該群集更新到将來的版本。
- 我們現在預設使用AsyncMessenger(ms type = async)而不是傳統的SimpleMessenger。最明顯的差別是,我們現在使用固定大小的線程池用于網絡連接配接(而不是使用SimpleMessenger的每個套接字兩個線程)。
- 現在一些OSD的故障幾乎可以立即檢測到,而先前心跳逾時(預設為20秒)必須到期。這可以防止IO在主機保持啟動但ceph-osd程序不再運作的故障情況下長時間阻塞。
- 有一個新的ceph-mgr守護程序。它目前與預設螢幕并置,并且尚未使用太多,但基本的基礎設施現在已到位。
- 減少了編碼OSDMaps的大小。
- 當恢複(recovery)或重新平衡(rebalanceing)正在進行時,OSD現在停止擦除(scrubbing)。
RGW
- RGW現在支援一種新的區域類型,可用于通過ElasticSearch進行中繼資料索引。
- RGW現在支援S3複合對象複制部分API。
- 現在可以重新分割現有的桶。注意,桶重新分片目前需要停止對特定桶的所有IO(特别是寫)。
- RGW現在支援對象的資料壓縮。
- Civetweb版本已經更新到1.8。
- 現在支援Swift靜态網站API(以前已經添加了S3支援)。
- S3桶生命周期API已添加。注意,目前它隻支援對象到期。
- 支援自定義搜尋過濾器已添加到LDAP身份驗證實作中。
- 支援NFS版本3已添加到RGW NFS網關。
- 為librgw建立了一個Python綁定。
RBD
- RBD現在支援使用新的(實驗)覆寫寫(overwrite)支援在 EC RADOS pool 中存儲images。必須使用新的rbd CLI
選項來建立images,用以指定EC池存儲後端資料對象。嘗試在EC池上直接建立image不會成功,因為image的後端中繼資料僅在副本池上被支援。“-data-pool <ec pool>”
- rbd-mirror守護程序現在支援從主image複制動态image特征更新和image中繼資料key/value對到非主image。
- image快照的數量可以選擇性地限制為可配置的最大值。
- rbd Python API現在支援異步IO操作。
CephFS
- libcephfs函數的定義已更改為啟用适當的uid / gid控制。庫版本已增加以反映接口更改。
- 備用的回放(replay)MDS守護程式現在在執行删除操作的工作負載上消耗更少的記憶體。
- Scrub現在修複backtrace,并用已發現的錯誤填充損壞ls。
- cephfs-data-scan的新的pg_files子指令可以識别受損壞或丢失的RADOS PG影響的檔案。
- 假陽性“未能響應緩存壓力”警告已修複。