天天看點

Ceph — V11.2.0 KRAKEN(譯)Ceph — V11.2.0 KRAKEN

Ceph — V11.2.0 KRAKEN

  • Ceph V1120 KRAKEN
    • 對比JEWEL版本的主要變化
      • RADOS
      • RGW
      • RBD
      • CephFS

ceph的版本出到K了,針對bluestore又有了新的優化,并進行了一定的壓力和故障測試,當然還有其他的特性,針對Jewel版本有較多改動。我查了一下,目前還沒有什麼中文資料,ceph中文社群(http://docs.ceph.org.cn/)中關于V11.2.0還沒有更新進去,是以閑暇之餘翻譯了一下,也給大家節省時間。

請尊重一下勞動成果,轉載請注明出處!!

英文原文連結:http://docs.ceph.com/docs/master/release-notes/#v11.2.0-kraken

這是Kraken系列的第一個release版本。它适用于生産部署,并将維護到下一個穩定的版本Luminous,将在2017年春季完成。

對比JEWEL版本的主要變化

RADOS

  • 新的BlueStore 後端現在有一個穩定的磁盤格式,并通過了我們的故障和壓力測試。盡管該後端仍被标記為實驗性的,但我們鼓勵使用者使用非生産叢集和非關鍵資料集進行嘗試。
  • RADOS現在已經對EC-pool上的覆寫寫(overwrites)進行了實驗性支援。因為磁盤格式和實作尚未完成,是以必須啟用特殊pool選項才能測試新功能。在群集上啟用此選項将永久禁止該群集更新到将來的版本。
  • 我們現在預設使用AsyncMessenger(ms type = async)而不是傳統的SimpleMessenger。最明顯的差別是,我們現在使用固定大小的線程池用于網絡連接配接(而不是使用SimpleMessenger的每個套接字兩個線程)。
  • 現在一些OSD的故障幾乎可以立即檢測到,而先前心跳逾時(預設為20秒)必須到期。這可以防止IO在主機保持啟動但ceph-osd程序不再運作的故障情況下長時間阻塞。
  • 有一個新的ceph-mgr守護程序。它目前與預設螢幕并置,并且尚未使用太多,但基本的基礎設施現在已到位。
  • 減少了編碼OSDMaps的大小。
  • 當恢複(recovery)或重新平衡(rebalanceing)正在進行時,OSD現在停止擦除(scrubbing)。

RGW

  • RGW現在支援一種新的區域類型,可用于通過ElasticSearch進行中繼資料索引。
  • RGW現在支援S3複合對象複制部分API。
  • 現在可以重新分割現有的桶。注意,桶重新分片目前需要停止對特定桶的所有IO(特别是寫)。
  • RGW現在支援對象的資料壓縮。
  • Civetweb版本已經更新到1.8。
  • 現在支援Swift靜态網站API(以前已經添加了S3支援)。
  • S3桶生命周期API已添加。注意,目前它隻支援對象到期。
  • 支援自定義搜尋過濾器已添加到LDAP身份驗證實作中。
  • 支援NFS版本3已添加到RGW NFS網關。
  • 為librgw建立了一個Python綁定。

RBD

  • RBD現在支援使用新的(實驗)覆寫寫(overwrite)支援在 EC RADOS pool 中存儲images。必須使用新的rbd CLI

    “-data-pool <ec pool>”

    選項來建立images,用以指定EC池存儲後端資料對象。嘗試在EC池上直接建立image不會成功,因為image的後端中繼資料僅在副本池上被支援。
  • rbd-mirror守護程序現在支援從主image複制動态image特征更新和image中繼資料key/value對到非主image。
  • image快照的數量可以選擇性地限制為可配置的最大值。
  • rbd Python API現在支援異步IO操作。

CephFS

  • libcephfs函數的定義已更改為啟用适當的uid / gid控制。庫版本已增加以反映接口更改。
  • 備用的回放(replay)MDS守護程式現在在執行删除操作的工作負載上消耗更少的記憶體。
  • Scrub現在修複backtrace,并用已發現的錯誤填充損壞ls。
  • cephfs-data-scan的新的pg_files子指令可以識别受損壞或丢失的RADOS PG影響的檔案。
  • 假陽性“未能響應緩存壓力”警告已修複。

繼續閱讀