天天看點

ceph 相關指令

一、manager 篇

檢視實時的運作狀态資訊:

[root@ceph-manager ~]# ceph -w

檢視狀态資訊:

[root@ceph-manager ~]# ceph -s

檢視存儲空間:

[root@ceph-manager ~]# ceph df

删除某個節點的所有的ceph資料包:

[root@ceph-manager ~]# ceph-deploy purge ceph-mon-1

[root@ceph-manager ~]# ceph-deploy purgedata ceph-mon-1

為ceph建立一個admin使用者并為admin使用者建立一個密鑰,把密鑰儲存到/etc/ceph目錄下:

[root@ceph-manager ~]# ceph auth get-or-create client.admin mds 'allow' osd 'allow *' mon 'allow *' -o /etc/ceph/ceph.client.admin.keyring

為osd.ceph-osd-1建立一個使用者并建立一個key

[root@ceph-manager ~]# ceph auth get-or-create osd.ceph-osd-1 mon 'allow rwx' osd 'allow *' -o /etc/ceph/keyring

為mds.ceph-mon-1建立一個使用者并建立一個key

[root@ceph-manager ~]# ceph auth get-or-create mds.ceph-mon-1 mon 'allow rwx' osd 'allow *' mds 'allow *' -o /etc/ceph/keyring

檢視ceph叢集中的認證使用者及相關的key

[root@ceph-manager ~]# ceph auth list

删除叢集中的一個認證使用者

[root@ceph-manager ~]# ceph auth del osd.0

檢視叢集健康狀态詳細資訊

[root@ceph-manager ~]# ceph health detail

檢視ceph log日志所在的目錄

[root@ceph-manager ~]# ceph-conf --name mds.ceph-manager --show-config-value log_file

二、mon 篇

檢視mon的狀态資訊

[root@ceph-manager ~]# ceph mon stat

檢視mon的選舉狀态

[root@ceph-manager ~]# ceph quorum_status --format json-pretty

看mon的映射資訊

[root@ceph-manager ~]# ceph mon dump

删除一個mon節點

[root@ceph-manager ~]# ceph mon remove ceph-mon-1

獲得一個正在運作的mon map,并儲存在mon-1-map.txt檔案中

[root@ceph-manager ~]# ceph mon getmap -o mon-1-map.txt

檢視mon-1-map.txt

[root@ceph-manager ~]# monmaptool --print mon-1-map.txt

把上面的mon map注入新加入的節點

[root@ceph-manager ~]# ceph-mon -i ceph-mon-3 --inject-monmap mon-1-map.txt

檢視mon的socket

[root@ceph-manager ~]# ceph-conf --name mon.ceph-mon-1 --show-config-value admin_socket

檢視mon的詳細狀态

[root@ceph-mon-1 ~]# ceph daemon mon.ceph-mon-1 mon_status

三、msd 篇

檢視msd狀态

[root@ceph-manager ~]# ceph mds dump

删除一個mds節點

[root@ceph-manager ~]# ceph mds rm 0 mds.ceph-mds-1

四、osd 篇

檢視ceph osd運作狀态

[root@ceph-manager ~]# ceph osd stat

檢視osd映射資訊

檢視osd的目錄樹

[root@ceph-manager ~]# ceph osd tree

down掉一個osd硬碟 (ceph osd tree 可檢視osd 的硬碟資訊,下面為down osd.0 節點)

[root@ceph-manager ~]# ceph osd down 0

在叢集中删除一個osd硬碟

[root@ceph-manager ~]# ceph osd rm 0

在叢集中删除一個osd 硬碟 并 crush map 清除map資訊

[root@ceph-manager ~]# ceph osd crush rm osd.0

在叢集中删除一個osd的host節點

[root@ceph-manager ~]# ceph osd crush rm ceph-osd-1

檢視最大osd的個數 

[root@ceph-manager ~]# ceph osd getmaxosd

設定最大的osd的個數(當擴大osd節點的時候必須擴大這個值)

[root@ceph-manager ~]# ceph osd setmaxosd 10

設定osd crush的權重 ceph osd crush set <ID> <WEIGHT> <NAME> ID WEIGHT NAME 使用 ceph osd tree 檢視

[root@ceph-manager ~]# ceph osd crush set 1 3.0 host=ceph-osd-1

設定osd 的權重 ceph osd reweight <ID> <REWEIGHT>

[root@ceph-manager ~]# ceph osd reweight 1 0.5

把一個osd節點踢出叢集

[root@ceph-manager ~]# ceph osd out osd.1

把踢出的osd重新加入叢集

[root@ceph-manager ~]# ceph osd in osd.1

暫停osd (暫停後整個叢集不再接收資料)

[root@ceph-manager ~]# ceph osd pause

再次開啟osd (開啟後再次接收資料) 

[root@ceph-manager ~]# ceph osd unpause

五、 PG 篇

檢視pg組的映射資訊

[root@ceph-manager ~]# ceph pg dump |more

檢視一個PG的map

[root@ceph-manager ~]# ceph pg map 0.3f

檢視PG狀态

[root@ceph-manager ~]# ceph pg stat

查詢一個pg的詳細資訊

[root@ceph-manager ~]# ceph pg 0.39 query

檢視pg中stuck的狀态 (如有非正常pg會顯示)

[root@ceph-manager ~]# ceph pg dump_stuck unclean

[root@ceph-manager ~]# ceph pg dump_stuck inactive

[root@ceph-manager ~]# ceph pg dump_stuck stale

顯示一個叢集中的所有的pg統計

[root@ceph-manager ~]# ceph pg dump --format plain|more

恢複一個丢失的pg (og-id 為丢失的pg, 使用ceph pg dump_stuck inactive|unclean|stale 查找)

[root@ceph-manager ~]# ceph pg {pg-id} mark_unfound_lost revert

六、pool 篇

檢視ceph叢集中的pool數量 

[root@ceph-manager ~]# ceph osd lspools

檢視 PG組 号碼:

[root@ceph-manager ~]# ceph osd pool get rbd pg_num

在ceph叢集中建立一個pool

[root@ceph-manager ~]# ceph osd pool create test 100 (名稱為 test, 100為PG組号碼)

為一個ceph pool配置配額

[root@ceph-manager ~]# ceph osd pool set-quota test max_objects 10000

顯示所有的pool

[root@ceph-manager ~]# ceph osd pool ls

在叢集中删除一個pool

[root@ceph-manager ~]# ceph osd pool delete test test --yes-i-really-really-mean-it

顯示叢集中pool的詳細資訊

[root@ceph-manager ~]# rados df

給一個pool建立一個快照

[root@ceph-manager ~]# ceph osd pool mksnap test test-snap

删除pool的快照

[root@ceph-manager ~]# ceph osd pool rmsnap test test-snap

檢視data池的pg數量

[root@ceph-manager ~]# ceph osd pool get test pg_num

設定data池的最大存儲空間(預設是1T, 1T = 1000000000000, 如下為100T)

[root@ceph-manager ~]# ceph osd pool set test target_max_bytes 100000000000000

設定data池的副本數

[root@ceph-manager ~]# ceph osd pool set test size 3

設定data池能接受寫操作的最小副本為2

[root@ceph-manager ~]# ceph osd pool set test min_size 2

檢視叢集中所有pool的副本尺寸

[root@ceph-manager ~]# ceph osd dump | grep 'replicated size'

設定一個pool的pg數量

[root@ceph-manager ~]# ceph osd pool set test pg_num 100

設定一個pool的pgp數量

[root@ceph-manager ~]# ceph osd pool set test pgp_num 100

檢視ceph pool中的ceph object (volumes 為pool名稱)(這裡的object是以塊形式存儲的)

[root@ceph-manager ~]# rados ls -p volumes | more

建立一個對象object

[root@ceph-manager ~]# rados create test-object -p test

檢視object

[root@ceph-manager ~]# rados -p test ls

删除一個對象

[root@ceph-manager ~]# rados rm test-object -p test

檢視ceph中一個pool裡的所有鏡像 (volumes 為pool名稱)

[root@ceph-manager ~]# rbd ls volumes

在test池中建立一個命名為images的1000M的鏡像

[root@ceph-manager ~]# rbd create -p test --size 1000 images

檢視剛建立的鏡像資訊

[root@ceph-manager ~]# rbd -p test info images

删除一個鏡像

[root@ceph-manager ~]# rbd rm -p test images

調整一個鏡像的尺寸

[root@ceph-manager ~]# rbd resize -p test --size 2000 images

給鏡像建立一個快照 (池/鏡像名@快照名)

[root@ceph-manager ~]# rbd snap create test/images@images1

删除一個鏡像檔案的一個快照

[root@ceph-manager ~]# rbd snap rm 快照池/快照鏡像檔案@具體快照

如果删除快照提示保護,需要先删除保護

[root@ceph-manager ~]# rbd snap unprotect 快照池/快照鏡像檔案@具體快照

删除一個鏡像檔案的所有快照

[root@ceph-manager ~]# rbd snap purge -p 快照池/快照鏡像檔案

把ceph pool中的一個鏡像導出

[root@ceph-manager ~]# rbd export -p images --image <具體鏡像id> /tmp/images.img

本文轉自    OpenStack2015 部落格,原文連結:  http://blog.51cto.com/andyliu/1896783      如需轉載請自行聯系原作者