1、檢視OSD的分布資訊:
<code># ceph osd tree</code>
<code>ID WEIGHT TYPE NAME UP</code><code>/DOWN</code> <code>REWEIGHT PRIMARY-AFFINITY </code>
<code>-1 0.21950 root default </code>
<code>-2 0.04390 host hz-01-ops-tc-ceph-01 </code>
<code> </code><code>0 0.04390 osd.0 up 1.00000 1.00000 </code>
<code>-3 0.04390 host hz-01-ops-tc-ceph-02 </code>
<code> </code><code>1 0.04390 osd.1 up 1.00000 1.00000 </code>
<code>-4 0.04390 host hz-01-ops-tc-ceph-03 </code>
<code> </code><code>2 0.04390 osd.2 up 1.00000 1.00000 </code>
<code>-5 0.04390 host hz-01-ops-tc-ceph-04 </code>
<code> </code><code>3 0.04390 osd.3 up 1.00000 1.00000 </code>
<code>-6 0.04390 host hz01-dev-ops-wanl-01 </code>
<code> </code><code>4 0.04390 osd.4 up 1.00000 1.00000</code>
2、将osd.4移除OSD
<code># ceph osd out 4</code>
<code>marked out osd.4. </code>
<code># ceph -s</code>
<code> </code><code>cluster e2ca994a-00c4-477f-9390-ea3f931c5062</code>
<code> </code><code>health HEALTH_WARN</code>
<code> </code><code>56 pgs degraded</code>
<code> </code><code>1 pgs recovering</code>
<code> </code><code>55 pgs recovery_wait</code>
<code> </code><code>56 pgs stuck unclean</code>
<code> </code><code>recovery 604</code><code>/1692</code> <code>objects degraded (35.697%)</code>
<code> </code><code>monmap e1: 3 mons at {hz-01-ops-tc-ceph-02=172.16.2.231:6789</code><code>/0</code><code>,hz-01-ops-tc-ceph-03=172.16.2.172:6789</code><code>/0</code><code>,hz-01-ops-tc-ceph-04=172.16.2.181:6789</code><code>/0</code><code>}</code>
<code> </code><code>election epoch 20, quorum 0,1,2 hz-01-ops-tc-ceph-03,hz-01-ops-tc-ceph-04,hz-01-ops-tc-ceph-02</code>
<code> </code><code>osdmap e89: 5 osds: 5 up, 4 </code><code>in</code>
<code> </code><code>flags sortbitwise,require_jewel_osds</code>
<code> </code><code>pgmap v68654: 1172 pgs, 4 pools, 2159 MB data, 564 objects</code>
<code> </code><code>5491 MB used, 174 GB / 179 GB avail</code>
<code> </code><code>604</code><code>/1692</code> <code>objects degraded (35.697%)</code>
<code> </code><code>1116 active+clean</code>
<code> </code><code>55 active+recovery_wait+degraded</code>
<code> </code><code>1 active+recovering+degraded</code>
<code>recovery io 87376 kB</code><code>/s</code><code>, 1 keys</code><code>/s</code><code>, 23 objects</code><code>/s</code>
3、在被删除OSD的那台ceph節點上的操作:
<code># systemctl stop ceph-osd@4</code>
<code> </code><code>4 0.04390 osd.4 down 0 1.00000 </code>
<code># ceph osd crush remove osd.4</code>
<code>removed item </code><code>id</code> <code>4 name </code><code>'osd.4'</code> <code>from crush map</code>
<code># ceph auth del osd.4</code>
<code>updated</code>
<code>-1 0.17560 root default </code>
<code>-6 0 host hz01-dev-ops-wanl-01 </code>
<code> </code><code>4 0 osd.4 down 0 1.00000 </code>
<code># df -h</code>
<code>Filesystem Size Used Avail Use% Mounted on</code>
<code>/dev/mapper/cl-root</code> <code>39G 1.8G 37G 5% /</code>
<code>devtmpfs 486M 0 486M 0% </code><code>/dev</code>
<code>tmpfs 497M 84K 497M 1% </code><code>/dev/shm</code>
<code>tmpfs 497M 26M 472M 6% </code><code>/run</code>
<code>tmpfs 497M 0 497M 0% </code><code>/sys/fs/cgroup</code>
<code>/dev/vda1</code> <code>1014M 121M 894M 12% </code><code>/boot</code>
<code>/dev/mapper/cl-home</code> <code>19G 33M 19G 1% </code><code>/home</code>
<code>/dev/vdb1</code> <code>45G 237M 45G 1% </code><code>/var/lib/ceph/osd/ceph-4</code>
<code>tmpfs 100M 0 100M 0% </code><code>/run/user/0</code>
<code># lsblk</code>
<code>NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT</code>
<code>sr0 11:0 1 1024M 0 rom </code>
<code>vda 252:0 0 60G 0 disk </code>
<code>├─vda1 252:1 0 1G 0 part </code><code>/boot</code>
<code>└─vda2 252:2 0 59G 0 part </code>
<code> </code><code>├─cl-root 253:0 0 38.3G 0 lvm /</code>
<code> </code><code>├─cl-swap 253:1 0 2G 0 lvm [SWAP]</code>
<code> </code><code>└─cl-home 253:2 0 18.7G 0 lvm </code><code>/home</code>
<code>vdb 252:16 0 50G 0 disk </code>
<code>├─vdb1 252:17 0 45G 0 part </code><code>/var/lib/ceph/osd/ceph-4</code>
<code>└─vdb2 252:18 0 5G 0 part </code>
<code> </code><code>health HEALTH_OK</code>
<code> </code><code>osdmap e79: 4 osds: 4 up, 4 </code><code>in</code>
<code> </code><code>pgmap v68497: 1164 pgs, 3 pools, 2159 MB data, 564 objects</code>
<code> </code><code>6655 MB used, 173 GB / 179 GB avail</code>
<code> </code><code>1164 active+clean</code>
本文轉自 冰凍vs西瓜 51CTO部落格,原文連結:http://blog.51cto.com/molewan/2063598,如需轉載請自行聯系原作者