天天看点

Ceph:删除OSD

1、查看OSD的分布信息:

<code># ceph osd tree</code>

<code>ID WEIGHT  TYPE NAME                     UP</code><code>/DOWN</code> <code>REWEIGHT PRIMARY-AFFINITY </code>

<code>-1 0.21950 root default                                                    </code>

<code>-2 0.04390     host hz-01-ops-tc-ceph-01                                   </code>

<code> </code><code>0 0.04390         osd.0                      up  1.00000          1.00000 </code>

<code>-3 0.04390     host hz-01-ops-tc-ceph-02                                   </code>

<code> </code><code>1 0.04390         osd.1                      up  1.00000          1.00000 </code>

<code>-4 0.04390     host hz-01-ops-tc-ceph-03                                   </code>

<code> </code><code>2 0.04390         osd.2                      up  1.00000          1.00000 </code>

<code>-5 0.04390     host hz-01-ops-tc-ceph-04                                   </code>

<code> </code><code>3 0.04390         osd.3                      up  1.00000          1.00000 </code>

<code>-6 0.04390     host hz01-dev-ops-wanl-01                                   </code>

<code> </code><code>4 0.04390         osd.4                      up  1.00000          1.00000</code>

2、将osd.4移除OSD

<code># ceph osd out 4</code>

<code>marked out osd.4. </code>

<code># ceph -s</code>

<code>    </code><code>cluster e2ca994a-00c4-477f-9390-ea3f931c5062</code>

<code>     </code><code>health HEALTH_WARN</code>

<code>            </code><code>56 pgs degraded</code>

<code>            </code><code>1 pgs recovering</code>

<code>            </code><code>55 pgs recovery_wait</code>

<code>            </code><code>56 pgs stuck unclean</code>

<code>            </code><code>recovery 604</code><code>/1692</code> <code>objects degraded (35.697%)</code>

<code>     </code><code>monmap e1: 3 mons at {hz-01-ops-tc-ceph-02=172.16.2.231:6789</code><code>/0</code><code>,hz-01-ops-tc-ceph-03=172.16.2.172:6789</code><code>/0</code><code>,hz-01-ops-tc-ceph-04=172.16.2.181:6789</code><code>/0</code><code>}</code>

<code>            </code><code>election epoch 20, quorum 0,1,2 hz-01-ops-tc-ceph-03,hz-01-ops-tc-ceph-04,hz-01-ops-tc-ceph-02</code>

<code>     </code><code>osdmap e89: 5 osds: 5 up, 4 </code><code>in</code>

<code>            </code><code>flags sortbitwise,require_jewel_osds</code>

<code>      </code><code>pgmap v68654: 1172 pgs, 4 pools, 2159 MB data, 564 objects</code>

<code>            </code><code>5491 MB used, 174 GB / 179 GB avail</code>

<code>            </code><code>604</code><code>/1692</code> <code>objects degraded (35.697%)</code>

<code>                </code><code>1116 active+clean</code>

<code>                  </code><code>55 active+recovery_wait+degraded</code>

<code>                   </code><code>1 active+recovering+degraded</code>

<code>recovery io 87376 kB</code><code>/s</code><code>, 1 keys</code><code>/s</code><code>, 23 objects</code><code>/s</code>

3、在被删除OSD的那台ceph节点上的操作:

<code># systemctl stop ceph-osd@4</code>

<code> </code><code>4 0.04390         osd.4                    down        0          1.00000 </code>

<code># ceph osd crush remove osd.4</code>

<code>removed item </code><code>id</code> <code>4 name </code><code>'osd.4'</code> <code>from crush map</code>

<code># ceph auth del osd.4</code>

<code>updated</code>

<code>-1 0.17560 root default                                                    </code>

<code>-6       0     host hz01-dev-ops-wanl-01                                   </code>

<code> </code><code>4       0 osd.4                            down        0          1.00000 </code>

<code># df -h</code>

<code>Filesystem           Size  Used Avail Use% Mounted on</code>

<code>/dev/mapper/cl-root</code>   <code>39G  1.8G   37G   5% /</code>

<code>devtmpfs             486M     0  486M   0% </code><code>/dev</code>

<code>tmpfs                497M   84K  497M   1% </code><code>/dev/shm</code>

<code>tmpfs                497M   26M  472M   6% </code><code>/run</code>

<code>tmpfs                497M     0  497M   0% </code><code>/sys/fs/cgroup</code>

<code>/dev/vda1</code>           <code>1014M  121M  894M  12% </code><code>/boot</code>

<code>/dev/mapper/cl-home</code>   <code>19G   33M   19G   1% </code><code>/home</code>

<code>/dev/vdb1</code>             <code>45G  237M   45G   1% </code><code>/var/lib/ceph/osd/ceph-4</code>

<code>tmpfs                100M     0  100M   0% </code><code>/run/user/0</code>

<code># lsblk</code>

<code>NAME        MAJ:MIN RM  SIZE RO TYPE MOUNTPOINT</code>

<code>sr0          11:0    1 1024M  0 rom  </code>

<code>vda         252:0    0   60G  0 disk </code>

<code>├─vda1      252:1    0    1G  0 part </code><code>/boot</code>

<code>└─vda2      252:2    0   59G  0 part </code>

<code>  </code><code>├─cl-root 253:0    0 38.3G  0 lvm  /</code>

<code>  </code><code>├─cl-swap 253:1    0    2G  0 lvm  [SWAP]</code>

<code>  </code><code>└─cl-home 253:2    0 18.7G  0 lvm  </code><code>/home</code>

<code>vdb         252:16   0   50G  0 disk </code>

<code>├─vdb1      252:17   0   45G  0 part </code><code>/var/lib/ceph/osd/ceph-4</code>

<code>└─vdb2      252:18   0    5G  0 part </code>

<code>     </code><code>health HEALTH_OK</code>

<code>     </code><code>osdmap e79: 4 osds: 4 up, 4 </code><code>in</code>

<code>      </code><code>pgmap v68497: 1164 pgs, 3 pools, 2159 MB data, 564 objects</code>

<code>            </code><code>6655 MB used, 173 GB / 179 GB avail</code>

<code>                </code><code>1164 active+clean</code>

本文转自 冰冻vs西瓜 51CTO博客,原文链接:http://blog.51cto.com/molewan/2063598,如需转载请自行联系原作者