天天看點

Ceph:RBD線上擴容容量

Ceph管理端的操作:

<code># rbd ls -p openshift</code>

<code>openshift-storage01</code>

<code># rbd resize openshift/openshift-storage01 --size 20000</code>

<code>Resizing image: 100% complete...</code><code>done</code><code>.</code>

Ceph用戶端的操作:

<code># rbd showmapped</code>

<code>id</code> <code>pool      image               snap device    </code>

<code>0  openshift openshift-storage01 -    </code><code>/dev/rbd0</code> 

<code># df -h</code>

<code>檔案系統             容量  已用  可用 已用% 挂載點</code>

<code>/dev/mapper/cl-root</code>  <code>179G  5.7G  174G    4% /</code>

<code>devtmpfs             1.9G     0  1.9G    0% </code><code>/dev</code>

<code>tmpfs                1.9G  316K  1.9G    1% </code><code>/dev/shm</code>

<code>tmpfs                1.9G   49M  1.9G    3% </code><code>/run</code>

<code>tmpfs                1.9G     0  1.9G    0% </code><code>/sys/fs/cgroup</code>

<code>/dev/vda1</code>            <code>297M  122M  176M   41% </code><code>/boot</code>

<code>tmpfs                380M   16K  380M    1% </code><code>/run/user/42</code>

<code>tmpfs                380M   48K  380M    1% </code><code>/run/user/0</code>

<code>/dev/vdb</code>            <code>1008G   92G  866G   10% </code><code>/mnt/backup</code>

<code>tmpfs                380M     0  380M    0% </code><code>/run/user/1001</code>

<code>/dev/rbd0</code>             <code>10G  2.0G  8.1G   20% </code><code>/cephmount</code>

<code># xfs_growfs -d /cephmount/</code>

<code>meta-data=</code><code>/dev/rbd0</code>              <code>isize=512    agcount=17, agsize=162816 blks</code>

<code>         </code><code>=                       sectsz=512   attr=2, projid32bit=1</code>

<code>         </code><code>=                       crc=1        finobt=0 spinodes=0</code>

<code>data     =                       bsize=4096   blocks=2621440, imaxpct=25</code>

<code>         </code><code>=                       sunit=1024   swidth=1024 blks</code>

<code>naming   =version 2              bsize=4096   ascii-ci=0 ftype=1</code>

<code>log      =internal               bsize=4096   blocks=2560, version=2</code>

<code>         </code><code>=                       sectsz=512   sunit=8 blks, lazy-count=1</code>

<code>realtime =none                   extsz=4096   blocks=0, rtextents=0</code>

<code>data blocks changed from 2621440 to 5120000</code>

<code>說明:容量已經擴充了</code>

<code># ceph df </code>

<code>GLOBAL:</code>

<code>    </code><code>SIZE     AVAIL     RAW USED     %RAW USED </code>

<code>    </code><code>224G      212G       12736M          5.53 </code>

<code>POOLS:</code>

<code>    </code><code>NAME                ID     USED      %USED     MAX AVAIL     OBJECTS </code>

<code>    </code><code>rbd                 0        422         0        68433M           7 </code>

<code>    </code><code>openstack           1      2159M      3.06        68433M         554 </code>

<code>    </code><code>cloudstack-</code><code>test</code>     <code>2        194         0        68433M           6 </code>

<code>    </code><code>test</code>                <code>3          0         0        68433M           0 </code>

<code>    </code><code>openshift           4      2014M      2.86        68433M         539</code>

本文轉自 冰凍vs西瓜 51CTO部落格,原文連結:http://blog.51cto.com/molewan/2063761,如需轉載請自行聯系原作者