1、檢視ceph服務狀态
<code># systemctl status ceph\*.service</code>
<code>● [email protected] - Ceph object storage daemon</code>
<code> </code><code>Loaded: loaded (</code><code>/usr/lib/systemd/system/ceph-osd</code><code>@.service; enabled; vendor preset: disabled)</code>
<code> </code><code>Active: active (running) since Fri 2018-01-12 06:03:20 CST; 7h ago</code>
<code>Main PID: 4686 (ceph-osd)</code>
<code> </code><code>CGroup: </code><code>/system</code><code>.slice</code><code>/system-ceph</code><code>\x2dosd.slice</code><code>/ceph-osd</code><code>@0.service</code>
<code> </code><code>└─4686 </code><code>/usr/bin/ceph-osd</code> <code>-f --cluster ceph --</code><code>id</code> <code>0 --setuser ceph --setgroup ceph</code>
<code>Jan 12 06:03:20 hz-01-ops-tc-ceph-01 ceph-osd[4686]: starting osd.0 at :</code><code>/0</code> <code>osd_data </code><code>/var/lib/ceph/osd/ceph-0</code> <code>/var/lib/ceph/osd/ceph-0/journal</code>
<code>Jan 12 06:03:20 hz-01-ops-tc-ceph-01 ceph-osd[4686]: 2018-01-12 06:03:20.610107 7f6b4111b800 -1 osd.0 0 log_to_monitors {default=</code><code>true</code><code>}</code>
<code>Jan 12 06:03:20 hz-01-ops-tc-ceph-01 systemd[1]: [</code><code>/usr/lib/systemd/system/ceph-osd</code><code>@.service:18] Unknown lvalue </code><code>'TasksMax'</code> <code>in</code> <code>section </code><code>'Service'</code>
<code>Jan 12 06:03:21 hz-01-ops-tc-ceph-01 systemd[1]: [</code><code>/usr/lib/systemd/system/ceph-osd</code><code>@.service:18] Unknown lvalue </code><code>'TasksMax'</code> <code>in</code> <code>section </code><code>'Service'</code>
<code>Jan 12 13:53:07 hz-01-ops-tc-ceph-01 systemd[1]: [</code><code>/usr/lib/systemd/system/ceph-osd</code><code>@.service:18] Unknown lvalue </code><code>'TasksMax'</code> <code>in</code> <code>section </code><code>'Service'</code>
2、解決方法:
<code># sudo yum install systemd-*</code>
3、服務驗證:
<code># systemctl restart ceph\*.service</code>
<code> </code><code>Active: active (running) since Fri 2018-01-12 13:56:14 CST; 2s ago</code>
<code> </code><code>Process: 14682 ExecStartPre=</code><code>/usr/lib/ceph/ceph-osd-prestart</code><code>.sh --cluster ${CLUSTER} --</code><code>id</code> <code>%i (code=exited, status=0</code><code>/SUCCESS</code><code>)</code>
<code>Main PID: 14733 (ceph-osd)</code>
<code> </code><code>└─14733 </code><code>/usr/bin/ceph-osd</code> <code>-f --cluster ceph --</code><code>id</code> <code>0 --setuser ceph --setgroup ceph</code>
<code>Jan 12 13:56:14 hz-01-ops-tc-ceph-01 systemd[1]: Starting Ceph object storage daemon...</code>
<code>Jan 12 13:56:14 hz-01-ops-tc-ceph-01 ceph-osd-prestart.sh[14682]: create-or-move updated item name </code><code>'osd.0'</code> <code>weight 0.0439 at location {host=hz-01-ops-tc-ceph-01,root=default} to crush map</code>
<code>Jan 12 13:56:14 hz-01-ops-tc-ceph-01 systemd[1]: Started Ceph object storage daemon.</code>
<code>Jan 12 13:56:14 hz-01-ops-tc-ceph-01 ceph-osd[14733]: starting osd.0 at :</code><code>/0</code> <code>osd_data </code><code>/var/lib/ceph/osd/ceph-0</code> <code>/var/lib/ceph/osd/ceph-0/journal</code>
<code>Jan 12 13:56:14 hz-01-ops-tc-ceph-01 ceph-osd[14733]: 2018-01-12 13:56:14.620901 7f0aee7fb800 -1 osd.0 19 log_to_monitors {default=</code><code>true</code><code>}</code>
本文轉自 冰凍vs西瓜 51CTO部落格,原文連結:http://blog.51cto.com/molewan/2060357,如需轉載請自行聯系原作者