linux raid配置
實驗環境,red hat5 ,使用4個分好的區,代表4塊磁盤,做一個raid5,檢視linux下raid現象。
假設現在系統有4塊磁盤,做一個raid5存放資料,3塊盤建構一個raid5,另一塊做熱備。
一、建立部分。
1、在使用磁盤時,需要先将磁盤的分區類型改成linux raid auto類型的。
Command (m for help): t
Partition number (1-8): 6
Hex code (type L to list codes): fd
Changed system type of partition 6 to fd (Linux raid autodetect)
Partition number (1-8): 7
Changed system type of partition 7 to fd (Linux raid autodetect)
Command (m for help): p
Disk /dev/sdb: 21.4 GB, 21474836480 bytes
255 heads, 63 sectors/track, 2610 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Device Boot Start End Blocks Id System
/dev/sdb1 1 2610 20964793+ 5 Extended
/dev/sdb5 1 13 104359+ fd Linux raid autodetect
/dev/sdb6 14 26 104391 fd Linux raid autodetect
/dev/sdb7 27 39 104391 fd Linux raid autodetect
/dev/sdb8 40 52 104391 fd Linux raid autodetect
Command (m for help):
檢視一下改好後的磁盤情況。
[root@zhaoyun ~]# fdisk -l
Disk /dev/sda: 32.2 GB, 32212254720 bytes
255 heads, 63 sectors/track, 3916 cylinders
/dev/sda1 * 1 3916 31455238+ 83 Linux
2、開始建立raid。
使用mdadm建立raid
mdadm -C /dev/md0 -l 5 -n 3 -x 1 /dev/sdb{5..8}
-C 建立
-l 類型,raid幾就寫幾
-n 磁盤數量,最少3塊,
-x 熱備數量 ,按實際寫,
[root@zhaoyun ~]# mdadm -C /dev/md0 -l 5 -n 3 -x 1 /dev/sdb{5..8}
cat mdadm: array /dev/md0 started.
[root@zhaoyun ~]# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sdb7[2] sdb8[3](S) sdb6[1] sdb5[0]
208512 blocks level 5, 64k chunk, algorithm 2 [3/3] [UUU]
unused devices: <none>
[root@zhaoyun ~]# mdadm -D /dev/md0
/dev/md0:
Version : 0.90
Creation Time : Tue Nov 29 09:39:50 2011
Raid Level : raid5
Array Size : 208512 (203.66 MiB 213.52 MB)
Used Dev Size : 104256 (101.83 MiB 106.76 MB)
Raid Devices : 3
Total Devices : 4
Preferred Minor : 0
Persistence : Superblock is persistent
Update Time : Tue Nov 29 09:39:53 2011
State : clean
Active Devices : 3
Working Devices : 4
Failed Devices : 0
Spare Devices : 1
Layout : left-symmetric
Chunk Size : 64K
UUID : 0eaef563:3d63e66d:52b3a5c7:ff502931
Events : 0.2
Number Major Minor RaidDevice State
0 8 21 0 active sync /dev/sdb5
1 8 22 1 active sync /dev/sdb6
2 8 23 2 active sync /dev/sdb7
3 8 24 - spare /dev/sdb8
3、遮掩raid就建立好了,下面格式化使用。
[root@zhaoyun ~]# mkfs.ext3 /dev/md0
[root@zhaoyun ~]# mount /dev/md0 /mnt/
[root@zhaoyun ~]# cd /mnt
[root@zhaoyun mnt]# ls
lost+found
可以看到新建立的raid5容量是200M的,但實際建立的時候給了300M ,這是raid5的特性,n分之n-1.的容量。
[root@zhaoyun mnt]# df -h
檔案系統 容量 已用 可用 已用% 挂載點
/dev/sda1 30G 3.1G 25G 12% /
tmpfs 95M 0 95M 0% /dev/shm
/dev/hdc 2.8G 2.8G 0 100% /media
/dev/md0 198M 5.8M 182M 4% /mnt
[root@zhaoyun mnt]# touch file
file lost+found
[root@zhaoyun mnt]#
如果不生成配置檔案重新開機後raid就看不見了。
4、生成mdadm配置檔案
[root@zhaoyun ~]# mdadm -D --scan >> /etc/mdadm.conf
[root@zhaoyun ~]# cat /etc/mdadm.conf
ARRAY /dev/md0 level=raid5 num-devices=3 metadata=0.90 spares=2 UUID=68f3eb1f:adeffa6b:bd57a6e6:436b9c07
[root@zhaoyun ~]#
5、raid的配置完成。
二、實驗raid是否好使。
1、模拟壞掉一塊磁盤。檢視熱備的效果。
[root@zhaoyun ~]# mdadm /dev/md0 -f /dev/sdb5
mdadm: set /dev/sdb5 faulty in /dev/md0
Creation Time : Tue Nov 29 09:44:47 2011
Total Devices : 5
Update Time : Tue Nov 29 09:57:17 2011
State : clean, degraded, recovering
Active Devices : 2
Failed Devices : 1
Spare Devices : 2
Rebuild Status : 70% complete
UUID : 68f3eb1f:adeffa6b:bd57a6e6:436b9c07
Events : 0.8
3 8 24 0 spare rebuilding /dev/sdb8 #将熱備的硬碟加入到raid中,必經過的狀态
4 8 25 - spare /dev/sdb9
5 8 21 - faulty spare /dev/sdb5 #順壞硬碟的狀态
Update Time : Tue Nov 29 09:57:20 2011
Events : 0.10
0 8 24 0 active sync /dev/sdb8 #重建完成後的狀态。
3 8 25 - spare /dev/sdb9
4 8 21 - faulty spare /dev/sdb5
[root@zhaoyun ~]#
mdadm -S /dev/md0 停止raid
mdadm -A /dev/md0 啟動raid
mdadm --zero-superblock /dev/sdb{5..9}
mdadm -G /dev/md0 -n 4
mdadm /dev/md5 -a /dev/sdb 0
本文轉自zhaoyun00 51CTO部落格,原文連結:http://blog.51cto.com/zhaoyun/730397