在Linux
中磁盘阵列RAID10布置中大家已经不易配置了RAID10
,一般的话在RAID第10中学最多允许一半的磁盘损毁,当然除了,同一磁盘RAID第11中学的硬盘设备总体毁灭。

 
 在Linux系统中做RAID,磁盘阵列的装置得以是一块磁盘中的多少个以上的分区,也足以是三块或上述的磁盘。本文首要以几块磁盘为例,来促成在RAID5。

在处理器术语中,RAID(Redundant Array of Independent
Disks,独立磁盘冗余数组)的核心绪维就是把三个相对方便的硬盘组合起来,成为二个磁盘数组,使品质达到甚至超越2个价格昂贵、体积巨大的硬盘.
        依照采用的本子不相同,RAID比单颗硬盘有以下三个或多个方面的补益:
                增强数据集成度
                增强容错功效
                增添处理量或体积
       
此外,磁盘数组组对于电脑来说,看起来就好像3个独立的硬盘或逻辑存款和储蓄单元.一句话来说,RAID把多个硬盘组合成为二个逻辑磁区,由此,操作系统只会把它当作3个硬盘.RAID常被用在服务器计算机上,并且常利用完全相同的硬盘作为组合.由于硬盘价格的接踵而至 蜂拥而至下落与RAID作用更是有效地与主板集成,它也改成了玩家的1个精选,尤其是内需大体量储存空间的工作,如:录像与节奏制作.

 

  这一次大家探讨一下:借使RAID中的某二个硬盘损毁了,怎么着修复?

尝试环境:

常用RAID的等级介绍
       
为了各自的一定应用,所急需的磁盘的组合措施也暗淡无光,经常大家将那种重组格局叫做RAID等级.常用的RAID等级如下:

磁盘阵列全名是: Redundant Arrays of Inexpensive Disks, RAID
,大致的趣味是:廉价的磁盘冗余阵列。RAID
能够由此3个技艺(软件或硬件),将七个较小的磁盘整合成为1个较大的磁盘设备,而以此较大的磁盘不但增加了储存空间,而且还有数据保养的效应。

  澳门金沙国际 1

 
 系统中有一块磁盘sda,新添加6块SCSI磁盘,分别为sdb,sdc,sdd,sde,sdf,sdg,个中4块作为磁盘阵列的配备,1块看成备选spare)磁盘,还有1块留作备用(用于扩充RAID)。

        RAID0(Stripping,条带)
       
将多少个磁盘合并成二个大的磁盘,不富有冗余,并行I/O,速度最快.RAID0亦称作带区集.它是将三个磁盘并列起来,成为二个大磁盘.在存放数据时,其将数据按磁盘的个数来拓展分层,然后还要将那一个数量写进那一个盘中.所以,在装有的级别中,RAID0的快慢是最快的.但是RAID0没有冗余功效,如若三个磁盘(物理)损坏,则持有的多少都会丢失.
       
理论上更加多的磁盘成效就等于[单纯磁盘效用]x[磁盘数],但实际上受限于总线I/O瓶颈及其余因素的熏陶,RAID功效会随边际递减,也便是说,若是2个磁盘的法力是50MB/秒,四个磁盘的RAID0功效约96MB/秒,四个磁盘的RAID0大概是130MB/秒而不是150MB/秒.所以,三个磁盘的RAID0最能明显感受到效果的进步.
                Size = 2 * min(S1, S2)
       
但倘借使以软件格局来落实RAID,则磁盘的半空中则不见得受限于此(例如Linux
Software RAID),通过软件实现能够经过不一样的结缘而擅长全体的磁盘空间.
                Size = sum of all disk

 

  1.损毁在那之中一块磁盘sdd

创建RAID5:

 

RAID会依照等级(level)
的不如,而使得整合后的磁盘具有差别的效能,基本常见的level 有以下那三种

mdadm /dev/md0 -f /dev/sdd

1.先查看一下类别中磁盘设备:fdisk -l

        RAID1(Mirror,镜像)
       
两组以上的N个磁盘相互作镜像,速度没有增加,除非拥有相同数量的主磁盘与镜像同时破坏,不然数据不会丢掉,可信赖性最高.其原理为在主硬盘上存放数据的同时也在镜像硬盘上写一样的数据.当主硬盘(物理)损坏时,镜像硬盘则代替主硬盘的工作.因为有镜像硬盘做数据备份,所以RAID1的数目安全性在具有的RAID级别上来说是最棒的.但无论用某个磁盘做RAID1,仅算一个磁盘的体积,是享有RAID上磁盘利用率最低的二个级别.
                Size = 2 * min(S1, S2)

 

  澳门金沙国际 2

…突显结果粗略

 

 

  2.查看错误:

2.接下来初步创办RAID了,主要会利用到mdadm命令,使用此命令供给先安装PRADOHEL6设置光盘中自带的mdadm包,要是没有安装,先进行设置。

        RAID5(分布奇偶位条带)
       
RAID5是一种存款和储蓄品质,数据安全和仓库储存费用兼顾的贮存化解方案.它利用的是Disk
Striping(硬盘分割)技术.RAID5至少须求三颗硬盘,RAID
5不对存款和储蓄的数额举行备份,而是把多少和相对应的奇偶校验新闻存款和储蓄到组成RAID5的逐条磁盘上,并且奇偶校验音讯和相呼应的多寡分别存款和储蓄于差异的磁盘上.当RAID5的八个磁盘数据爆发损坏后,利用剩余的数目和呼应的奇偶校验信息去恢复被破坏的数据.
RAID5能够知道为是RAID0和RAID1的折衷方案.RAID5能够为系统提供数据安全保证,但保持水平要比镜像低而磁盘空间利用率要比镜像高.RAID5持有和RAID0相类似的多寡读取速度,只是多了3个奇偶校验消息.写入数据的进程一点也不慢,若接纳”回写高速缓存”能够让效果改良不少.同时由于几个数据对应一个奇偶校验消息,RAID5的磁盘空间利用率要比RAID1高,存款和储蓄花费相对较便宜.
        Size = (N – 1) * min(S1, S2, …Sn)

RAID级别划分

mdadm -D /dev/md0 

创办RAID5,命令如下:

 

 

澳门金沙国际 3

[[email protected] /]# mdadm --create --auto=yes /dev/md0 --level=5 --raid-devices=4 --spare-devices=1 /dev/sd[b-f]

        RAID10/01         RAID10/01实际可细分为RAID1+0或RAID0+1.
       
RAID1+0(镜像阵列条带)是先镜射再分叉数据.是将兼具硬盘分为两组,视为是RAID0的最低组合,然后将那两组各自视为RAID1运作.RAID1+0颇具不错的读取速度,而且装有比RAID0更高的数据爱护性.
       
RAID0+1则是跟RAID1+0的次第相反,是先分割再将数据镜射到两组硬盘.它将兼具的硬盘分为两组,变成RAID1的最低组合,而将两组硬盘各自视为RAID0运作.RAID0+1比起RAID1+0独具更快的读写速度,但是也多了有的会让总体硬盘组甘休运作的机率;因为一旦同一组的硬盘全体摧毁,RAID0+1就会告一段落运转,而RAID1+0则足以在就义RAID0的优势下健康运作.
       
RAID10全优的应用了RAID0的快慢以及RAID1的掩护两种性格,然则它的弱点是索要的硬盘数较多,因为至少必须持有多少个以上的偶数硬盘才能使用.

RAID 0:磁盘叠加

  3.若那时候,我们初叶去选购新的磁盘(sdg)回来,将其插入电脑,之后重启了系统:

参数表明:

Linux Software RAID实践         在Linux系统中最近以MD(Multiple
Devices)虚拟块设备的格局贯彻软件RAID,利用几个底层的块设备虚拟出一个新的虚拟块设备,并且应用条带化(stripping)技术将数据块均匀分布到七个磁盘上来增强虚拟设备的读写质量,利用不相同的数额冗余算法来爱慕用户数量不会因为有个别块设备的故障而浑然不见,而且还能够在设施被轮换后将遗失的数据复苏到新的设备上.软RAID阵列实际上能够使用别的专业的块设备作为底层设备,如SCSI设备,IDE设备,RAM
disk磁盘和NBD(Network Block
Device)等,甚至是别的的MD设备.如今MD辅助linear,multipath,raid0(stripping),raid1(mirror),raid4,raid5,raid6,raid10等不相同的冗余级别和构成格局,当然也能支撑几个RAID阵列的层叠组成raid1+0,raid5+1等品种的阵列.
       
PAJEROHEL5已经将MD驱动模块直接编写翻译到根本中,大家得以在机械开动后经过cat
/proc/mdstat看基础是不是业已加载MD驱动或许cat
/proc/devices是或不是有md块设备.
                [root@server ~]# cat /proc/mdstat
                Personalities :
                unused devices: <none>
                [root@server ~]# cat /proc/devices | grep md
                  1 ramdisk
                  9 md
                254 mdp
       
在Linux系统中用户层以前使用raidtool工具集来管理MD设备,如今广泛运用mdadm软件来治本MD设备,而且该软件都会晤并在Linux的发表版中.mdadm首要有7种选拔方式,分别如下:
                –assemble       -A:
将原来属于一个阵列的各类块设备组装为阵列
                –build          -B: 营造没有元数据块的阵列
                –create         -C:
塑造一个新阵列,与build的差别之处在于各类设备具备元数据块
                –manage           :
管理已经存款和储蓄阵列中的设备,比如扩张热备磁盘恐怕去除磁盘
                –misc             :
报告也许修改阵列中有关设施的音讯,比如查询阵列也许配备的景观新闻
                –monitor        -F: 监察和控制三个或八个阵列,上报钦定的风浪
                –grow           -G:
改变阵列中种种设备被利用的体积或阵列中的设备的数量
       
在TiggoHEL第55中学能够直接使用YUM来安装mdadm软件包,也得以从安装光盘上找到该软件包用哈弗PM安装.
                [root@server ~]# mdadm –version
                mdadm – v2.6.4 – 19th October 2007
        安装好后,就足以起先前些天的考查了.

那种形式相似是选择同一型号与容积的磁盘来构成。那种格局的RAID
会将磁盘先切出等量的区块, 然后当贰个文件需求要写入RAID
设备时,该公文就会基于区块的分寸切割好,然后再相继停放各样磁盘里。由于每一种磁盘会交错的存放数据,
因而数据要写入RAID 时,会被等量的位于种种磁盘下面。

  澳门金沙国际 4

–create        
    //表示要成立raid

 

所以说,RAID 0,他的表征正是:

    3.1在md0 中添加磁盘 sdg

–auto=yes
/dev/md0  //新建立的软件磁盘阵列设备为md0,md序号能够为0-9

        1.准备源盘         大家先在虚拟机下虚拟9块SCSI硬盘.
                RAID0:  sdb    sdc
                RAID1:  sdd    sde    sdf
                RAID5:  sdg    sdh    sdi    sdj
        新建一文本answer,内容如下:
                n
                p
                1

壹 、磁盘越来越多RAID设备的容积就越大。

mdadm /dev/md0 -a /dev/sdg

–level=5        
   //磁盘阵列的阶段,那里代表创立是的raid5

                t
                FD
                w
        然后执行如下操作:
                [root@server ~]# for i in b c d e f g h i j; do fdisk
/dev/sd$i < answer; done
                [root@server ~]# fdisk -l | grep ‘Linux raid
autodetect’
                /dev/sdb1               1        1044     8385898+  fd 
Linux raid autodetect
                /dev/sdc1               1        1044     8385898+  fd 
Linux raid autodetect
                /dev/sdd1               1        1044     8385898+  fd 
Linux raid autodetect
                /dev/sde1               1        1044     8385898+  fd 
Linux raid autodetect
                /dev/sdf1               1        1044     8385898+  fd 
Linux raid autodetect
                /dev/sdg1               1        1044     8385898+  fd 
Linux raid autodetect
                /dev/sdh1               1        1044     8385898+  fd 
Linux raid autodetect
                /dev/sdi1               1        1044     8385898+  fd 
Linux raid autodetect
                /dev/sdj1               1        1044     8385898+  fd 
Linux raid autodetect
        以上操作确定保证把各种盘分区,再安装为FD的磁盘.

② 、容积的总大小是多个硬盘的体量的总和。

    查看音信:

–raid-devices  
    //添加作为磁盘阵列用的磁盘的块数

 

叁 、磁盘越来越多,写入的功能就越高。

    澳门金沙国际 5

–spare-devices  
   //添加作为备选spare)磁盘的块数

        2.创制新的阵列         用sdb1,sdc1创建RAID0
                mdadm –create /dev/md0 –level=0 –chunk=32
–raid-devices=2 /dev/sd[bc]1
                选项解释:
                       
–level=,-l:内定raid的级别,可选的值为0,1,4,5,6,linear,multipath和synonyms
                       
–chunk=,-c:钦赐条带数据块的深浅,以K为单位.私下认可为64K,条带单元的轻重配置对两样负载的阵列读写质量有极大影响
                        –raid-devices=,-n:内定活动磁盘的多少
                以上命令也可写作:mdadm -C /dev/md0 -l0 -c32 -n2
/dev/sdb[bc]1
        用sdd1,sde1,sdf1创建RAID1
                mdadm –create /dev/md1 –level=1 –raid-devices=2
–spare-devices=1 /dev/sd[d-f]1
                选项解释:
                       
–spare-devices=,-x:表示阵列中热备盘的个数,一旦阵列中的有个别磁盘失效,MD内核驱动程序自动用将热备磁盘参加到阵列,然后重构丢失磁盘上的数额到热备磁盘上.
                以上命令也可写作:mdadm -C /dev/md1 -l1 -n2 -x1
/dev/sd[d-f]1
        用sdg1,sdh1,sdi1,sdj1创建RAID5
                mdadm –create /dev/md2 –level=5 –raid-devices=3
/dev/sd[g-i]1 –spare-devices=1 /dev/sdj1
                以上命令也可写作:mdadm -C /dev/md2 -l5 -n3
/dev/sd[g-i]1 -x1 /dev/sdj1
        其余还足以参考如下命令,成立贰个RAID1+0装置
                mdadm -C /dev/md0 -l1 -n2 /dev/sd[bc]1
                mdadm -C /dev/md1 -l1 -n2 /dev/sd[de]1
                mdadm -C /dev/md2 -l1 -n2 /dev/sd[fg]1
                mdadm -C /dev/md3 -l0 -n3 /dev/md[0-2]
       
当RAID肆分之一/5/五分之三等创制成功后,须求计算每种条带的校验和音信并写入到对应磁盘上,使用cat
/proc/mdstat音信查询RAID阵列当前景观,重构的速度和预期的达成时间.
                [root@server ~]# cat /proc/mdstat
                Personalities : [raid0] [raid1] [raid6] [raid5]
[raid4]
                md2 : active raid5 sdi1[4] sdj1[3](S) sdh1[1]
sdg1[0]
                      16771584 blocks level 5, 64k chunk, algorithm 2
[3/2] [UU_]
                      [>………………..]  recovery =  1.9%
(167760/8385792) finish=9.7min speed=13980K/sec
               
                md1 : active raid1 sdf1[2](S) sde1[1] sdd1[0]
                      8385792 blocks [2/2] [UU]
               
                md0 : active raid0 sdc1[1] sdb1[0]
                      16771584 blocks 32k chunks
               
                unused devices: <none>

肆 、要是使用非等大的硬盘,那么当小的磁盘写满后,就一向向空中山大学的磁盘中写多少了。

    能够见到sdg此时或许处于空闲的情况,相当于三个备份盘.过一段时间后翻看情状:  澳门金沙国际 6

/dev/sd[b-f]  
      //磁盘阵列所使用的装置,还可写成/dev/sdb /dev/sdc
/dev/sdd /dev/sde /dev/sdf

 

⑤ 、最少的磁盘数是三个,而且磁盘使用率为百分之百

     此时,就足以将卓殊坏的sdd盘移除。

别的那条命令也得以简写:

        3.管制阵列
       
mdadm能够在manage情势下,对战列实行政管理理.最常用的操作是标识损坏的磁盘,扩大热备磁盘,以及从阵列中移走失效的磁盘等等.
        使用–fail(或许其缩写-f)钦定磁盘损坏.
                [root@server ~]# cat /proc/mdstat
                Personalities : [raid6] [raid5] [raid4] [raid1]
[raid0]
                md2 : active raid5 sdj1[3](S) sdi1[2] sdh1[1]
sdg1[0]
                      16771584 blocks level 5, 64k chunk, algorithm 2
[3/3] [UUU]

他的造成之处正是:万一当中三个磁盘有标题,那么数量就会全体出难点。因为数量是分手储存的。

    

[[email protected] /]#mdadm -C /dev/md0 -l5 -n4 -x1 /dev/sd[b-f]

                [root@server ~]# mdadm /dev/md2 –fail /dev/sdh1
                mdadm: set /dev/sdh1 faulty in /dev/md2

 

  固然如此上边修复了,然则一旦损毁到了一种极端的状态时(同一磁盘RAID第11中学的硬盘设备一切毁灭),大家该咋过来?

一天一点读书Linux之在奇骏HEL6种类上配置磁盘阵列,Linux系统中贯彻RAID卷详解。3.查看RAID是不是中标创办及是或不是不荒谬运行,有二种艺术当磁盘体积越大时,磁盘阵列营造的日子越长,所以或然必要静观其变不长日子才能来看以下消息):

                [root@server ~]# cat /proc/mdstat
                Personalities : [raid6] [raid5] [raid4] [raid1]
[raid0]
                md2 : active raid5 sdj1[3] sdi1[2] sdh1[4](F)
sdg1[0]
                      16771584 blocks level 5, 64k chunk, algorithm 2
[3/2] [U_U]
                      [>………………..]  recovery =  0.8%
(74172/8385792) finish=7.4min speed=18543K/sec
        
第2次查看境况时,sdj1是热备盘,当大家钦赐sdh1损坏后,系统活动将数据重构到热备盘sdj1上,在重构过程中,状态是U_U.
         用–remove命令能够将损坏的磁盘移走.
                  [root@server ~]# mdadm /dev/md2 –remove
/dev/sdh1
                  mdadm: hot removed /dev/sdh1
         此时查看情况时,已经唯有多少个盘了,没有备用的热备盘.
                  [root@server ~]# cat /proc/mdstat
                  Personalities : [raid6] [raid5] [raid4]
[raid1] [raid0]
                  md2 : active raid5 sdj1[1] sdi1[2] sdg1[0]
                        16771584 blocks level 5, 64k chunk, algorithm 2
[3/3] [UUU]
         当大家的毁坏的磁盘经过处理后,能够将其添加到阵列中作热备盘.
         用–add命令能够添加热备盘.
                  [root@server ~]# mdadm /dev/md2 –add /dev/sdh1
                  mdadm: added /dev/sdh1
                  [root@server ~]# cat /proc/mdstat
                  Personalities : [raid6] [raid5] [raid4]
[raid1] [raid0]
                  md2 : active raid5 sdh1[3](S) sdj1[1] sdi1[2]
sdg1[0]
                        16771584 blocks level 5, 64k chunk, algorithm 2
[3/3] [UUU]

 

  我们只能在日常就多买多少个硬盘作为备份盘来使用,万一未来出现那种情状,备份盘会自动顶替上去,那样也就足以减低数据丢失的风险。

履行mdadm –detail/dev/md0
命令查看RAID的详细音讯:

         其余还足以用–grow命令扩展可用的运动磁盘.

 

  创制备份盘:

澳门金沙国际 7

                  [root@server ~]#mdadm –grow /dev/md0
–raid-disks=4

RAID 1:镜像备份

  方法一:

翻看/proc/mdstat文件,能够比较不难明了的查看RAID创造和平运动转的景观:

 

这种形式首假使让同样份数据,完整的保留在不相同的磁盘上。由于同样份数据会被分别写入到别的差别磁盘。由此在多量写入RAID
1 配备的情景下,写入的成效会变的那一个差。但要是您选拔的是硬件RAID
(磁盘阵列卡)
时,磁盘阵列卡会主动的复制一份而不应用系统的I/O总线,那对效果影响是十分的小的。
要是利用软件磁盘阵列,作用就会鲜明回落了。

    假设RAID10,已经创立完毕,.添加两块硬盘sdh.sdi

[[email protected] ~]#cat /proc/mdstat

        4.施用阵列
        新建四个挂载点:
                [root@server ]# mkdir /mnt/MD0
                [root@server ]# mkdir /mnt/MD1
                [root@server ]# mkdir /mnt/MD2
        对RAID设备做文件系统格式化:
                [root@server ]# mkfs.ext3 /dev/md0
                [root@server ]# mkfs.ext3 /dev/md1
                [root@server ]# mkfs.ext3 /dev/md2
        挂载:
                [澳门金沙国际,root@server ]# mount /dev/md0 /mnt/MD0
                [root@server ]# mount /dev/md1 /mnt/MD1
                [root@server ]# mount /dev/md2 /mnt/MD2
        查看效果:
                [root@server ]# df -h
                ……
                /dev/md0               16G  173M   15G   2% /mnt/MD0
                /dev/md1              7.9G  147M  7.4G   2% /mnt/MD1
                /dev/md2               16G  173M   15G   2% /mnt/MD2
        现在我们就足以正常使用RAID设备了.
        当大家要停下RAID设备时,供给先将其卸载:
                [root@server ~]# umount /mnt/MD0
        然后再用如下命令结束设备:
                [root@server ~]# mdadm –stop /dev/md0
                mdadm: stopped /dev/md0
        此时再用命令查看发现,已经远非md0了.
                [root@server ~]# cat /proc/mdstat | grep md0
       
如若急需再度利用则须要将其”组装起来”,由于原先曾创立过,mdadm的assemble方式可检查底层设备的元数据消息,然后再组装为活跃的阵列.
                [root@server ~]# mdadm –assemble /dev/md0
/dev/sd[bc]1
                mdadm: /dev/md0 has been started with 2 drives.
                [root@server ~]# cat /proc/mdstat  | grep md0
                md0 : active raid0 sdb1[0] sdc1[1]
        那样就又能够另行挂载使用了.

RAID 1,他的特色是:

  澳门金沙国际 8  澳门金沙国际 9 

S代表预备spare)磁盘,陆个U代表平常,现身_代表不健康

 

① 、保证了数额的平安,

mdadm /dev/md0 -a /dev/sdh /dev/sdi

肯定新建的RAID设备

        5.阵列的元数据利用
       
Build情势能够用来创建没有元数据的RAID0/1配备,不能够成立RAID五分之四/伍分叁等涵盖冗余级其他MD设备,而create形式建立的RAID设备都以包涵元数据的.以使用命令–examine(-E)来检测当前的块设备上是不是有阵列的元数据信息.
                [root@server ~]# mdadm -E /dev/sdh1
                /dev/sdh1:
                          Magic : a92b4efc
                        Version : 00.90.00
                           UUID : cea9dd57:59f61370:00969939:2ef303d5
                  Creation Time : Sun May 17 12:15:50 2009
                     Raid Level : raid5
                  Used Dev Size : 8385792 (8.00 GiB 8.59 GB)
                     Array Size : 16771584 (15.99 GiB 17.17 GB)
                   Raid Devices : 3
                  Total Devices : 4
                Preferred Minor : 2
               
                    Update Time : Sun May 17 13:07:43 2009
                          State : clean
                 Active Devices : 3
                Working Devices : 4
                 Failed Devices : 0
                  Spare Devices : 1
                       Checksum : 95f50002 – correct
                         Events : 0.2
               
                         Layout : left-symmetric
                     Chunk Size : 64K
               
                      Number   Major   Minor   RaidDevice State
                this     1       8      113        1      active sync  
/dev/sdh1
               
                   0     0       8       97        0      active sync  
/dev/sdg1
                   1     1       8      113        1      active sync  
/dev/sdh1
                   2     2       8      129        2      active sync  
/dev/sdi1
                   3     3       8      145        3      spare  
/dev/sdj1
       
从以上音信能够见到sdg1,sdh1,sdi1和sdj1共同构成了3个raid5装备,sdj1做备份盘,该装备创立于201012:15:50,条带数据块大小选择了暗中同意值64k.其它还有贰个至关心注重要的多寡那正是UUID,它是阵列的绝无仅有标识,组成同一阵列的有关磁盘上的UUID是同一的.
        能够用于下命令来将具有相同元数据的磁盘重先组装成RAID.
                [root@server ~]# mdadm –assemble -v
–uuid=cea9dd57:59f61370:00969939:2ef303d5 /dev/md2 /dev/sd[b-j]1
                mdadm: looking for devices for /dev/md2
                mdadm: /dev/sdb1 has wrong uuid.            –1–
                mdadm: /dev/sdc1 has wrong uuid.
                mdadm: cannot open device /dev/sdd1: Device or resource
busy    –2–
                mdadm: /dev/sdd1 has wrong uuid.
                mdadm: cannot open device /dev/sde1: Device or resource
busy
                mdadm: /dev/sde1 has wrong uuid.
                mdadm: cannot open device /dev/sdf1: Device or resource
busy
                mdadm: /dev/sdf1 has wrong uuid.
                mdadm: /dev/sdg1 is identified as a member of /dev/md2,
slot 0.
                mdadm: /dev/sdh1 is identified as a member of /dev/md2,
slot 1.
                mdadm: /dev/sdi1 is identified as a member of /dev/md2,
slot 2.
                mdadm: /dev/sdj1 is identified as a member of /dev/md2,
slot 3.
                mdadm: added /dev/sdh1 to /dev/md2 as 1
                mdadm: added /dev/sdi1 to /dev/md2 as 2
                mdadm: added /dev/sdj1 to /dev/md2 as 3
                mdadm: added /dev/sdg1 to /dev/md2 as 0
                mdadm: /dev/md2 has been started with 3 drives and 1
spare.
        –1–,/dev/sdb1与大家命令中的UUID不匹配.
        –2–,/dev/sdd1正忙,相当小概获取到相关UUID.

贰 、RAID 1设备的体量是享有磁盘体量总和的2/4

   澳门金沙国际 10

履行 mdadm  -Q /dev/md0
 //-Q用来询问设备新闻。

 

三 、在八个磁盘组成RAID 1设备的时候,总体量将以细小的那一颗磁盘为主

   查看:

[[email protected] ~]#mdadm  -Q /dev/md0

        6.RAID的布局文件
        在安德拉HEL5的rc.sysinit配置文件中,有那般一段代码:
                if [ -f /etc/mdadm.conf ]; then
                    /sbin/mdadm -A -s
                fi
       
即:就算RAID的布署文件mdadm.conf存在,则调用mdadm检查布置文件里的选项,然后运行RAID阵列.
       
所以大家只要要让软RAID的布局在机器下次运转时自动生效的话,得把安插写进配置文件/etc/mdadm.conf,可用上边包车型地铁指令来完毕.
                [root@server ~]# echo DEVICE /dev/sd[b-j]1 >
/etc/mdadm.conf
                [root@server ~]# mdadm –detail –scan >>
/etc/mdadm.conf
                [root@server ~]# cat /etc/mdadm.conf
                DEVICE /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1
/dev/sdg1 /dev/sdh1 /dev/sdi1 /dev/sdj1
                ARRAY /dev/md0 level=raid0 num-devices=2
UUID=8d4ebb05:b74a1b15:de9a89ee:b2b3a642
                ARRAY /dev/md1 level=raid1 num-devices=2 spares=1
UUID=fa205b5a:0bb04eff:279165d9:b39ba52d
                ARRAY /dev/md2 level=raid5 num-devices=3 spares=1
UUID=cea9dd57:59f61370:00969939:2ef303d5
        那样大家在下次运转时,RAID就会活动生效了.

④ 、读取的成效相对增添。那是因为数量在不一样的磁盘上边,借使三个过程在读取同一笔数目时,RAID
会自行取得最好的读取平衡。

澳门金沙国际 11

4.格式化并且挂载和使用创设的RAID:

澳门金沙国际 12

五 、磁盘数必需是2的平头倍。磁盘利用率为1/2

  方法二:

[[email protected] ~]# mkfs.ext4 /dev/md0
[[email protected] ~]# mkdir /raid5
[[email protected] ~]# mount /dev/md0 /mnt/raid5

不足之处便是:写入的法力会骤降

    如若你还未曾起来成立RAID10,那么能够一起创办:

查阅一下新挂的RAID是不是足以行使

 

mdadm -Cv /dev/md0 -n 4 -l 10 -a yes -x 2 /dev/sdc /dev/sdd /dev/sde /dev/sdf   /dev/sdh  /dev/sdi

澳门金沙国际 13

RAID 5:功用与数据备份的动态平衡考虑

    也等于说前4块盘用于创建RAID10.后两块将用作备份盘。

5.安装开机自动运转RAID以及自行挂载:

RAID
5:至少须要三个以上的磁盘才能够整合那系列型的磁盘阵列。那种磁盘阵列的数目写入有点类似RAID
0,
可是各种循环的写入进度中,在每颗磁盘还参与一个校验数据(Parity),这么些数据会记录其余磁盘的备份数据,
用于当有磁盘损毁时的援救。

  此时假诺损毁在那之中一块磁盘sde

先创造/etc/mdadm.conf那么些布局文件

 

mdadm /dev/md0 -f /dev/sde
[[email protected] ~]# mdadm --detail /dev/md0 |grep UUID > /etc/mdadm.conf
[[email protected] ~]# vi/etc/mdadm.conf 
ARRAY/dev/md0 UUID=d58ed27d:00ce5cf5:b26ed1e9:879d0805

特点:

澳门金沙国际 14

接下来再修改/etc/fstab文件,设置开机自动挂载:

① 、当别的3个磁盘损坏时,都可以通过别的磁盘的检查码来重建原本磁盘内的多少,安全性显明增高。

  澳门金沙国际 15

[[email protected] ~]# vi/etc/fstab 
/dev/md0        /mnt/raid5      ext4        defaults       0 0

贰 、由于有同位检查码的留存,因而RAID 5 的总容积会是全部磁盘数量减1个。

 

然后再修改/etc/fstab文件,设置开机自动挂载:

3、当损毁的磁盘数量超越等于两颗时,那么RAID 5 的质感就磨损了。 因为RAID
5 预设只好帮忙一颗磁盘的毁坏景况。

  

重启一下种类,就能够检查开机自动挂载有没有设置成功了!

④ 、在读写效用上与RAID-0 大概。

   

伍 、最少磁盘是3块,磁盘利用率N-1块

    

扩大容积raid磁盘阵列:

不足:数据写入的功能不必然扩展,因为要写入RAID 5
的数据还得要通过测算校验码(parity)。所以写入的功效与系统的硬件关系较大。尤其当使用软件磁盘阵列时,校验码(parity)是透过CPU
去总结而非专职的磁盘阵列卡,
因而在数额校验恢复生机的时候,硬盘的效力会明显下降。

来得磁盘阵列的结缘景况,5个块设备组成,:

RAID0 RAID1 RAID5四个级其余多少存款和储蓄流程,大家能够参考下图

[[email protected] /]# cat /proc/mdstat

澳门金沙国际 16
 

把/dev/sdg增添进阵列/dev/md0:

 

[[email protected] /]#mdadm --add /dev/md0 /dev/sdg

RAID 01或RAID 10

把raid5阵列/dev/md0修改为五个块设备:

那一个RAID级别正是针对地点的特征与相差,把RAID 0和RAID 1那四个结合起来了。

[[email protected] /]#mdadm --grow/dev/md0 -n5

所谓的RAID 01就是:(1)先让磁盘组成RAID 0 (2)将那RAID 0 再组RAID
1。这正是RAID 0+1

再展现一下磁盘阵列的三结合境况,现在/dev/md1是陆个块设备组成,完毕扩大体积,还索要7.7分钟。

而RAID 10就是:先组成RAID 1 再组成RAID 0,这就是RAID 1+0

[[email protected] /]#cat /proc/mdstat

特征与不足:由于具有RAID 0 的长处,所以作用得以升任,由于负有RAID 1
的独到之处,所以数据能够备份。 可是也是因为RAID 1
的老毛病,所以总体量会少3/6用来做为备份。

伺机扩大容积实现…..

 

推行下列命令:

RAID10级其他多少存款和储蓄流程,我们能够参照下图

[[email protected] /]#resize2fs -f /dev/md0

澳门金沙国际 17

注脚是不是曾经扩容:

 

[[email protected] /]#df -hT

是因为RAID5 仅能支撑一颗磁盘的毁灭,由此还有发展出此外一种等级,便是RAID 6
,这么些RAID 6 则应用两颗磁盘的容积作为parity
的积存,因而整体的磁盘体量就会少两颗,可是允许出错的磁盘数量就能够直达两颗,也正是在RAID
6
的情状下,同时两颗磁盘损毁时,数据可能可以回复回来的。而此级别的RAID磁盘最少是4块,利用率为N-2。

表明预备磁盘是还是不是能健康工作:

 

 
 模拟RAID5中一块磁盘损坏,检验spare磁盘的效益raid5中允许一块磁盘损坏,大家所设置的那1块spare磁盘会登时替代损坏的磁盘,实行RAID的重建,保险数据的平安):

Spare Disk:热备磁盘

先查看一下/dev/md0当前的地方

她的遵从正是:当磁盘阵列中的磁盘有毁灭时,这些热备磁盘就能立时代替损坏磁盘的岗位,那时候我们的磁盘阵列就会再接再砺重建。然后把富有的数额自动回复。而那几个或三个热备磁盘是从未有过包罗在原来磁盘阵列等级中的磁盘,唯有当磁盘阵列有其它磁盘损毁时,才真正的起成效。

[[email protected] /]#mdadm --detail /dev/md0
[[email protected] /]#cat /proc/mdstat

 

应用以下命令设置磁盘sdd成为出错状态

关于理论知识我们就只介绍到那边,当然还足以拉开出八种组成,只要精通了上面的始末,那么任何级别就不难了,无非是种种整合而已。通过下面的上书,我信任大家也精晓了做磁盘阵列的帮助和益处了:① 、数据的安全性显然增强,② 、读写的法力显明加强,三 、磁盘的容积有效扩展。但也别忘记了她的短处正是资金升高。但针锋相对于数据而言,我想这一点开销也不算什么吧!

[[email protected] ~]#mdadm --manage /dev/md0 --fail /dev/sdd

 

接下去再来查看一下/dev/md0当前的情形

 

[[email protected] /]#mdadm --detail /dev/md0
[[email protected] /]#cat /proc/mdstat

 

跻身到RAID挂载的目录raid5目录下,发现raid仍是能够利用,表达预备磁盘工作符合规律化。

上面小编就以RAID5为例,给大家演示

[[email protected] /]#cd /raid5
[[email protected] /]#touch 1.txt
[[email protected] /]#

壹 、扩充硬盘。

澳门金沙国际 18本人在虚拟机上新增了6块硬盘,每块是2G。哈哈,这么七只是为了坚实验啊!

将出错的磁盘删除并进入新的磁盘

 

先删除损坏的磁盘sdd,命令如下:

 

[[email protected] raid5]#mdadm --manage /dev/md0    --remove/dev/sdd

[[email protected]
~]# ls /dev/sd*

再添加一块新的磁盘作为spare磁盘,命令如下:

/dev/sda   /dev/sda2  /dev/sdc  /dev/sde  /dev/sdg

[[email protected] raid5]#mdadm --manage /dev/md0 --add /dev/sdg

/dev/sda1  /dev/sdb   /dev/sdd  /dev/sdf

OK,再来执行以下命令查看一下:

那在那之中除了sda是在此以前的,后边的都是新增添了,当然你也得以通过fdisk
-l来查询,其余的都是从未有过进展过分区的。所以会显得”Disk /dev/sdb doesn’t
contain a valid partition table”那样的唤醒啊!

[[email protected] /]#mdadm  --detail /dev/md0

 

关闭软件RAID的艺术:

先拿出四个(sdb,sdc,sdd)来做RAID5,那是做RAID5的至少硬盘数量。但为了安全,大家必要投入sde做热备磁盘。那才是最安全的设置,当然,要是你不加热备也没有关联,RAID5照旧能做出来。

当你不再供给已经设置的RAID的时候,能够用以下措施关闭RAID:

 

一 、卸载/dev/md0,并且删除或注释掉/etc/fstab文件中的配置:

尤其表明:假如运用分区来创立的话,也是足以的,但不太科学啊!还有少数就是,你能够对分区转换类型(fd),也得以不变换,就像这些不重大,笔者测试转换与不转换都是一样的效用。

[[email protected] ~]#umount /dev/md0 
[[email protected] ~]#vi /etc/fstab 
#/dev/md0        /mnt/raid5        ext4        defaults            00

 

贰 、注释掉或删除/etc/mdadm.conf中的设置

贰 、成立RAID设备文件

[[email protected] ~]#vi /etc/mdadm.conf 
#ARRAY /dev/md0 UUID=d58ed27d:00ce5cf5:b26ed1e9:879d0805

[[email protected]
~]# mdadm -C /dev/md5 -l 5 -n 3 -x 1 /dev/sd{b,c,d,e}

3、停止raid设备

mdadm: partition table exists on /dev/sdb but will be lost or

[[email protected] ~]#mdadm --stop/dev/md0

       meaningless after creating array

4)删除raid中的全体磁盘

mdadm: partition table exists on /dev/sdc but will be lost or

[[email protected] ~]#mdadm --misc --zero-superblock /dev/sd[b-f]

       meaningless after creating array

那时候raid中的磁盘就删除了,重启后也不会有raid了。

mdadm: partition table exists on /dev/sdd but will be lost or

RAID0和RAID1实同于RAID5

       meaningless after creating array

RAID0:并行读写多少带区卷)

Continue creating array? y

RAID1:镜像磁盘阵列镜像卷)

mdadm: Defaulting to version 1.2 metadata

正文出自 “初阶化”
博客,请务必保留此出处

mdadm: array /dev/md5 started.

Linux 系统中做 RAID,
磁盘阵列的设备能够是一块磁盘中的三个以上的分区,也得以是三块或以上的磁盘。本文重要以几块磁盘为例,来实…

那时候会在/dev/下创办md文件夹和md5设备文件,而且/dev/md这一个文件夹里面还有3个接连文件和贰个MD设备的镜像文件

[[email protected]
~]# ls -l /dev/md*

brw-rw—-. 1 root disk 9, 5 May 31 00:19 /dev/md5

 

/dev/md:

total 4

lrwxrwxrwx. 1 root root  8 May 31 00:15 md5 -> ../md127

-rw——-. 1 root root 53 May 31 00:19 md-device-map

咱俩得以因此上面包车型大巴吩咐查看RAID设备的风貌

[[email protected]
~]# mdadm -D /dev/md5

/dev/md5:

        Version : 1.2

  Creation Time : Tue May 31 00:19:11 2011

     Raid Level : raid5

     Array Size : 4191232 (4.00 GiB 4.29 GB)

  Used Dev Size : 2095616 (2046.84 MiB 2145.91 MB)

   Raid Devices : 3

  Total Devices : 4

    Persistence : Superblock is persistent

 

    Update Time : Tue May 31 00:19:22 2011

          State : clean

 Active Devices : 3

Working Devices : 4

 Failed Devices : 0

  Spare Devices : 1

 

         Layout : left-symmetric

     Chunk Size : 512K

 

           Name : yufei:5  (local to host yufei)

           UUID : 69443d97:7e32415d:7f3843c5:4d5015cf

         Events : 18

 

    Number   Major   Minor   RaidDevice State

       0       8       16        0      active sync   /dev/sdb

       1       8       32        1      active sync   /dev/sdc

       4       8       48        2      active sync   /dev/sdd

 

       3       8       64        –      spare   /dev/sde

 

那边我们能够把她当做是一个平时的硬盘,只是他是多块硬盘的组成体而已。大家能够对其分区、格式化,然后挂载使用的操作

 

叁 、对RAID设备进行分区、格式化、挂载

 

一旦你想对其分区也是能够,分区后的分区名为md5p1
md5p2之类。当然不分区也同样能寻常使用,那个就看您的用途了。小编那边就不分区了。直接实行格式化。

 

[[email protected]
~]# mkfs.ext4 /dev/md5

mke2fs 1.41.12 (17-May-2010)

Filesystem label=

OS type: Linux

Block size=4096 (log=2)

Fragment size=4096 (log=2)

Stride=128 blocks, Stripe width=256 blocks

262144 inodes, 1047808 blocks

52390 blocks (5.00%) reserved for the super user

First data block=0

Maximum filesystem blocks=1073741824

32 block groups

32768 blocks per group, 32768 fragments per group

8192 inodes per group

Superblock backups stored on blocks:

       32768, 98304, 163840, 229376, 294912, 819200, 884736

 

Writing inode tables: done

Creating journal (16384 blocks): done

Writing superblocks and filesystem accounting information: done

 

This filesystem will be automatically checked every 31 mounts or

180 days, whichever comes first.  Use tune2fs -c or -i to override.

假设想要分区你能够那样做

[[email protected]
~]# fdisk /dev/md5

作者那边就不分区了

 

挂载使用

[[email protected]
~]# mount /dev/md5 /mnt

[[email protected]
~]# df

Filesystem           1K-blocks      Used Available Use% Mounted on

/dev/sda1             15118728   7014960   7335768  49% /

tmpfs                   255784         0    255784   0% /dev/shm

/dev/md5               4125376     73720   3842096   2% /mnt

向在那之中写入数据文件。

[[email protected]
~]# touch /mnt/testfil1

[[email protected]
~]# touch /mnt/testfil2

[[email protected]
~]# ls /mnt

lost+found  testfil1  testfil2

四 、模拟磁盘损坏

咱们模拟是/dev/sdb那块硬盘损坏

[[email protected]
~]# mdadm /dev/md5 -f /dev/sdb

mdadm: set /dev/sdb faulty in /dev/md5

再查看一下md5的景况

[[email protected]
~]# mdadm -D /dev/md5

前方省略

    Number   Major   Minor   RaidDevice State

       3       8       64        0      active sync   /dev/sde

       1       8       32        1      active sync   /dev/sdc

       4       8       48        2      active sync   /dev/sdd

 

       0       8       16        –      faulty spare   /dev/sdb

咱俩看看,热备盘现在正在使用,而/dev/sdb是地处损坏情状。

 

小心一点:当热备盘在顶替损坏盘的时候,RAID设备的天性会肯定下滑,因为他要拓展数据印证与还原。

 

再看看当中的文件还设有不?

[[email protected]
~]# ls /mnt

lost+found  testfil1  testfil2

一切平常

下边就是要把损坏的硬盘移除,然后新加硬盘,来充当热备盘。注意:假若此刻自个儿不加热备盘的话,当MD第55中学再有别的多少个硬盘损坏的话,数据还是健康的。这几个留给我们来测试呢。

 

⑤ 、移除损坏的磁盘

mdadm: hot removed /dev/sdb from /dev/md5

再查看MD5的信息

[[email protected]
~]# mdadm -D /dev/md5

    Number   Major   Minor   RaidDevice State

       3       8       64        0      active sync   /dev/sde

       1       8       32        1      active sync   /dev/sdc

       4       8       48        2      active sync   /dev/sdd

发现早已移除了

 

六 、新加热备磁盘

[[email protected]
~]# mdadm /dev/md5 -a /dev/sdf

mdadm: added /dev/sdf

重新查看MD5的事态

[[email protected]
~]# mdadm -D /dev/md5

    Number   Major   Minor   RaidDevice State

       3       8       64        0      active sync   /dev/sde

       1       8       32        1      active sync   /dev/sdc

       4       8       48        2      active sync   /dev/sdd

 

       5       8       80        –      spare   /dev/sdf

热备盘已经增进了

 

[[email protected]
~]# ls /mnt/

lost+found  testfil1  testfil2

 

向RAID中加进存款和储蓄硬盘

若是说,小编今后早已办好的RAID空间依然不够用的话,那么大家得以向里面扩展新的硬盘,来扩充RAID的半空中,暗中认可的意况下,我们向RAID中追加的磁盘,会被暗中同意当作热备盘的,怎么着把热备盘出席到RAID中吗?上边看演示。

 

我们随后下面的接续操作

 

[[email protected]
~]# mdadm -D /dev/md5

/dev/md5:

        Version : 1.2

  Creation Time : Tue May 31 19:46:20 2011

     Raid Level : raid5

     Array Size : 4191232 (4.00 GiB 4.29 GB)

  Used Dev Size : 2095616 (2046.84 MiB 2145.91 MB)

   Raid Devices : 3

  Total Devices : 4

    Persistence : Superblock is persistent

 

    Update Time : Tue May 31 19:49:07 2011

省略

    Number   Major   Minor   RaidDevice State

       3       8       64        0      active sync   /dev/sde

       1       8       32        1      active sync   /dev/sdc

       4       8       48        2      active sync   /dev/sdd

 

       5       8       80        –      spare   /dev/sdf

向RAID中加进一块硬盘  

 

[[email protected]
~]# mdadm /dev/md5 -a /dev/sdg

mdadm: added /dev/sdg

[[email protected]
~]# mdadm -D /dev/md5

/dev/md5:

        Version : 1.2

  Creation Time : Tue May 31 19:46:20 2011

     Raid Level : raid5

     Array Size : 4191232 (4.00 GiB 4.29 GB)

  Used Dev Size : 2095616 (2046.84 MiB 2145.91 MB)

   Raid Devices : 3

  Total Devices : 5

    Persistence : Superblock is persistent

 

    Update Time : Tue May 31 19:53:53 2011

省略

    Number   Major   Minor   RaidDevice State

       3       8       64        0      active sync   /dev/sde

       1       8       32        1      active sync   /dev/sdc

       4       8       48        2      active sync   /dev/sdd

 

       5       8       80        –      spare   /dev/sdf

       6       8       96        –      spare   /dev/sdg

我们新加的磁盘变成了热备盘,还没有出席到RAID的蕴藏盘中,大家要求让内部的三个热备磁盘起存款和储蓄功效。看看哪些来操作。

 

[[email protected]
~]# mdadm -G /dev/md5 -n4

mdadm: Need to backup 3072K of critical section..

 

[[email protected]
~]# mdadm -D /dev/md5

/dev/md5:

        Version : 1.2

  Creation Time : Tue May 31 19:46:20 2011

     Raid Level : raid5

     Array Size : 4191232 (4.00 GiB 4.29 GB)

  Used Dev Size : 2095616 (2046.84 MiB 2145.91 MB)

   Raid Devices : 4

  Total Devices : 5

    Persistence : Superblock is persistent

 

    Update Time : Tue May 31 20:02:34 2011

省略

    Number   Major   Minor   RaidDevice State

       3       8       64        0      active sync   /dev/sde

       1       8       32        1      active sync   /dev/sdc

       4       8       48        2      active sync   /dev/sdd

       6       8       96        3      active sync   /dev/sdg

 

       5       8       80        –      spare   /dev/sdf

咱俩来看RAID的存款和储蓄盘已经扩大了一个了,由二个变为了5个,但只顾那里的一条音信Array
Size : 4一九一四32 (4.00 GiB 4.29
GB),就算我们早就投入了一块硬盘,但此RAID的上空并没有增大,下边正是要把RAID的半空中增添

 

resize2fs /dev/md5

先来探望这几个md5里面包车型客车数量

 

[[email protected]
~]# ls /mnt

lost+found  testfile1  testfile2

 

[[email protected]
~]# resize2fs /dev/md5

resize2fs 1.41.12 (17-May-2010)

Filesystem at /dev/md5 is mounted on /mnt; on-line resizing required

old desc_blocks = 1, new_desc_blocks = 1

Performing an on-line resize of /dev/md5 to 1571712 (4k) blocks.

The filesystem on /dev/md5 is now 1571712 blocks long.

 

[[email protected]
~]# mdadm -D /dev/md5

/dev/md5:

        Version : 1.2

  Creation Time : Tue May 31 20:21:36 2011

     Raid Level : raid5

     Array Size : 6286848 (6.00 GiB 6.44 GB)

  Used Dev Size : 2095616 (2046.84 MiB 2145.91 MB)

   Raid Devices : 4

  Total Devices : 5

    Persistence : Superblock is persistent

 

    Update Time : Tue May 31 20:26:15 2011

以下不难

此时,大家就来看Array Size : 6286848 (6.00 GiB 6.44 GB)就增添了2G了

 

[[email protected]
~]# ls /mnt

lost+found  testfile1  testfile2

还要内部的数目也是符合规律的

 

 

开机挂载RAID设备

为了下次开机还可以够平常使用大家的RAID设备,大家还亟需做以下工作

 

① 、把挂载的音信写入fstab

 

[[email protected]
~]# vim /etc/fstab

加盟下边包车型大巴剧情

/dev/md5                /mnt                    ext4    defaults       
0 0

[[email protected]
~]# mount -a

未曾错误,那表明大家从没写错哦!

 

贰 、把大家的RAID新闻写入配置文件

 

我们先看一下/etc/mdadm.conf文本的始末

 

[[email protected]
~]# cat /etc/mdadm.conf

# mdadm.conf written out by anaconda

MAILADDR root

AUTO +imsm +1.x -all

中间早已有了有个别情节,但绝非RAID的有关音讯,所以我们要把RAID的连带消息写入此文件中,不然在下次开机RAID设备就不起效能了。

 

[[email protected]
~]# mdadm -D -s >> /etc/mdadm.conf

[[email protected]
~]# cat /etc/mdadm.conf

# mdadm.conf written out by anaconda

MAILADDR root

AUTO +imsm +1.x -all

ARRAY /dev/md5 metadata=1.2 spares=1 name=yufei:5
UUID=69443d97:7e32415d:7f3843c5:4d5015cf

RAID音讯已经写入了。注意,若是系统中有多个RAID的话,此命令会把系统中装有的RAID音信全体收集并写入此文件。所以,当用>>来扩充内容的时候,你或然要求依照情况来修改。

 

③ 、重新开动系统一测试试看是还是不是中标

 

重复开动后,查看内容

 

[[email protected]
~]# df

Filesystem           1K-blocks      Used Available Use% Mounted on

/dev/sda1             15118728   7015236   7335492  49% /

tmpfs                   255784         0    255784   0% /dev/shm

/dev/md5               4125376     73720   3842096   2% /mnt

[[email protected]
~]# ls /mnt

lost+found  testfil1  testfil2

一切符合规律

 

 

 

RAID设备的删除

那些在网上海人民广播广播台湾大学的资料都不是毋庸置疑的移除方法,明天自小编就给大家详细说一下。

 

网上广大科目一般都是这么的步子

 

umount卸载RAID设备

 

编纂配置文件包罗

 

/etc/mdadm.conf

 

/etc/fstab

 

停止RAID设备

 

mdadm -S /dev/md5

 

到那边就停止了,目前在LacrosseHEL6的系统上,你会发现仅上边的手续是一心不行的,福特ExplorerHEL6系列再次开动后,他会自动创制/dev/md127(这里分裂级别数字会分裂)那样的文书,而且从前在RAID里面的配备,你是无法应用的。借使您遇见这么的情况的话,就认证大家做的RAID没有根本去除。那么下边就看看笔者是怎么样兑现彻底删除的。

 

1、umount卸载RAID设备

[[email protected]
~]# umount /dev/md5

2、停止RAID设备

[[email protected]
~]# mdadm -S /dev/md5

mdadm: stopped /dev/md5

那里顺便给我们讲一下设备停止后如何打开,算是插曲啊。

 

[[email protected]
~]# mdadm -A -s /dev/md5

mdadm: /dev/md5 has been started with 3 drives and 1 spare.

在悬停前,你要用再查看一下RAID里面包车型地铁硬盘消息,因为背后会用到那么些,很要紧哦!

 

[[email protected]
~]# mdadm -D /dev/md5

    Number   Major   Minor   RaidDevice State

       3       8       64        0      active sync   /dev/sde

       1       8       32        1      active sync   /dev/sdc

       4       8       48        2      active sync   /dev/sdd

 

       5       8       80        –      spare   /dev/sdf

OK,未来再甘休一遍

 

[[email protected]
~]# mdadm -S /dev/md5

mdadm: stopped /dev/md5

三 、移除RAID里面包车型客车磁盘(那是首要的一步,而众多科目上都不曾写)

 

删去RAID里面包车型地铁拥有磁盘

 

这一步,一定要把RAID停止后才能进行,不然会见世上面包车型客车荒谬提醒

 

mdadm: Couldn’t open /dev/sde for write – not zeroing

 

[[email protected]
~]# mdadm –misc –zero-superblock /dev/sde

[[email protected]
~]# mdadm –misc –zero-superblock /dev/sdc

[[email protected]
~]# mdadm –misc –zero-superblock /dev/sdd

[[email protected]
~]# mdadm –misc –zero-superblock /dev/sdf

OK,那时候就把RAID里面包车型地铁持有磁盘删除掉了。

 

④ 、删除相关配置文件之中的RAID新闻

[[email protected]
~]# vim /etc/mdadm.conf

把咱们扩展的这一行删除

 

ARRAY /dev/md5 metadata=1.2 spares=1 name=yufei:5
UUID=69443d97:7e32415d:7f3843c5:4d5015cf

[[email protected]
~]# vim /etc/fstab

把我们扩充的这一行删除

/dev/md5                /mnt                    ext4    defaults       
0 0

透过那四步就完全除去途胜IAD了。重新起动,也不会有raid的连带内容了。

 

就算您想做得更熟谙的话,建议你把raid5 raid0 raid1
raid5+raid0都做一方面。小编想那也不是哪些难事了。关于mdadm的一声令下参数,大家能够因而查阅扶助来取得

摘自 羽飞博客

: Redundant Arrays of Inexpensive
Disks, RAID ,大约的趣味是:廉价的磁盘冗余阵列。RAID
能够经过2个技巧(软件或硬件),将多个较…

相关文章