Outils pour utilisateurs

Outils du site


Panneau latéral

linux:raid (lu 23727 fois)

Ceci est une ancienne révision du document !


RAID, mdadm

Réparation

Imaginons que vous avez fait une connerie et que le serveur ne démarre plus car il n’arrive plus à monter le RAID.

Lancer un liveCD et c’est parti.

On vérifie la présence des partitions raid

root@ubuntu:~# fdisk -l | grep raid
/dev/sda1   *        2048    58593279    29295616   fd  Linux raid autodetect
/dev/sda5        58595328   585871359   263638016   fd  Linux raid autodetect
/dev/sdb1   *        2048    58593279    29295616   fd  Linux raid autodetect
/dev/sdb5        58595328   585871359   263638016   fd  Linux raid autodetect
/dev/sdc1   *        2048    58593279    29295616   fd  Linux raid autodetect
/dev/sdc5        58595328   585871359   263638016   fd  Linux raid autodetect
/dev/sdd1   *        2048    58593279    29295616   fd  Linux raid autodetect
/dev/sdd5        58595328   585871359   263638016   fd  Linux raid autodetect
/dev/sde1   *        2048    58593279    29295616   fd  Linux raid autodetect
/dev/sde5        58595328   585871359   263638016   fd  Linux raid autodetect

On vérifie la validité d’une partition

root@ubuntu:~# mdadm --examine /dev/sda1
/dev/sda1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : fd7d0783:025baf16:c02e44cf:f1fda742
           Name : serveur:0
  Creation Time : Thu Dec  5 07:58:58 2013
     Raid Level : raid1
   Raid Devices : 5

 Avail Dev Size : 58558464 (27.92 GiB 29.98 GB)
     Array Size : 58558208 (27.92 GiB 29.98 GB)
  Used Dev Size : 58558208 (27.92 GiB 29.98 GB)
    Data Offset : 32768 sectors
   Super Offset : 8 sectors
          State : clean
    Device UUID : 7b97f61d:bb3a9025:40eb6b07:e4cbdba8

    Update Time : Thu Sep  4 13:55:28 2014
       Checksum : a71bde76 - correct
         Events : 3732599


   Device Role : Active device 0
   Array State : A.A.A ('A' == active, '.' == missing)

On tente d’assembler notre raid (car dans ce cas là, on le connait déjà)

root@ubuntu:~# mdadm --assemble /dev/md0 /dev/sd[ace]1 --force
mdadm: /dev/md0 has been started with 3 drives (out of 5).

root@ubuntu:~# cat /proc/mdstat 
Personalities : [raid1] 
md0 : active raid1 sda1[0] sde1[4] sdc1[2]
      29279104 blocks super 1.2 [5/3] [U_U_U]
      
unused devices: <none>

Ensuite on monte le raid

root@ubuntu:~# cd /mnt
root@ubuntu:/mnt# ls
root@ubuntu:/mnt# mkdir raid
root@ubuntu:/mnt# mount /dev/md0 raid/

Dans notre cas, le raid /dev/md0 a 5 disques dont 2 ne fonctionnent pas (on le voit par un tiret bas _)

# cat /proc/mdstat 
Personalities : [raid1] [raid6] [raid5] [raid4] 
md1 : active raid5 sda5[0] sde5[2] sdc5[1]
      527012864 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      
md0 : active raid1 sda1[0] sde1[4] sdc1[2]
      29279104 blocks super 1.2 [5/3] [U_U_U]
      
unused devices: <none>

On peut lui dire de ne gérer que 3 disques

# mdadm --grow --raid-devices=3 /dev/md0
raid_disks for /dev/md0 set to 3

On vérifie que les tirets bas ne sont plus là.

# cat /proc/mdstat 
Personalities : [raid1] [raid6] [raid5] [raid4] 
md1 : active raid5 sda5[0] sde5[2] sdc5[1]
      527012864 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU]
      
md0 : active raid1 sda1[0] sde1[4] sdc1[2]
      29279104 blocks super 1.2 [3/3] [UUU]
      
unused devices: <none>

On peut ensuite sauvegarder cette config

mdadm --detail --scan --verbose > /etc/mdadm/mdadm.conf
linux/raid.1410167187.txt.gz · Dernière modification: 08-09-2014 11:06 de edmc73