Ceci est une ancienne révision du document !
Une bonne doc ⇒ http://www.linuxpedia.fr/doku.php/expert/mdadm
http://www.debian-fr.org/raid-logiciel-avec-mdadm-exemple-raid1-niveau-debutant-t27585.html
Imaginons que vous avez fait une connerie et que le serveur ne démarre plus car il n’arrive plus à monter le RAID.
Lancer un liveCD et c’est parti.
On vérifie la présence des partitions raid
root@ubuntu:~# fdisk -l | grep raid /dev/sda1 * 2048 58593279 29295616 fd Linux raid autodetect /dev/sda5 58595328 585871359 263638016 fd Linux raid autodetect /dev/sdb1 * 2048 58593279 29295616 fd Linux raid autodetect /dev/sdb5 58595328 585871359 263638016 fd Linux raid autodetect /dev/sdc1 * 2048 58593279 29295616 fd Linux raid autodetect /dev/sdc5 58595328 585871359 263638016 fd Linux raid autodetect /dev/sdd1 * 2048 58593279 29295616 fd Linux raid autodetect /dev/sdd5 58595328 585871359 263638016 fd Linux raid autodetect /dev/sde1 * 2048 58593279 29295616 fd Linux raid autodetect /dev/sde5 58595328 585871359 263638016 fd Linux raid autodetect
On vérifie la validité d’une partition
root@ubuntu:~# mdadm --examine /dev/sda1 /dev/sda1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : fd7d0783:025baf16:c02e44cf:f1fda742 Name : serveur:0 Creation Time : Thu Dec 5 07:58:58 2013 Raid Level : raid1 Raid Devices : 5 Avail Dev Size : 58558464 (27.92 GiB 29.98 GB) Array Size : 58558208 (27.92 GiB 29.98 GB) Used Dev Size : 58558208 (27.92 GiB 29.98 GB) Data Offset : 32768 sectors Super Offset : 8 sectors State : clean Device UUID : 7b97f61d:bb3a9025:40eb6b07:e4cbdba8 Update Time : Thu Sep 4 13:55:28 2014 Checksum : a71bde76 - correct Events : 3732599 Device Role : Active device 0 Array State : A.A.A ('A' == active, '.' == missing)
On tente d’assembler notre raid (car dans ce cas là, on le connait déjà)
root@ubuntu:~# mdadm --assemble /dev/md0 /dev/sd[ace]1 --force mdadm: /dev/md0 has been started with 3 drives (out of 5). root@ubuntu:~# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sda1[0] sde1[4] sdc1[2] 29279104 blocks super 1.2 [5/3] [U_U_U] unused devices: <none>
Ensuite on monte le raid
root@ubuntu:~# cd /mnt root@ubuntu:/mnt# ls root@ubuntu:/mnt# mkdir raid root@ubuntu:/mnt# mount /dev/md0 raid/
Dans notre cas, le raid /dev/md0 a 5 disques dont 2 ne fonctionnent pas (on le voit par un tiret bas _)
# cat /proc/mdstat Personalities : [raid1] [raid6] [raid5] [raid4] md1 : active raid5 sda5[0] sde5[2] sdc5[1] 527012864 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU] md0 : active raid1 sda1[0] sde1[4] sdc1[2] 29279104 blocks super 1.2 [5/3] [U_U_U] unused devices: <none>
On peut lui dire de ne gérer que 3 disques
# mdadm --grow --raid-devices=3 /dev/md0 raid_disks for /dev/md0 set to 3
On vérifie que les tirets bas ne sont plus là.
# cat /proc/mdstat Personalities : [raid1] [raid6] [raid5] [raid4] md1 : active raid5 sda5[0] sde5[2] sdc5[1] 527012864 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/3] [UUU] md0 : active raid1 sda1[0] sde1[4] sdc1[2] 29279104 blocks super 1.2 [3/3] [UUU] unused devices: <none>
On peut ensuite sauvegarder cette config
mdadm --detail --scan --verbose > /etc/mdadm/mdadm.conf