Создание RAID 1 на двух дисках и добавление его в работающую систему

На одном ssd стоит система. Добавили еще два 4Tb диска для NAS. Нужно создать RAID 1. Устанавливаем утилиту:

# yum install mdadm

Сначала необходимо занулить суперблоки на дисках, которые мы будем использовать для построения RAID (если диски ранее использовались, их суперблоки могут содержать служебную информацию о других RAID):

# mdadm --zero-superblock --force /dev/sd{b,c}

* в данном примере мы зануляем суперблоки для дисков sdb и sdc.

Если мы получили ответ:

mdadm: Unrecognised md component device - /dev/sdb
mdadm: Unrecognised md component device - /dev/sdc

что значит, что диски не использовались ранее для RAID. Просто продолжаем настройку.

Далее нужно удалить старые метаданные и подпись на дисках:

# wipefs --all --force /dev/sd{b,c}

Создание рейда

Для сборки избыточного массива применяем следующую команду:

# mdadm --create --verbose /dev/md0 -l 1 -n 2 /dev/sd{b,c}

где:

  • /dev/md0 — устройство RAID, которое появится после сборки;
  • -l 1 — уровень RAID;
  • -n 2 — количество дисков, из которых собирается массив;
  • /dev/sd{b,c} — сборка выполняется из дисков sdb и sdc.

Мы должны увидеть что-то на подобие:

mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
mdadm: size set to 1046528K

Также система задаст контрольный вопрос, хотим ли мы продолжить и создать RAID — нужно ответить y:

Continue creating array? y

Мы увидим что-то на подобие:

mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

Правим fstab для автозагрузки. Создаем точку монтирования work в корне:

# mkdir /work

# vi /etc/fstab

#
# /etc/fstab
# Created by anaconda on Wed Mar 17 12:15:59 2021
#
# Accessible filesystems, by reference, are maintained under '/dev/disk'
# See man pages fstab(5), findfs(8), mount(8) and/or blkid(8) for more info
#
/dev/mapper/centos-root                   /     xfs  defaults 0 0
UUID=76e2ead1-7b83-4634-9061-5d0ea36312b4 /boot xfs  defaults 0 0
/dev/mapper/centos-home                   /home xfs  defaults 0 0
/dev/mapper/centos-swap                   swap  swap defaults 0 0
/dev/md0                                  /work xfs  defaults 0 0

Монтируем:

# mount -a

Если получим в ответ:

# mount -a /dev/md0 /work
mount: /dev/md0 is write-protected, mounting read-only
mount: unknown filesystem type '(null)'

это значит, нет ни какой файловой системы. Исправляем.

Вводим команду:

# mkfs.xfs /dev/md0
meta-data=/dev/md0 isize=512 agcount=4, agsize=523712 blks
= sectsz=512 attr=2, projid32bit=1
= crc=1 finobt=0, sparse=0
data = bsize=4096 blocks=2094848, imaxpct=25
= sunit=0 swidth=0 blks
naming =version 2 bsize=4096 ascii-ci=0 ftype=1
log =internal log bsize=4096 blocks=2560, version=2
= sectsz=512 sunit=0 blks, lazy-count=1
realtime =none extsz=4096 blocks=0, rtextents=0

И опять

# mount -a

Проверяем:

# lsblk

и находим информацию о том, что у наших дисков sdb и sdc появился раздел md0,

# lsblk
NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sda 8:0 0 223,6G 0 disk
├─sda1 8:1 0 1G 0 part /boot
└─sda2 8:2 0 222,6G 0 part
├─centos-root 253:0 0 50G 0 lvm /
├─centos-swap 253:1 0 3,9G 0 lvm [SWAP]
└─centos-home 253:2 0 168,7G 0 lvm /home
sdb 8:16 0 3,7T 0 disk
└─md0 9:0 0 3,7T 0 raid1 /work
sdc 8:32 0 3,7T 0 disk
└─md0 9:0 0 3,7T 0 raid1 /work

Смторим информацию о рейде:

# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdb[0] sdc[1]
3906886464 blocks super 1.2 [2/2] [UU]
[>....................] resync = 3.0% (117836416/3906886464) finish=665.3min speed=94905K/sec
bitmap: 30/30 pages [120KB], 65536KB chunk

Более подробная информация:

# mdadm -D /dev/md0

/dev/md0:
Version : 1.2
Creation Time : Wed Mar 17 12:50:32 2021
Raid Level : raid1
Array Size : 3906886464 (3.64 TiB 4.00 TB)
Used Dev Size : 3906886464 (3.64 TiB 4.00 TB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent

Intent Bitmap : Internal

Update Time : Wed Mar 17 13:13:30 2021
State : clean, resyncing
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0

Consistency Policy : bitmap

Resync Status : 3% complete

Name : kau.imp.kiev.ua:0 (local to host kau.imp.kiev.ua)
UUID : 84cf2972:f7d64647:5cd536ef:0a81a174
Events : 292

Number Major Minor RaidDevice State
0 8 16 0 active sync /dev/sdb
1 8 32 1 active sync /dev/sdc

Восстановление RAID

Рассмотрим два варианта восстановлении массива.

Замена диска

В случае выхода из строя одного из дисков массива, команда cat /proc/mdstat покажет следующее:

# cat /proc/mdstat
Personalities : [raid1] 
md0 : active raid1 sdb[0]
      1046528 blocks super 1.2 [2/1] [U_]

* о наличии проблемы нам говорит нижнее подчеркивание вместо U — [U_] вместо [UU].

Или:

# mdadm -D /dev/md0
...
       Update Time : Thu Mar  7 20:20:40 2019
             State : clean, degraded
...

* статус degraded говорит о проблемах с RAID.

Для восстановления, сначала удалим сбойный диск, например:

# mdadm /dev/md0 --remove /dev/sdc

Теперь добавим новый:

# mdadm /dev/md0 --add /dev/sde

Смотрим состояние массива:

# mdadm -D /dev/md0
...
       Update Time : Thu Mar  7 20:57:13 2019
             State : clean, degraded, recovering
...
    Rebuild Status : 40% complete
...

recovering говорит, что RAID восстанавливается; Rebuild Status — текущее состояние восстановления массива (в данном примере он восстановлен на 40%).

Если синхронизация выполняется слишком медленно, можно увеличить ее скорость. Для изменения скорости синхронизации вводим:

# echo '10000' > /proc/sys/dev/raid/speed_limit_min

* по умолчанию скорость speed_limit_min = 1000 Кб, speed_limit_max — 200000 Кб. Для изменения скорости, можно поменять только минимальную.

Пересборка массива

Если нам нужно вернуть ранее разобранный или развалившийся массив из дисков, которые уже входили в состав RAID, вводим:

# mdadm --assemble --scan

* данная команда сама найдет необходимую конфигурацию и восстановит RAID.

Также, мы можем указать, из каких дисков пересобрать массив:

# mdadm --assemble /dev/md0 /dev/sdb /dev/sdc

Запасной диск (Hot Spare)

Если в массиве будет запасной диск для горячей замены, при выходе из строя одного из основных дисков, его место займет запасной.

Диском Hot Spare станет тот, который просто будет добавлен к массиву:

# mdadm /dev/md0 --add /dev/sdd

Информация о массиве изменится, например:

mdadm -D /dev/md0


Number   Major   Minor   RaidDevice State
0       8       16        0      active sync   /dev/sdb
2       8       48        1      active sync   /dev/sdc

3       8       32        –      spare   /dev/sdd

Проверить работоспособность резерва можно вручную, симулировав выход из строя одного из дисков:

mdadm /dev/md0 –fail /dev/sdb

И смотрим состояние:

mdadm -D /dev/md0


Rebuild Status : 37% complete

Number   Major   Minor   RaidDevice State
3       8       32        0      spare rebuilding   /dev/sdd
2       8       48        1      active sync   /dev/sdc

0       8       16        –      faulty   /dev/sdb

* как видим, начинается ребилд. На замену вышедшему из строя sdb встал hot-spare sdd.

 

https://www.dmosk.ru/miniinstruktions.php?mini=mdadm