[10] Konfiguracja RAID 1

19 marca 2022 Wyłączono przez Adam [zicherka] Nogły

Skonfiguruj RAID 1, aby dodać 2 nowe dyski do komputera.

[1] Ten przykład jest oparty na środowisku, jak poniżej.

Pokazuje, jak zainstalować nowe dyski [sdb] i [sdc] na tym komputerze i skonfigurować RAID 1.

# pokaż info o naszym dysku z systemem
[root@vlsr01 ~]# df -h
System plików              rozm. użyte dost. %uż. zamont. na
devtmpfs                    1,9G     0  1,9G   0% /dev
tmpfs                       2,0G     0  2,0G   0% /dev/shm
tmpfs                       2,0G  8,6M  2,0G   1% /run
tmpfs                       2,0G     0  2,0G   0% /sys/fs/cgroup
/dev/mapper/cs_vlsr01-root   17G  2,5G   14G  15% /
/dev/sda2                  1014M  179M  836M  18% /boot
/dev/sda1                   599M  7,3M  592M   2% /boot/efi
tmpfs                       393M     0  393M   0% /run/user/0

# info o wszystkich dyskach w komputerze
[root@vlsr01 ~]# fdisk -l
Dysk /dev/sda: 20 GiB, bajtów: 21474836480, sektorów: 41943040
Jednostki: sektorów, czyli 1 * 512 = 512 bajtów
Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512
Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512
Typ etykiety dysku: gpt
Identyfikator dysku: E2481AC6-FF0D-47A5-9B7A-F77777060DD6
Urządzenie Początek   Koniec  Sektory Rozmiar Typ
/dev/sda1      2048  1230847  1228800    600M System EFI
/dev/sda2   1230848  3327999  2097152      1G Linux - system plików
/dev/sda3   3328000 41940991 38612992   18,4G Linux LVM
Dysk /dev/sdb: 16 GiB, bajtów: 17179869184, sektorów: 33554432
Jednostki: sektorów, czyli 1 * 512 = 512 bajtów
Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512
Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512
Dysk /dev/sdc: 16 GiB, bajtów: 17179869184, sektorów: 33554432
Jednostki: sektorów, czyli 1 * 512 = 512 bajtów
Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512
Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512
Dysk /dev/mapper/cs_vlsr01-root: 16,4 GiB, bajtów: 17620271104, sektorów: 34414592
Jednostki: sektorów, czyli 1 * 512 = 512 bajtów
Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512
Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512
Dysk /dev/mapper/cs_vlsr01-swap: 2 GiB, bajtów: 2147483648, sektorów: 4194304
Jednostki: sektorów, czyli 1 * 512 = 512 bajtów
Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512
Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512

[2] Utwórz partycję na nowych dyskach i ustaw flagę RAID.

[root@vlsr01 ~]# parted --script /dev/sdb "mklabel gpt"
[root@vlsr01 ~]# parted --script /dev/sdc "mklabel gpt"
[root@vlsr01 ~]# parted --script /dev/sdb "mkpart primary 0% 100%"
[root@vlsr01 ~]# parted --script /dev/sdc "mkpart primary 0% 100%"
[root@vlsr01 ~]# parted --script /dev/sdb "set 1 raid on"
[root@vlsr01 ~]# parted --script /dev/sdc "set 1 raid on"

[3] Skonfiguruj RAID 1.

# nasze dyski po formatowaniu
[root@vlsr01 ~]# fdisk -l
Dysk /dev/sda: 20 GiB, bajtów: 21474836480, sektorów: 41943040
Jednostki: sektorów, czyli 1 * 512 = 512 bajtów
Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512
Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512
Typ etykiety dysku: gpt
Identyfikator dysku: E2481AC6-FF0D-47A5-9B7A-F77777060DD6
Urządzenie Początek   Koniec  Sektory Rozmiar Typ
/dev/sda1      2048  1230847  1228800    600M System EFI
/dev/sda2   1230848  3327999  2097152      1G Linux - system plików
/dev/sda3   3328000 41940991 38612992   18,4G Linux LVM
Dysk /dev/sdb: 16 GiB, bajtów: 17179869184, sektorów: 33554432
Jednostki: sektorów, czyli 1 * 512 = 512 bajtów
Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512
Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512
Typ etykiety dysku: gpt
Identyfikator dysku: DDB70BA3-8A0D-4354-B08A-FF8897B4F448
Urządzenie Początek   Koniec  Sektory Rozmiar Typ
/dev/sdb1      2048 33552383 33550336     16G Linux RAID
Dysk /dev/sdc: 16 GiB, bajtów: 17179869184, sektorów: 33554432
Jednostki: sektorów, czyli 1 * 512 = 512 bajtów
Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512
Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512
Typ etykiety dysku: gpt
Identyfikator dysku: 6B88793B-E369-43DF-B823-5CF852273B0A
Urządzenie Początek   Koniec  Sektory Rozmiar Typ
/dev/sdc1      2048 33552383 33550336     16G Linux RAID
Dysk /dev/mapper/cs_vlsr01-root: 16,4 GiB, bajtów: 17620271104, sektorów: 34414592
Jednostki: sektorów, czyli 1 * 512 = 512 bajtów
Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512
Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512
Dysk /dev/mapper/cs_vlsr01-swap: 2 GiB, bajtów: 2147483648, sektorów: 4194304
Jednostki: sektorów, czyli 1 * 512 = 512 bajtów
Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512
Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512

# zainstaluj wymagane narzędzia
[root@vlsr01 ~]# dnf install mdadm
[root@vlsr01 ~]# mdadm --create /dev/md0 --level=raid1 --raid-devices=2 /dev/sdb1 /dev/sdc1
mdadm: Note: this array has metadata at the start and
    may not be suitable as a boot device.  If you plan to
    store '/boot' on this device please ensure that
    your boot-loader understands md/v1.x metadata, or use
    --metadata=0.90
Continue creating array? y
mdadm: Defaulting to version 1.2 metadata
mdadm: array /dev/md0 started.

# pokaż status
[root@vlsr01 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdc1[1] sdb1[0]
      16765952 blocks super 1.2 [2/2] [UU]
      [====>................]  resync = 23.4% (3923520/16765952) finish=2.4min speed=85691K/sec
unused devices: <none>

# status zmieni się w następujący sposób po zakończeniu synchronizacji
# to nas informuje, że jest wszystko w porządku, aby skonfigurować RAID 1
[root@vlsr01 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdc1[1] sdb1[0]
      16765952 blocks super 1.2 [2/2] [UU]
unused devices: <none>

[root@vlsr01 ~]# mcedit /etc/sysconfig/raid-check
# linia 57: dodaj urządzenie RAID do sprawdzenia przez Cron
# dla ustawień Crona to [/etc/cron.d/raid-check]
CHECK_DEVS="md0"

[4] Utwórz dowolny system plików na urządzeniu RAID i zamontuj go w swoim systemie.

[root@vlsr01 ~]# mkfs.xfs -i size=1024 -s size=4096 /dev/md0
meta-data=/dev/md0               isize=1024   agcount=4, agsize=1047872 blks
         =                       sectsz=4096  attr=2, projid32bit=1
         =                       crc=1        finobt=1, sparse=1, rmapbt=0
         =                       reflink=1    bigtime=0 inobtcount=0
data     =                       bsize=4096   blocks=4191488, imaxpct=25
         =                       sunit=0      swidth=0 blks
naming   =version 2              bsize=4096   ascii-ci=0, ftype=1
log      =log wewnętrzny        bsize=4096   blocks=2560, version=2
         =                       sectsz=4096  sunit=1 blks, lazy-count=1
realtime =brak                   extsz=4096   blocks=0, rtextents=0

[root@vlsr01 ~]# mount /dev/md0 /mnt
[root@vlsr01 ~]# df -hT
System plików              Typ      rozm. użyte dost. %uż. zamont. na
devtmpfs                   devtmpfs  1,9G     0  1,9G   0% /dev
tmpfs                      tmpfs     2,0G     0  2,0G   0% /dev/shm
tmpfs                      tmpfs     2,0G  8,6M  2,0G   1% /run
tmpfs                      tmpfs     2,0G     0  2,0G   0% /sys/fs/cgroup
/dev/mapper/cs_vlsr01-root xfs        17G  2,5G   14G  15% /
/dev/sda2                  xfs      1014M  179M  836M  18% /boot
/dev/sda1                  vfat      599M  7,3M  592M   2% /boot/efi
tmpfs                      tmpfs     393M     0  393M   0% /run/user/0
/dev/md0                   xfs        16G  139M   16G   1% /mnt

[5] Jeśli dysk składowy w macierzy RAID ulegnie awarii, po wymianie nowego dysku ponownie skonfiguruj RAID 1 w następujący sposób.

# w przypadku niepowodzenia stan wygląda następująco
# usunięty/zepsuty dysk [sdc]
[root@vlsr01 ~]# cat /proc/mdstat
Personalities :
md0 : inactive sdb1[0](S)
      16765952 blocks super 1.2
unused devices: <none>

# po wymianie nowego dysku ponownie skonfiguruj go jak poniżej
[root@vlsr01 ~]# parted --script /dev/sdc "mklabel gpt"
[root@vlsr01 ~]# parted --script /dev/sdc "mkpart primary 0% 100%"
[root@vlsr01 ~]# mdadm --manage /dev/md0 --add /dev/sdc1
mdadm: added /dev/sdc1
[root@vlsr01 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdc1[2] sdb1[0]
      16765952 blocks super 1.2 [2/1] [U_]
      [=>...................]  recovery =  8.5% (1438592/16765952) finish=2.8min speed=89912K/sec
unused devices: <none>

# macierz odbudowana
[root@vlsr01 ~]# cat /proc/mdstat
Personalities : [raid1]
md0 : active raid1 sdc1[2] sdb1[0]
      16765952 blocks super 1.2 [2/2] [UU]
unused devices: <none>