[10] Konfiguracja RAID 1
19 marca 2022Skonfiguruj RAID 1, aby dodać 2 nowe dyski do komputera.
[1] Ten przykład jest oparty na środowisku, jak poniżej.
Pokazuje, jak zainstalować nowe dyski [sdb] i [sdc] na tym komputerze i skonfigurować RAID 1.
# pokaż info o naszym dysku z systemem [root@vlsr01 ~]# df -h System plików rozm. użyte dost. %uż. zamont. na devtmpfs 1,9G 0 1,9G 0% /dev tmpfs 2,0G 0 2,0G 0% /dev/shm tmpfs 2,0G 8,6M 2,0G 1% /run tmpfs 2,0G 0 2,0G 0% /sys/fs/cgroup /dev/mapper/cs_vlsr01-root 17G 2,5G 14G 15% / /dev/sda2 1014M 179M 836M 18% /boot /dev/sda1 599M 7,3M 592M 2% /boot/efi tmpfs 393M 0 393M 0% /run/user/0 # info o wszystkich dyskach w komputerze [root@vlsr01 ~]# fdisk -l Dysk /dev/sda: 20 GiB, bajtów: 21474836480, sektorów: 41943040 Jednostki: sektorów, czyli 1 * 512 = 512 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512 Typ etykiety dysku: gpt Identyfikator dysku: E2481AC6-FF0D-47A5-9B7A-F77777060DD6 Urządzenie Początek Koniec Sektory Rozmiar Typ /dev/sda1 2048 1230847 1228800 600M System EFI /dev/sda2 1230848 3327999 2097152 1G Linux - system plików /dev/sda3 3328000 41940991 38612992 18,4G Linux LVM Dysk /dev/sdb: 16 GiB, bajtów: 17179869184, sektorów: 33554432 Jednostki: sektorów, czyli 1 * 512 = 512 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512 Dysk /dev/sdc: 16 GiB, bajtów: 17179869184, sektorów: 33554432 Jednostki: sektorów, czyli 1 * 512 = 512 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512 Dysk /dev/mapper/cs_vlsr01-root: 16,4 GiB, bajtów: 17620271104, sektorów: 34414592 Jednostki: sektorów, czyli 1 * 512 = 512 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512 Dysk /dev/mapper/cs_vlsr01-swap: 2 GiB, bajtów: 2147483648, sektorów: 4194304 Jednostki: sektorów, czyli 1 * 512 = 512 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512
[2] Utwórz partycję na nowych dyskach i ustaw flagę RAID.
[root@vlsr01 ~]# parted --script /dev/sdb "mklabel gpt" [root@vlsr01 ~]# parted --script /dev/sdc "mklabel gpt" [root@vlsr01 ~]# parted --script /dev/sdb "mkpart primary 0% 100%" [root@vlsr01 ~]# parted --script /dev/sdc "mkpart primary 0% 100%" [root@vlsr01 ~]# parted --script /dev/sdb "set 1 raid on" [root@vlsr01 ~]# parted --script /dev/sdc "set 1 raid on"
[3] Skonfiguruj RAID 1.
# nasze dyski po formatowaniu [root@vlsr01 ~]# fdisk -l Dysk /dev/sda: 20 GiB, bajtów: 21474836480, sektorów: 41943040 Jednostki: sektorów, czyli 1 * 512 = 512 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512 Typ etykiety dysku: gpt Identyfikator dysku: E2481AC6-FF0D-47A5-9B7A-F77777060DD6 Urządzenie Początek Koniec Sektory Rozmiar Typ /dev/sda1 2048 1230847 1228800 600M System EFI /dev/sda2 1230848 3327999 2097152 1G Linux - system plików /dev/sda3 3328000 41940991 38612992 18,4G Linux LVM Dysk /dev/sdb: 16 GiB, bajtów: 17179869184, sektorów: 33554432 Jednostki: sektorów, czyli 1 * 512 = 512 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512 Typ etykiety dysku: gpt Identyfikator dysku: DDB70BA3-8A0D-4354-B08A-FF8897B4F448 Urządzenie Początek Koniec Sektory Rozmiar Typ /dev/sdb1 2048 33552383 33550336 16G Linux RAID Dysk /dev/sdc: 16 GiB, bajtów: 17179869184, sektorów: 33554432 Jednostki: sektorów, czyli 1 * 512 = 512 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512 Typ etykiety dysku: gpt Identyfikator dysku: 6B88793B-E369-43DF-B823-5CF852273B0A Urządzenie Początek Koniec Sektory Rozmiar Typ /dev/sdc1 2048 33552383 33550336 16G Linux RAID Dysk /dev/mapper/cs_vlsr01-root: 16,4 GiB, bajtów: 17620271104, sektorów: 34414592 Jednostki: sektorów, czyli 1 * 512 = 512 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512 Dysk /dev/mapper/cs_vlsr01-swap: 2 GiB, bajtów: 2147483648, sektorów: 4194304 Jednostki: sektorów, czyli 1 * 512 = 512 bajtów Rozmiar sektora (logiczny/fizyczny) w bajtach: 512 / 512 Rozmiar we/wy (minimalny/optymalny) w bajtach: 512 / 512 # zainstaluj wymagane narzędzia [root@vlsr01 ~]# dnf install mdadm [root@vlsr01 ~]# mdadm --create /dev/md0 --level=raid1 --raid-devices=2 /dev/sdb1 /dev/sdc1 mdadm: Note: this array has metadata at the start and may not be suitable as a boot device. If you plan to store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use --metadata=0.90 Continue creating array? y mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md0 started. # pokaż status [root@vlsr01 ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdc1[1] sdb1[0] 16765952 blocks super 1.2 [2/2] [UU] [====>................] resync = 23.4% (3923520/16765952) finish=2.4min speed=85691K/sec unused devices: <none> # status zmieni się w następujący sposób po zakończeniu synchronizacji # to nas informuje, że jest wszystko w porządku, aby skonfigurować RAID 1 [root@vlsr01 ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdc1[1] sdb1[0] 16765952 blocks super 1.2 [2/2] [UU] unused devices: <none> [root@vlsr01 ~]# mcedit /etc/sysconfig/raid-check # linia 57: dodaj urządzenie RAID do sprawdzenia przez Cron # dla ustawień Crona to [/etc/cron.d/raid-check] CHECK_DEVS="md0"
[4] Utwórz dowolny system plików na urządzeniu RAID i zamontuj go w swoim systemie.
[root@vlsr01 ~]# mkfs.xfs -i size=1024 -s size=4096 /dev/md0 meta-data=/dev/md0 isize=1024 agcount=4, agsize=1047872 blks = sectsz=4096 attr=2, projid32bit=1 = crc=1 finobt=1, sparse=1, rmapbt=0 = reflink=1 bigtime=0 inobtcount=0 data = bsize=4096 blocks=4191488, imaxpct=25 = sunit=0 swidth=0 blks naming =version 2 bsize=4096 ascii-ci=0, ftype=1 log =log wewnętrzny bsize=4096 blocks=2560, version=2 = sectsz=4096 sunit=1 blks, lazy-count=1 realtime =brak extsz=4096 blocks=0, rtextents=0 [root@vlsr01 ~]# mount /dev/md0 /mnt [root@vlsr01 ~]# df -hT System plików Typ rozm. użyte dost. %uż. zamont. na devtmpfs devtmpfs 1,9G 0 1,9G 0% /dev tmpfs tmpfs 2,0G 0 2,0G 0% /dev/shm tmpfs tmpfs 2,0G 8,6M 2,0G 1% /run tmpfs tmpfs 2,0G 0 2,0G 0% /sys/fs/cgroup /dev/mapper/cs_vlsr01-root xfs 17G 2,5G 14G 15% / /dev/sda2 xfs 1014M 179M 836M 18% /boot /dev/sda1 vfat 599M 7,3M 592M 2% /boot/efi tmpfs tmpfs 393M 0 393M 0% /run/user/0 /dev/md0 xfs 16G 139M 16G 1% /mnt
[5] Jeśli dysk składowy w macierzy RAID ulegnie awarii, po wymianie nowego dysku ponownie skonfiguruj RAID 1 w następujący sposób.
# w przypadku niepowodzenia stan wygląda następująco # usunięty/zepsuty dysk [sdc] [root@vlsr01 ~]# cat /proc/mdstat Personalities : md0 : inactive sdb1[0](S) 16765952 blocks super 1.2 unused devices: <none> # po wymianie nowego dysku ponownie skonfiguruj go jak poniżej [root@vlsr01 ~]# parted --script /dev/sdc "mklabel gpt" [root@vlsr01 ~]# parted --script /dev/sdc "mkpart primary 0% 100%" [root@vlsr01 ~]# mdadm --manage /dev/md0 --add /dev/sdc1 mdadm: added /dev/sdc1 [root@vlsr01 ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdc1[2] sdb1[0] 16765952 blocks super 1.2 [2/1] [U_] [=>...................] recovery = 8.5% (1438592/16765952) finish=2.8min speed=89912K/sec unused devices: <none> # macierz odbudowana [root@vlsr01 ~]# cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sdc1[2] sdb1[0] 16765952 blocks super 1.2 [2/2] [UU] unused devices: <none>