Thank you for reading this post, don't forget to subscribe!
RAID 6 — это, по сути, расширение RAID 5, которое допускает дополнительную отказоустойчивость, используя вторую независимую распределенную схему четности (двойную четность).
Даже если один из жестких дисков выходит из строя во время процесса восстановления данных, система продолжает работать, без потери данных.
RAID6 обеспечивает чрезвычайно высокий уровень отказоустойчивости данных, поддерживая несколько одновременных сбоев привода.
Он обрабатывает потерю любых двух устройств без потери данных.
Соответственно, для N-дисков требуется N + 2 дисков для хранения данных N дисков.
Он требует как минимум 4 устройства.
Производительность для RAID 6 немного ниже, но сопоставима с RAID 5 в нормальном режиме и режиме отказа одного диска. Он очень медленный в режиме отказа двух дисков.
Особенности
- Отсутствие потери данных, даже после выхода из строя двух дисков. Мы можем восстановить от четности после замены неисправного диска.
- Чтение будет лучше, чем с RAID 5, потому что он читает с нескольких дисков, но производительность записи будет очень плохой, если не выделен RAID-контроллер
- RAID 6 стоит дорого, поскольку для обеспечения четности используются два независимых диска
Прежде чем продолжить, вам нужно установить пакет l mdadm, и это должно быть выполнено с использованием следующей команды:
# yum install mdadm -y |
Затем используйте следующую команду, чтобы проверить детали блока и посмотреть, все ли они настроены.
# mdadm -E /dev/sd[b-e]1 mdadm: No md superblock detected on /dev/sdb1. mdadm: No md superblock detected on /dev/sdc1. mdadm: No md superblock detected on /dev/sdd1. mdadm: No md superblock detected on /dev/sde1. |
После проверки вам нужно приступить к созданию устройства md и выбрать уровни рейда.
# mdadm --create /dev/md6 --level=6 --raid-devices=4 /dev/sd[b-e]1 mdadm: Defaulting to version 1.2 metadata mdadm: array /dev/md5 started. |
Как только это будет сделано, вам необходимо проверить состояние устройства md, используя следующую команду.
# mdadm -D /dev/md6 |
После этого вам необходимо создать файловую систему для устройств рейда, и для этого вам необходимо использовать следующую команду:
# mkfs.ext4 /dev/md6 |
Теперь вы должны постоянно монтировать RAID-устройство с помощью UUID, используя команду mkdir следующим образом, чтобы создать каталог.
# mkdir /raid6 |
Теперь для mount будет генерировать UUID, используя следующую команду. Вы получите результат со следующим UUID. Скопируйте эту строку.
# blkid /dev/md6 /dev/md5: UUID="f9b3c56f-6c86-4456-99d2-571b1cb8eb95" TYPE="ext4" <span class="code_sectcolor7"> |
Откройте fstab и вставьте в него копии UUID.
# vim /etc/fstab UUID=f9b3c56f-6c86-4456-99d2-571b1cb8eb95 /raid6 ext4 defaults 0 0 |
Теперь вы должны выполнить команду монтирования и проверить состояние следующим образом.
# mount -a # df -h Filesystem Size Used Avail Use% Mounted on /dev/sda2 15G 4.6G 11G 31% / devtmpfs 741M 0 741M 0% /dev tmpfs 749M 140K 749M 1% /dev/shm tmpfs 749M 8.9M 741M 2% /run tmpfs 749M 0 749M 0% /sys/fs/cgroup /dev/sda1 497M 116M 382M 24% /boot /dev/md6 9.8G 37M 9.2G 1% /raid6 <span class="code_sectcolor7"> |
Теперь переключитесь на точку монтирования.
# cd /raid6/ |
# mkdir dir1 |
Вы можете проверить и посмотреть, есть ли каталог и файл в этом месте.
# touch fail.txt |
# ls -l total 24 drwxr-xr-x. 2 root root 4096 Nov 20 13:20 dir1 -rw-r--r--. 1 root root 25 Nov 20 13:20 fail.txt |
# mdadm --manage --add /dev/md6 /dev/sd[f-g]1 |
# mdadm -D /dev/md6 |
# mdadm --manage --fail /dev/md6 /dev/sd[b-c]1 mdadm: set /dev/sdb1 faulty in /dev/md6 mdadm: set /dev/sdc1 faulty in /dev/md6 |
# mdadm -D /dev/md6 |
# cd /raid6/ # ls -l total 24 drwxr-xr-x. 2 root root 4096 Nov 20 13:20 dir1 -rw-r--r--. 1 root root 25 Nov 20 13:20 fail.txt |
# mdadm --detail --scan --verbose >> /etc/mdadm.conf |