Thank you for reading this post, don't forget to subscribe!
После того как настроены DRBD9, Pacemaker и Отказоустойчивый кластер, потребовалось изменить размер LVM массива
Получаем информацию о физическом томе
1 2 3 4 5 6 7 8 9 10 11 |
pvdisplay --- Physical volume --- PV Name /dev/sdb VG Name VGStorageHPMSA PV Size 5,00 TiB / not usable 4,00 MiB Allocatable yes PE Size 4,00 MiB Total PE 1310719 Free PE 1305599 Allocated PE 5120 PV UUID apnhCy-sBx5-hZW0-6HXj-2miY-p5fW-INjYVX |
Получаем размер логического тома
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 |
lvdisplay --- Logical volume --- LV Path /dev/VGStorageHPMSA/mailstore LV Name mailstore VG Name VGStorageHPMSA LV UUID tWJNaJ-LFt3-zZKM-VAcw-sypv-OfcF-BMBjga LV Write Access read/write LV Creation host, time coremail01, 2019-03-20 10:26:56 +0300 LV Status available # open 2 LV Size 20,00 GiB Current LE 5120 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 8192 Block device 253:1 |
Добавим к нему 80Gb
lvresize -L+80GB /dev/VGStorageHPMSA/mailstore
Size of logical volume VGStorageHPMSA/mailstore changed from 20,00 GiB (5120 extents) to 100,00 GiB (25600 extents).
Logical volume VGStorageHPMSA/mailstore successfully resized.
Проверим что получилось
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 |
lvdisplay --- Logical volume --- LV Path /dev/VGStorageHPMSA/mailstore LV Name mailstore VG Name VGStorageHPMSA LV UUID tWJNaJ-LFt3-zZKM-VAcw-sypv-OfcF-BMBjga LV Write Access read/write LV Creation host, time coremail01, 2019-03-20 10:26:56 +0300 LV Status available # open 2 LV Size 100,00 GiB Current LE 25600 Segments 1 Allocation inherit Read ahead sectors auto - currently set to 8192 Block device 253:1 |
Выполняем resize массива
Главное расширить массив LVM на всех нодах
drbdadm resize maildata
1 2 3 4 5 6 7 8 9 10 11 |
Every 2,0s: cat /sys/kernel/debug/drbd/resources/maildata/connections/coremail02/0/proc_drbd Wed Mar 27 15:49:11 2019 0: cs:SyncTarget ro:Secondary/Primary ds:Inconsistent/UpToDate C r----- ns:0 nr:13529768 dw:13529768 dr:2104 al:8 bm:0 lo:1 pe:[0;2] ua:0 ap:[0;0] ep:1 wo:2 oos:70353756 [==>.….….….….] sync'ed: 16.2% (68704/81916)M finish: 0:17:50 speed: 65,696 (66,688 -- 52,236) want: 66,960 K/sec 32% sector pos: 69003344/209708728 resync: used:1/61 hits:46481 misses:210 starving:0 locked:0 changed:105 act_log: used:0/1237 hits:0 misses:0 starving:0 locked:0 changed:0 blocked on activity log: 0/0/0 |
1 2 3 4 5 6 |
watch drbdadm status maildata role:Primary disk:UpToDate coremail01 role:Secondary replication:SyncSource peer-disk:Inconsistent done:66.67 |
Дожидаемся окончание синхронизации DRBD
Проверяем доступное место сейчас
1 2 3 4 5 6 7 8 9 10 |
df -h Файловая система Размер Использовано Дост Использовано% Cмонтировано в /dev/mapper/centos_node-root 12G 1,6G 9,6G 14% / devtmpfs 989M 0 989M 0% /dev tmpfs 1000M 53M 947M 6% /dev/shm tmpfs 1000M 8,9M 991M 1% /run tmpfs 1000M 0 1000M 0% /sys/fs/cgroup /dev/sda1 976M 132M 777M 15% /boot /dev/drbd0 20G 45M 19G 1% /mnt tmpfs 200M 0 200M 0% /run/user/0 |
Отключаем массив DRBD и выполняем изменение размера
umount /mnt
e2fsck -f /dev/drbd0
resize2fs /dev/drbd0
Проверяем после окончания размер смонтированного массива
1 2 3 4 5 6 7 8 9 10 |
df -h Файловая система Размер Использовано Дост Использовано% Cмонтировано в /dev/mapper/centos_node-root 12G 1,6G 9,6G 14% / devtmpfs 989M 0 989M 0% /dev tmpfs 1000M 54M 947M 6% /dev/shm tmpfs 1000M 8,9M 991M 1% /run tmpfs 1000M 0 1000M 0% /sys/fs/cgroup /dev/sda1 976M 132M 777M 15% /boot tmpfs 200M 0 200M 0% /run/user/0 /dev/drbd0 99G 60M 94G 1% /mnt |