LVM RAID 5 n'entraîne pas une taille de volume logique attendue

J'ai un problème avec LVM RAID 5 ne me permettant pas de créer un LV qui utilise l'espace sur les quatre disques dans le VG. Ce qui est particulièrement gênant, c'est que je crée ce même VG / LV en utilisant le même model de lecteur qu'il y a deux ans sur ce même système et je ne me souviens pas avoir ce problème.

Voici la sortie des pvs et des vgs avant d'essayer de créer le RAID 5 LV:

Sortie de pvs:

PV VG Fmt Attr PSize PFree /dev/sda1 vg_sklad02 lvm2 a-- 2.73t 2.73t /dev/sdb1 vg_sklad01 lvm2 a-- 2.73t 0 /dev/sdc1 vg_sklad02 lvm2 a-- 2.73t 2.73t /dev/sdd1 vg_sklad01 lvm2 a-- 2.73t 0 /dev/sde1 vg_sklad01 lvm2 a-- 2.73t 0 /dev/sdf1 vg_sklad02 lvm2 a-- 2.73t 2.73t /dev/sdg1 vg_sklad02 lvm2 a-- 2.73t 2.73t /dev/sdh1 vg_sklad01 lvm2 a-- 2.73t 0 /dev/sdi2 vg_bootdisk lvm2 a-- 118.75g 40.00m /dev/sdj2 vg_bootdisk lvm2 a-- 118.75g 40.00m 

Sortie de vgs:

 VG #PV #LV #SN Attr VSize VFree vg_bootdisk 2 2 0 wz--n- 237.50g 80.00m vg_sklad01 4 1 0 wz--n- 10.92t 0 vg_sklad02 4 0 0 wz--n- 10.92t 10.92t 

La command que j'ai utilisée la dernière fois pour créer LV utilisant le même model de disque sur le même système est:

 lvcreate --type raid5 -L 8.18T -n lv_sklad01 vg_sklad01 

Lorsque je lance cette même command, je change les noms de cible VG et LV:

 lvcreate --type raid5 -L 8.18T -n lv_sklad02 vg_sklad02 Using default ssortingpesize 64.00 KiB. Rounding up size to full physical extent 8.18 TiB Insufficient free space: 3216510 extents needed, but only 2861584 available 

Cela n'a pas de sens car j'ai quatre lecteurs avec une capacité de 2.73T. 4 * 2,73 = 10,92. En soustrayant un pour la parité, il me donne 8.19T, qui est la taille du LV original que j'ai sur ce système. Claquement. Ma. Tête. Contre. Moniteur. 😕

Saisissant les pailles, j'ai aussi essayé:

 [root@sklad ~]# lvcreate --type raid5 -l 100%VG -n lv_sklad02 vg_sklad02 Using default ssortingpesize 64.00 KiB. Logical volume "lv_sklad02" created. 

Il en résulte un LV 2/3 de la taille que j'attends. Sortie de lvs:

 LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert lv_root vg_bootdisk rwi-aor--- 102.70g 100.00 lv_swap vg_bootdisk rwi-aor--- 16.00g 100.00 lv_sklad01 vg_sklad01 rwi-aor--- 8.19t 100.00 lv_sklad02 vg_sklad02 rwi-ar--- 5.46t 0.18 

Après avoir émis la command ci-dessus lvcreate, la sortie de pvs, vgs et lvs est la suivante:

 [root@sklad ~]# pvs PV VG Fmt Attr PSize PFree /dev/sda1 vg_sklad02 lvm2 a-- 2.73t 0 /dev/sdb1 vg_sklad01 lvm2 a-- 2.73t 0 /dev/sdc1 vg_sklad02 lvm2 a-- 2.73t 0 /dev/sdd1 vg_sklad01 lvm2 a-- 2.73t 0 /dev/sde1 vg_sklad01 lvm2 a-- 2.73t 0 /dev/sdf1 vg_sklad02 lvm2 a-- 2.73t 0 /dev/sdg1 vg_sklad02 lvm2 a-- 2.73t 2.73t /dev/sdh1 vg_sklad01 lvm2 a-- 2.73t 0 /dev/sdi2 vg_bootdisk lvm2 a-- 118.75g 40.00m /dev/sdj2 vg_bootdisk lvm2 a-- 118.75g 40.00m [root@sklad ~]# vgs VG #PV #LV #SN Attr VSize VFree vg_bootdisk 2 2 0 wz--n- 237.50g 80.00m vg_sklad01 4 1 0 wz--n- 10.92t 0 vg_sklad02 4 1 0 wz--n- 10.92t 2.73t [root@sklad ~]# lvs LV VG Attr LSize Pool Origin Data% Meta% Move Log Cpy%Sync Convert lv_root vg_bootdisk rwi-aor--- 102.70g 100.00 lv_swap vg_bootdisk rwi-aor--- 16.00g 100.00 lv_sklad01 vg_sklad01 rwi-aor--- 8.19t 100.00 lv_sklad02 vg_sklad02 rwi-ar--- 5.46t 2.31 

Pour une raison quelconque, il y a un espace non alloué dans vg_sklad02 (le VG sur lequel je travaille). Le VG à 100% ne devrait-il pas utiliser tous les espaces disponibles dans le VG?

LV lv_sklad01 et lv_sklad02 devraient être de la même taille qu'ils sont créés à partir des mêmes disques, et pour autant que je me souvienne, j'ai essayé d'utiliser la même command de création.

Est-ce que quelqu'un a des suggestions quant à ce que je fais mal?

Comme je l'ai dit dans ma question, je l'ai fait avant et j'ai un registre de capture de ce que j'ai fait pour l'accomplir il y a deux ans. Pour une raison quelconque, la command lvcreate identique n'a pas fonctionné. Pour get ce LV, j'ai dû spécifier le nombre de bandes en utilisant -i 3. Donc, la command de travail était:

 lvcreate -i 3 --type raid5 -L 8.18T -n lv_sklad02 vg_sklad02 

Je pense que quelque chose a changé dans les mises à jour des outils LVM?

METTRE À JOUR

Ils ont vraiment changé LVM2. À partir de rpm -q – send lvm2

 * Fri Jul 29 2016 Peter Rajnoha <prajnoha@redhat.com> - 7:2.02.162-1 <...> - Add allocation/raid_ssortingpe_all_devices to reinstate previous behaviour. - Create raid ssortingpes across fixed small numbers of PVs instead of all PVs. <...> 

Ravi de savoir que je n'étais pas complètement insensé. 🙂 J'ai RTFM, mais pas le bon FM je suppose. :-))