У меня есть проблема, чтобы объяснить недостающую емкость в моем raidz2
# zpool status -v nas
pool: nas
state: ONLINE
scan: none requested
config:
NAME STATE READ WRITE CKSUM
nas ONLINE 0 0 0
raidz2-0 ONLINE 0 0 0
sda ONLINE 0 0 0
sdb ONLINE 0 0 0
sdc ONLINE 0 0 0
sdd ONLINE 0 0 0
sde ONLINE 0 0 0
sdf ONLINE 0 0 0
sdg ONLINE 0 0 0
sdh ONLINE 0 0 0
errors: No known data errors
# zpool list nas
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
nas 21.8T 6.11G 21.7T - 0% 0% 1.00x ONLINE -
# zfs list nas
NAME USED AVAIL REFER MOUNTPOINT
nas 4.34G 15.0T 4.34G /nas
Я использую 8x3TB (2,72TiB). Физический размер ~ 21,8 ТиБ, то есть все в порядке. Но доступное пространство составляет 15,0 ТБ, но я ожидаю 16,3 ТБ.
Я знаю, что raidz использует дополнительное пространство для метаданных (1/64), но это не объясняет разрыв в 1,3 TiB.
Есть ли какие-либо другие объяснения или проверки, которые я могу выполнить, чтобы найти виновника пропасти?
Заранее спасибо.
EDIT1:
zfs list -t all
NAME USED AVAIL REFER MOUNTPOINT
nas 4.34G 15.0T 4.34G /nas
РЕДАКТИРОВАТЬ 2: Кажется, это связано с пеплом. Я попытался создать zpool с ashift = 9 и вот результат:
# zfs list
NAME USED AVAIL REFER MOUNTPOINT
nas 99.9K 15.8T 35.9K /nas
# zpool list
NAME SIZE ALLOC FREE EXPANDSZ FRAG CAP DEDUP HEALTH ALTROOT
nas 21.8T 152K 21.7T - 0% 0% 1.00x ONLINE -
Восстановите 0,8 ТиБ, но потеря 0,5 ТиБ. Дополнительное снижение производительности записи.
Решение: во-первых, спасибо за вашу информацию. Для себя я не нашел правильного решения, но я решил использовать мой raidz с ashift = 12 (4k) для лучшей производительности и меньшей емкости. Между прочим, я также считаю, что использование жесткого диска в реальном физическом размере неплохо.