Я использую Debian Jessie на рабочей станции VMWare с одним виртуальным жестким диском.

На /dev /sda1 у меня есть /boot на /dev /sda2 У меня есть / и на /dev /sda3 у меня есть swap и /dev /sda5 и /dev /sda6 у меня в зеркальном пуле ZFS (вместе около 4,7 ГБ) и Монтировали / home на zfs_pool / home все работает нормально, но у меня есть следующий сценарий: Емкость моего зеркального пула исчерпана, и я хочу увеличить емкость зеркального пула, но сначала: емкость моих виртуальных дисков.

ZFS

Как показано на рисунке выше, я расширяю виртуальный жесткий диск до 10 ГБ и с помощью gparted созданного раздела /dev /sda7 из zfs_pool я отсоединил /dev /sda5, подключил /dev /sda7 и переназначил данные из /dev /sda6 в /dev /sda7, а затем я тоже отключил /dev /sda6, потому что теперь я хочу увеличить емкость моего зеркального резервуара, мне нужно создать (из /dev /sda5 и /dev /sda6) один раздел и прикрепить его к /dev /sda7 как зеркало (это рекомендуемый способ увеличения емкости зеркального пула?)

Теперь мой пул не находится в зеркальном состоянии, он состоит только из /dev /sda7, но если я хочу удалить /dev /sda5 и /dev /sda6, мой раздел /dev /sda7 теперь будет иметь имя /dev /sda5, а когда я перезагрузка zfs не распознает мой пул, вот вывод zdb и из fdisk -l

ZDB и fdisk

Как вы можете видеть, путь по-прежнему /dev /sda7, но у меня есть /dev /sda5, где (я думаю) правильные данные, какое-нибудь решение для замены этого пути? Или просто создать только новый зеркальный пул с /dev /sda5 и /dev /sda6 из нераспределенного пространства?

Спасибо за ваш ответ и хорошего дня.

1 ответ1

1

Лучший способ увеличить емкость
Лучший способ увеличить емкость пула - добавить vdev в пул. Если это не так и вариант, то вы можете заменить диски в режиме resilver -> replace -> resilver .

Что случилось в вашей конфигурации:
Linux устанавливает имена разделов на основе количества разделов, в вашем случае у вас было 7 разделов, то есть имена sda1..7 . Но когда вы объединили два раздела, это уменьшило количество разделов, в результате чего появились имена sda1..5 . Вот почему стоит добавить диски на основе уникального идентификатора, так как в случае изменения имени sda ZFS все равно может его найти.

Как исправить эту проблему:
Если вы запустите zpool import он сможет найти ранее созданный пул в том, что было /dev/sda7 а теперь /dev/sda5 . Скорее всего, вы получите вывод, подобный следующему:

# zpool import

  pool: dozer
  id: 2704475622193776801
  state: ONLINE
  action: The pool can be imported using its name or numeric identifier.
  config:
    dozer       ONLINE
      c1t9d0    ONLINE

Если вы получаете эту первую попытку импорта по идентификатору пула с zpool import 2704475622193776801 . Если это не удастся, вам, возможно, придется переименовать пул, импортировав его в другое имя с помощью команды zpool import old_name new_name .

Примечание:
На вашей первой картинке zpool status показывает:

NAME:       STATE     READ  WRITE  CKSUM
zfs_pool    ONLINE       0      0      0
    sda7    ONLINE       0      0      0

В этом конфиге нет mirror vdev. Добавив новый объединенный раздел в этот пул, он будет не зеркально отражать диски, а, скорее, то, что называется dynamic stripe сути RAID 0 . Чтобы создать зеркало, вам, вероятно, потребуется воссоздать бассейн. Удачи, Надеюсь это поможет!

Источник:Импорт пулов хранения ZFS

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .