У меня были постоянные проблемы с использованием внешних массивов жестких дисков под CentOS 7, независимо от того, были ли они подключены через соединение USB3 или eSATA, где в формате данных использовалась единая избыточность в массиве из 5 дисков. У одинаковых накопителей и внешнего корпуса никогда не возникало проблем в конфигурации с полосой или зеркалом.

Пояснение к @Attie: Под этим я подразумеваю, что у меня постоянно работает полоса raid0 на 5 одинаковых дисках в одинаковом корпусе, подключенном к идентичной интерфейсной карте на сервере.Это составило пул хранения объемом 5 ГБ, в котором на сегодняшний день нет событий офлайн или повреждения. Резервный массив 4 ГБ с четностью 1 ГБ. Зеркало состояло из двух дисков с горячим резервом, использующих сначала RAID1, а затем зеркало zfs.

Я могу работать с полосой на полной скорости без проблем. Я могу экспортировать пул zfs из избыточного массива и запустить, скажем, badblocks на каждом диске в этом массиве одновременно и не видеть никаких признаков проблемы.

Симптом, по-видимому, заключается в том, что все диски отключаются одновременно, и контроллер массива (md или zfs) думает, что произошел катастрофический сбой диска, и он не справился.

Общим знаменателем является формат данных, но симптом, похоже, не соответствует износу диска. Симптом вместо этого предлагает прерывания соединения между коробкой диска на сервер.

Я видел некоторые предположения о дисках с ограничением RAID, однако я не знаю, как диск знает, что он находится в RAID, и что это меняет в отношении его предела. Я также видел некоторые упоминания на форумах «Ах, я вижу, что вы используете WD Reds», однако я не смог найти его снова в качестве ссылки здесь.

Есть ли что-то интенсивное в том, как RAID5 и zraid1 работают с жесткими дисками, до такой степени, что однокабельное соединение могло бы быть сброшено или мгновенно отключено? Есть ли обходной путь для этого условия?

  • Технические характеристики накопителя: 1 ТБ WD Red WD10EFRX SATA 3.5
  • Чип мультиплексора коробки привода eSATA: SiI 3726
  • Чип сервера eSATA: SiI 3132
  • USB3 накопитель: ICY BOX IB-3810U3
    • Чип мультиплексора: ASMedia ASM1074L
  • Серверная материнская плата USB3 хоста: Gigabyte GA-B85-HD3 SKT 1150

Вопросы, связанные с данной: Внешне подключенный пул ZFS зависает, никаких признаков ошибок на дисках

1 ответ1

0

Я видел ваши другие вопросы об этом приложении ... это может быть не совсем стандарт "ответа", но это слишком много для комментария.

Пожалуйста, вы можете уточнить ваши комментарии:

  • Вы использовали 5x полоску диска? (какой был размер полосы?)
  • Сколько дисков было задействовано в зеркале?
  • Вы пробовали установку типа RAID10?

Если вы просто вставите 5x диски в корпус и попытаетесь получить к ним доступ одновременно, вы видите похожие проблемы?

Например, попробуйте следующее (корректируя соответствующим образом):

for disk in /dev/sd{a,b,c,d,e}; do
    dd if=${disk} of=/dev/null bs=512 count=4G iflag=count_bytes &
done
wait

Это позволит одновременно получить доступ ко всем 5x дискам с блоками по 512 байт, читая первые 4 ГБ.

Как насчет записи на отдельные диски?

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .