6

Мне нужно создать сервер, который будет использоваться исключительно для резервного копирования файлов. Сервер будет иметь 2 ТБ хранилища RAID-5 для начала, но я, возможно, захочу добавить дополнительное хранилище позже. Поэтому в настоящее время я рассматриваю возможность использования FreeBSD + ZFS в качестве операционной системы и файловой системы.

Кто-нибудь может указать на сценарии, где они используют ZFS в производственной среде и удовлетворены своим выбором? Я читал, что ZFS следует использовать с OpenSolaris поверх FreeBSD, так как OpenSolaris обычно опережает ZFS в плане обновления версий и стабильности. Тем не менее, я не заинтересован в использовании OpenSolaris для этого проекта.

Альтернативный вариант, который я рассматриваю, состоит в том, чтобы придерживаться ext3 и создавать несколько томов, если это необходимо, потому что я знаю, что мне не понадобится один непрерывный том объемом более 2 ТБ.

Заранее спасибо за ваш отзыв.

3 ответа3

4

Я использовал FreeBSD 8.0, а затем снимок 8.0-stable-February 2010, чтобы экспериментировать с ZFS в течение нескольких месяцев. В системе имеется пара независимых 4-х дисковых пулов RAIDZ1. Поначалу казалось, что все идет более-менее идеально, хотя я столкнулся с некоторыми все более тревожными проблемами, которые заставляют меня думать, что в некоторых конкретных обстоятельствах и конфигурациях может быть целесообразно избегать такой настройки. Моя первая проблема не обязательно связана со стабильностью / функциональностью не самих FreeBSD / ZFS, а скорее с надежностью и функциональностью некоторых драйверов устройств и дисководов в FreeBSD. Я обнаружил, что драйвер ata / ide по умолчанию не поддерживает используемый мной контроллер, но у драйвера хранилища образов siis Silicon была необходимая поддержка SATA для умножения портов, чтобы приводы работали с FreeBSD 8. Однако, при более внимательном рассмотрении, код драйвера на самом деле не готов к работе, ИМХО - он не изящно обработал первое связанное с диском мягкое состояние ошибки / тайм-аута / повторной попытки, которое заставило диск в массиве сделать что-то вроде задержки, отвечающей на несколько десятков секунд. Я не знаю точно, что произошло, но массиву потребовалось около минуты для тайм-аута, сброса и восстановления, в течение которого каждый диск в массиве был «потерян» из рабочего состояния и привел к неисправимой ошибке данных на более высоком уровне файловой системы. AFAICT, даже сопровождающий драйвера SIIS, говорит, что таймаут / обработка сброса драйвера еще не полностью завершены / устойчивы / оптимизированы. Справедливо, но суть в том, что независимо от того, насколько хороша ОС или ZFS, если у вас ненадежный дисковод, контроллер или драйвер, он, безусловно, может разрушить все операции в достаточной степени, что приведет к фатальным ошибкам и потере данных, несмотря на ZFS. Также кажется, что запросы диагностики SMART не работают с этим конкретным драйвером контроллера. Что касается того, что вызвало ошибку .. Слезные диски Seagate / прошивки? Я не знаю, но наличие ошибки одного диска приводит к «отказу» всего массива, несмотря на то, что RAIDZ разрушает весь смысл надежности RAIDZ. Поведение после проблемы с zpool scrup / zpool status et. и др. было также немного подозрительно, и не совсем понятно, правильно ли работал этот процесс диагностики / восстановления на уровне ZFS / ZPOOL; конечно, я получил несколько смешанных сообщений о статусах ошибок и их очистке и т.д. и др. Признаки ошибок вроде как исчезли после перезагрузки, несмотря на отсутствие явной команды zpool clear; возможно, это и было задумано, но если это так, то это не было предложено выводом статуса zpool.

Потенциально, что-то более серьезное, кажется, что-то НЕМНОГО пошло не так во время работы после нескольких дней безотказной работы, когда большие части массива, содержащие несколько файловых систем (ZFS), просто "исчезли" из списка в (ls) и из-за обычного доступа ввода-вывода , IIRC df -h, ls и т.д. Не сообщали о файловых системах, даже если они существовали, тогда как состояние zpool list / zpool продолжало указывать ожидаемый объем использованного хранилища в пуле, но это не учитывалось ни одним из перечисленных подключенных или несмонтированные файловые системы. / var / log / messages не содержала никаких сообщений об ошибках, и операции до этой проблемы проходили совершенно нормально. Состояние zpool list / zpool не указывает на проблемы с пулом. Произошел сбой zfs unmount -a с указанием "занято" без видимой причины, касающейся интерактивного использования в течение нескольких минут, прежде чем отключится последняя из смонтированных файловых систем zfs. Перезагрузка и перепроверка / var / log / messages, статус zpool, список zpool не были информативными для какой-либо проблемы. Ранее отсутствовавшие файловые системы фактически перемонтировались, когда их просили сделать это вручную, и первоначально казалось, что они содержат правильное содержимое, но примерно через минуту после установки различных систем zfs в пуле было отмечено, что некоторые из них снова неожиданно исчезли. Возможно, что я сделал что-то не так с определением файловых систем zfs и каким-то образом вызвал проблему, но в настоящий момент я нахожу необъяснимым, что работающая система, выполняющая ввод-вывод в различные каталоги zfs, может внезапно потерять представление обо всей файловые системы, которые прекрасно работали минуты / часы / дни назад без каких-либо промежуточных команд sysadmin для изменения базовой конфигурации zpool / zfs.

Конечно, я использую стабильный моментальный снимок Feb'10, который НЕ рекомендуется для производственного использования, но опять же несколько стабильных исправлений известных проблем ZFS/ хранилища были добавлены в стабильную ветвь начиная с версии 8.0, поэтому запуск версии 8.0 может быть неудовлетворительный с точки зрения надежности / функций из-за этих проблем для некоторых людей.

В любом случае, всего несколько недель довольно легкого тестирования привели к достаточно потенциально катастрофическим проблемам с надежностью / функциональностью, не все из которых, по-видимому, связаны с конкретными недостатками накопителей / контроллеров / драйверов, которые я осторожно доверяю FBSD 8.0 + ZFS для производственной / надёжной работы без тщательно контролируемой конфигурации аппаратного и программного обеспечения и стратегии автономного резервного копирования.

OpenSolaris сейчас вообще не нужен, IMHO, даже если вы хотели его запустить - на самом деле существуют серьезные известные проблемы с дедупликацией zfs, которые в значительной степени делают его непригодным к использованию, и, как кажется, из-за этих и других проблем рекомендуется ждать еще несколько версий патчей, прежде чем доверять OpenSolaris+ZFS, особенно с системой дедупликации. B135/B136, похоже, просто отсутствуют без релиза, наряду с основным выпуском ОС 2010.03. Кто-то говорит, что Oracle просто не знает, что делать с расписанием, но что ожидаемые коды будут выпущены с опозданием, в то время как другие задаются вопросом, увидим ли мы когда-нибудь полный набор ожидаемых функций в разработке от Sun в виде будущих версий с открытым исходным кодом. Oracle дал переход в собственность / лидерство / управление.

ИМХО, я бы придерживался только создания зеркал, и только с очень хорошо проверенными / стабильными драйверами контроллера хранилища и моделей дисководов для оптимальной надежности ZFS под FreeBSD 8, и я бы, вероятно, подождал 8.1 даже в этом случае.

3

Последние два года я пользуюсь FreeBSD+ZFS с объемом хранения более 2 ТБ без каких-либо проблем. Однако я предлагаю вам использовать FreeBSD 8 (amd64), которая поддерживает ZFS версии 13.

2

Вы могли бы основать свое решение на одном: какие функции вам нужны и какие есть в реализации zfs freebsd?

http://wiki.freebsd.org/ZFS очень хорошо указывает на открытые вопросы.

(Например, на момент написания этого, fbsd не поддерживает iscsi на zfs, как кажется. Поскольку вы хотите использовать свой ящик в качестве хранилища / резервной копии и, возможно, у вас есть летающее яблоко ... им нравится iscsi, особенно для машина времени)

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .