2

В выходные я получил несколько электронных писем с нашего сервера сетевого хранения (просто специальный ящик с программным обеспечением 1 для дисков CentOS 5 и 2 ТБ), указывающий, что SMART обнаружил проблемы с одним из дисков.

Я сделал статус, и 2 из набитых разделов были отмечены как неудавшиеся:

    [root@aapsan01 ~]# cat /proc/mdstat
Personalities : [raid1]
md1 : active raid1 sdb1[1] sda1[0]
      104320 blocks [2/2] [UU]

md0 : active raid1 sdb3[1] sda3[2](F)
      4064320 blocks [2/1] [_U]

md3 : active raid1 sdb5[1] sda5[0]
      1928860160 blocks [2/2] [UU]

md2 : active raid1 sdb2[1] sda2[2](F)
      20482752 blocks [2/1] [_U]

Итак, я установил все разделы sda на «не удалось», успешно удалил все зеркала sda, вставил новый (2 ТБ) идентичный диск (после выключения) и загрузился. Теперь я не могу войти в систему, потому что сообщения об ошибках продолжают повторяться после достижения массива raid md: autodetect во время процесса загрузки. Сначала ошибки были примерно такими:

  DRDY err (UNC) -- exception emask media error

Теперь я получаю ошибки ввода / вывода. Я попытался удалить поврежденный диск, а затем снова подключить его. То же шоу. Обзоры, которые я нашел, показывают, что это простой процесс восстановления. Что дает? Кто-нибудь сталкивался с чем-нибудь подобным? Кажется, что процесс загрузки все еще продолжается, хотя на каждый шаг уходит целая вечность. Кому-нибудь приходилось так долго ждать, чтобы добраться до подсказки? Надеюсь, если я не смогу получить подсказку, я смогу куда-нибудь добраться с помощью спасательного диска.

3 ответа3

1

Посмотрите на md2 - у него есть два раздела в массиве, перечисленных в порядке [sdb2] [sda2], а статус пары указан как [_U], что означает, что первый раздел ([sdb2]) выпал из пары , Прочитайте здесь: http://www.howtoforge.com/replacing_hard_disks_in_a_raid1_array. Надеюсь, вы все разберетесь.

0

Я дурачок Я неправильно идентифицировал неисправный диск и пытался использовать его в процессе восстановления. Для тех, кто заинтересован, вы можете использовать lshal, чтобы получить з / п плохого диска. перенаправьте вывод lshal в файл журнала, а затем найдите sda sdb или любой другой mdadm или SMART, идентифицированный как плохой.

0

Следуя ответу Linker3000, содержимое диска, который вы сначала удалили, должно быть в порядке. Удалите диск, который, как вы теперь знаете, на самом деле сломан, и попробуйте начать с одного только хорошего диска. Существует небольшая вероятность того, что md пометил ваш исправный диск как отставший, когда вы повторно добавили его с имеющимся сломанным диском. В этом случае вам нужно начать с живого CD/USB и повторно активировать ваш RAID. После того, как ваша система будет работать нормально, вы можете начать заново с обычных шагов, чтобы добавить новый диск в ваш RAID 1s.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .