Я проснулся этим утром, чтобы найти письмо от моего хоста RAID (программный RAID для Linux), в котором сообщалось, что диск вышел из строя. Это потребительское оборудование, это не имеет большого значения. У меня холодные запчасти. Однако, когда я добрался до сервера, все это не отвечало. В какой-то момент я решил, что у меня нет выбора, кроме как отключить питание и перезапустить.
Система загрузилась, неисправный диск по-прежнему помечается как неисправный, /proc/mdstat
выглядит правильно. Тем не менее, он не будет монтировать /dev/md0
и говорит мне:
mount: /dev/md0: can't read superblock
Теперь я начинаю беспокоиться. Поэтому я пробую xfs_check
и xfs_repair
, первый из которых говорит мне:
xfs_check: /dev/md0 is invalid (cannot read first 512 bytes)
и последний:
Phase 1 - find and verify superblock...
superblock read failed, offset 0, size 524288, ag 0, rval 0
fatal error -- Invalid argument
Теперь мне страшно. До сих пор мой поиск в Google был безрезультатным. Сейчас я еще не нахожусь в режиме паники, потому что раньше мне было страшно, и это всегда решалось в течение нескольких дней. Я все еще могу вставить мой холодный запасной сегодня вечером, позволить ему восстановить (в течение 36 часов), а затем посмотреть, находится ли файловая система в более пригодном для использования состоянии. Может быть, я даже могу попытаться изменить массив до 10 дисков из текущих 11 (поскольку я еще не увеличил файловую систему) и посмотреть, помогает ли это (что занимает большую часть недели).
Но пока я на работе, прежде чем я смогу сделать что-нибудь из этого дома сегодня вечером, я бы хотел обратиться за помощью к экспертам.
Кто-нибудь более осведомленный о файловых системах и RAID имеет какие-либо рекомендации? Может быть, я могу сделать что-то еще по SSH для дальнейшей диагностики проблемы с файловой системой, или даже исправить ее?
Редактировать:
Похоже, что /proc/mdstat
предлагает подсказку:
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : inactive sdk1[10] sdh1[7] sdj1[5] sdg1[8] sdi1[6] sdc1[2] sdd1[3] sde1[4] sdf1[9] sdb1[0]
19535119360 blocks
inactive
? Поэтому я пытаюсь собрать массив:
# mdadm --assemble /dev/md0 /dev/sdb1 /dev/sdc1 /dev/sdd1 /dev/sde1 /dev/sdf1 /dev/sdg1 /dev/sdh1 /dev/sdi1 /dev/sdj1 /dev/sdk1
mdadm: device /dev/md0 already active - cannot assemble it
Это уже активно? Хотя /proc/mdstat
говорит мне, что он неактивен?