3

Я использую OMV 3.0.99 на моем NAS. Я установил RAID5 (с mdadm), содержащий три диска WD RED емкостью 5 ТБ. Я настроил RAID с использованием графического интерфейса OMV в тот же день (2016).

Недавно один из дисков вышел из строя (раньше это был /dev /sdd). Когда я вернулся домой, я заметил, что при запуске он издает странные звуки и больше не распознается в LINUX. Устройство, кажется, физически сломано, и я настроил RMA, так как у меня все еще есть гарантия на диски. Теперь я жду замены диска и спрашиваю себя, что мне делать, когда новый диск будет здесь, чтобы восстановить мой RAID.

Некоторые заметки на моих дисках:

  1. /dev/sda - мой системный диск
  2. RAID содержит диски /dev/sdb, sdc и sdd. Диск /dev/sdd вышел из строя и был физически удален из корпуса NAS.
  3. Теперь /dev/sdd был назначен на мой резервный диск (раньше он был sde до сбоя RAID-диска)

Вот несколько важных выводов моей системы:

uname -a вывод

Linux homenas 4.9.0-0.bpo.6-amd64 #1 SMP Debian 4.9.88-1+deb9u1~bpo8+1 (2018-05-13) x86_64 GNU/Linux

cat /proc/mdstat:

Personalities : [raid6] [raid5] [raid4] 
md127 : active raid5 sdb[0] sdc[1]
        9767278592 blocks super 1.2 level 5, 512k chunk, algorithm 2 [3/2] [UU_]
unused devices: <none>

blkid:

/dev/sda1: UUID="911053a9-f06c-4479-becb-cb8faa2a5783" TYPE="ext4" PARTUUID="2c92f843-01"
/dev/sda5: UUID="28ae7474-1d14-48a6-9e8e-2ed31e060803" TYPE="swap" PARTUUID="2c92f843-05"
/dev/sdb: UUID="bb8b3798-d160-71b4-cc60-bc8fdc8e0761" UUID_SUB="e52bb12c-23e1-7c8f-a7f7-d52d4b2b46a9" LABEL="HomeNAS:NAS" TYPE="linux_raid_member"
/dev/sdc: UUID="bb8b3798-d160-71b4-cc60-bc8fdc8e0761" UUID_SUB="d9eac207-7167-d19e-c1de-8c7525b77d48" LABEL="HomeNAS:NAS" TYPE="linux_raid_member"
/dev/sdd1: UUID="523cffe7-115d-49b4-95e0-7549aecdf064" TYPE="ext4" PARTUUID="fba4a7ee-026a-497f-9b3d-bbdec92cb0d6"
/dev/md127: UUID="bd5ef96f-5587-4211-95c0-10219985ff6d" TYPE="ext4"

fdisk -l | grep "Disk ":

Disk /dev/sda: 29,8 GiB, 32017047552 bytes, 62533296 sectors
Disk identifier: 0x2c92f843
Disk /dev/sdb: 4,6 TiB, 5000981078016 bytes, 9767541168 sectors
Disk /dev/sdc: 4,6 TiB, 5000981078016 bytes, 9767541168 sectors
Disk /dev/sdd: 1,8 TiB, 2000394706432 bytes, 3907020911 sectors
Disk identifier: C0401C51-A74A-4675-935E-AF9BF6706166
Disk /dev/md127: 9,1 TiB, 10001693278208 bytes, 19534557184 sectors

cat /etc/mdadm/mdadm.conf:

# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
        ​
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
# Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
# To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
# used if no RAID devices are configured.
DEVICE partitions

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# definitions of existing MD arrays
ARRAY /dev/md/NAS metadata=1.2 name=HomeNAS:NAS UUID=bb8b3798:d16071b4:cc60bc8f:dc8e0761
​
# instruct the monitoring daemon where to send mail alerts
MAILADDR <<<<REMOVED FOR PRIVACY RESONS>>>>

mdadm --detail --scan --verbose:

ARRAY /dev/md127 level=raid5 num-devices=3 metadata=1.2 name=HomeNAS:NAS UUID=bb8b3798:d16071b4:cc60bc8f:dc8e0761
      devices=/dev/sdb,/dev/sdc

mdadm --detail /dev/md127:

/dev/md127:
          Version : 1.2
Creation Time : Sat Mar 12 17:22:49 2016
       Raid Level : raid5
       Array Size : 9767278592 (9314.80 GiB 10001.69 GB)
  Used Dev Size : 4883639296 (4657.40 GiB 5000.85 GB)
   Raid Devices : 3
  Total Devices : 2
    Persistence : Superblock is persistent
        ​
            Update Time : Sun Jan 27 13:11:42 2019
                  State : clean, degraded 
         Active Devices : 2
        Working Devices : 2
         Failed Devices : 0
          Spare Devices : 0
        ​
                 Layout : left-symmetric
             Chunk Size : 512K
        ​
                   Name : HomeNAS:NAS
                   UUID : bb8b3798:d16071b4:cc60bc8f:dc8e0761
                 Events : 305
        ​
            Number   Major   Minor   RaidDevice State
               0       8       16        0      active sync   /dev/sdb
               1       8       32        1      active sync   /dev/sdc
               4       0        0        4      removed

Я искал в Интернете и нашел разные шаги, но я не знаю, какие необходимы в моей ситуации:

  1. пометить диск как сбойный
  2. удалить диск из массива
  3. скопировать таблицу разделов одного оставшегося диска массива на новый сменный диск
  4. повторно добавить диск в массив (-> будет автоматически перестроен)

Так как диск полностью вышел из строя и больше не присутствовал в Linux, я не мог пометить его как сбойный и удалить его из массива. Я нашел следующую команду для удаления диска из массива, которого больше нет:mdadm /dev/md127 -r detached

Рекомендуется ли использовать эту команду перед установкой нового диска? Или нет необходимости удалять диск из массива в моем случае?

Буду очень признателен за ваше руководство! заранее спасибо

1 ответ1

3

В основном это просто

mdadm /dev/md127 --add /dev/newdrive

а затем watch cat /proc/mdstat и / или dmesg -w для восстановления или сбоя восстановления.

Чем раньше вы добавите новый диск в массив, тем лучше. Если во время ожидания произойдет сбой другого диска, все. Если у вас нет резервной копии ваших данных, сделайте один как можно скорее.

Обычно вы сначала создаете таблицу разделов на диске, а затем используете раздел для RAID, а не диск напрямую. Но в вашем случае это невозможно, поскольку в вашем массиве уже есть неразмеченные диски, и при добавлении таблицы разделов размер больше не будет соответствовать.

Работа дисков без таблицы разделов является потенциальной причиной потери данных. Слишком много программного обеспечения, которое услужливо создает для вас таблицу разделов, если она не видна, также легко сделать это самостоятельно.

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .