Я создал программный RAID 1 довольно давно, и мне всегда казалось, что он работает. Однако я не совсем уверен, что все настроил правильно и у меня нет опыта для проверки, поэтому я был бы очень признателен за совет или просто подтверждение того, что пока все выглядит правильно.

Я использую Linux Fedora 20 (32-битная с планами обновления до 64-битной). RAID 1 должен состоять из двух жестких дисков SATA емкостью 1 ТБ.

Это вывод mdadm --detail /dev/md0

/dev/md0:
        Version : 1.2
  Creation Time : Sun Jan 29 11:25:18 2012
     Raid Level : raid1
     Array Size : 976761424 (931.51 GiB 1000.20 GB)
  Used Dev Size : 976761424 (931.51 GiB 1000.20 GB)
   Raid Devices : 2
  Total Devices : 1
    Persistence : Superblock is persistent

    Update Time : Sat Jun  7 10:38:09 2014
          State : clean, degraded 
 Active Devices : 1
Working Devices : 1
 Failed Devices : 0
  Spare Devices : 0

           Name : argo:0  (local to host argo)
           UUID : 1596d0a1:5806e590:c56d0b27:765e3220
         Events : 996387

    Number   Major   Minor   RaidDevice State
       0       0        0        0      removed
       1       8        0        1      active sync   /dev/sda

RAID монтируется успешно:

friedrich@argo:~ ➤ sudo mount -l | grep md0
/dev/md0 on /mnt/raid type ext4 (rw,relatime,data=ordered)

В основном мой вопрос:

  • Почему у меня только 1 активное устройство?
  • Что означает государство, removed снизу?

Также я заметил некоторые странные сообщения об ошибках, которые я вижу в консоли при запуске и завершении работы системы и всегда повторяюсь в фоновом режиме, когда я переключаюсь с помощью Ctrl + Alt + F2:

...
ata2: irq_stat 0x00000040 connection status changed
ata2: SError: { CommWake DevExch }
ata2: COMRESET failed (errno=-32)
ata2: exception Emask 0x10 SAct 0x0 SErr 0x4040000 action 0xe frozen
ata2: irq_stat 0x00000040 connection status changed
ata2: SError: { CommWake DevExch }
ata2: exception Emask 0x10 SAct 0x0 SErr 0x4040000 action 0xe frozen
...

Связаны ли эти ошибки с RAID? Что-то не так с устройствами SATA .. Все вместе система работает (я могу читать и писать в смонтированный рейд), но у меня всегда были эти странные ошибки при закрытии запуска (вероятно, всегда в фоновом режиме).

Спасибо за вашу помощь

1 ответ1

0

Похоже, что один из дисков выпал из массива. На это указывает сначала removed состояние, которое вы уже заметили, а затем следующая строка:

State : clean, degraded

Вот что я бы сделал, если бы у меня была такая же проблема:

  • Внимательно dmesg по любой причине, почему диск выпал из массива. Вы можете попробовать с dmesg | grep md: и dmesg | grep sdb (я полагаю, что отсутствующий диск был sdb) и посмотрим, нет ли ошибок в журнале. Я предполагаю, что произошло то, что ваш диск был отключен через некоторое время, и он был удален из массива. Его можно было уронить по любой причине, например, из-за неисправных кабелей, поломки контроллера диска или другого.

  • Определите букву диска, который был удален из массива, и проверьте его с помощью smartctl на наличие проблем: smartctl -a /dev/disk0 . Ищите возможные ошибки в разделе WHEN_FAILED и START OF READ SMART DATA SECTION .

  • Если диск оказался исправным (ошибки не указаны), вы можете повторно добавить его в свой массив: mdadm -a /dev/md0 /dev/sdb . Вы можете отслеживать ход восстановления, выполнив команду cat /proc/mdstat .

Конечно, я бы посоветовал вам сделать резервную копию ваших данных, прежде чем делать что-либо из этого, так как выполнение неправильных команд может оставить вас без ваших данных!

Всё ещё ищете ответ? Посмотрите другие вопросы с метками .