3

У нас есть рейд 10 с двумя отказавшими дисками, с одним диском от каждого набора, все еще работающего.

При загрузке в систему спасения метаданные кажутся в порядке и соответствуют ожидаемому состоянию.

Метаданные из mdadm --detail о md следующие:

  Version : 1.1
  Creation Time : Mon Mar 16 15:53:57 2015
     Raid Level : raid10
  Used Dev Size : 975581184 (930.39 GiB 999.00 GB)
   Raid Devices : 4
  Total Devices : 2
    Persistence : Superblock is persistent

    Update Time : Mon May 28 08:52:58 2018
          State : active, FAILED, Not Started 
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

         Layout : near=2
     Chunk Size : 512K

           Name : 2
           UUID : 34f4a5fa:4b8e03fa:3119b353:f45188a0
         Events : 8618632

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync set-A   /dev/sda1
       1       8       17        1      active sync set-B   /dev/sdb1
       4       0        0        4      removed
       6       0        0        6      removed

Система init не может собрать raid, а ядро утверждает, что зеркал недостаточно.

(...)
md/raid10:md2: not enough operational mirrors.
md: pers->run() failed ...
dracut: mdadm: failed to start array /dev/md2: Input/output error
(...)

Попытка собрать рейд вручную (mdadm --assemble --readonly --force /dev/md2 /dev/sd[ab]1) приводит к следующему:

/dev/md2:
        Version : 1.1
     Raid Level : raid0
  Total Devices : 1
    Persistence : Superblock is persistent

          State : inactive

           Name : 2
           UUID : 34f4a5fa:4b8e03fa:3119b353:f45188a0
         Events : 8618632

    Number   Major   Minor   RaidDevice

       -       8        1        -        /dev/sda1

Проверка с помощью --examine метаданных участвующих дисков дает нам согласованный вывод с ожидаемым состоянием (до ручной сборки и после):

/dev/sda1:
          Magic : a92b4efc
        Version : 1.1
    Feature Map : 0x1
     Array UUID : 34f4a5fa:4b8e03fa:3119b353:f45188a0
           Name : 2
  Creation Time : Mon Mar 16 15:53:57 2015
     Raid Level : raid10
   Raid Devices : 4

 Avail Dev Size : 1951162368 (930.39 GiB 999.00 GB)
     Array Size : 1951162368 (1860.77 GiB 1997.99 GB)
    Data Offset : 262144 sectors
   Super Offset : 0 sectors
   Unused Space : before=262064 sectors, after=0 sectors
          State : clean
    Device UUID : 89288c87:2cf8f6cd:483328b4:fffb3db6

Internal Bitmap : 8 sectors from superblock
    Update Time : Mon May 28 08:52:58 2018
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : eaf59503 - correct
         Events : 8618632

         Layout : near=2
     Chunk Size : 512K

   Device Role : Active device 0
   Array State : AAA. ('A' == active, '.' == missing, 'R' == replacing)

Мы знаем, что третий активный диск удален, но это не должно быть причиной проблемы.

Итак, два наших главных вопроса:

  1. Почему состояние массива несовместимо с отдельными дисками?
  2. Как это можно решить?

Для справки: CentOS 6 с ядром версии 2.6.32-696.30.1.el6.x86_64

0