У нас есть рейд 10 с двумя отказавшими дисками, с одним диском от каждого набора, все еще работающего.
При загрузке в систему спасения метаданные кажутся в порядке и соответствуют ожидаемому состоянию.
Метаданные из mdadm --detail
о md следующие:
Version : 1.1
Creation Time : Mon Mar 16 15:53:57 2015
Raid Level : raid10
Used Dev Size : 975581184 (930.39 GiB 999.00 GB)
Raid Devices : 4
Total Devices : 2
Persistence : Superblock is persistent
Update Time : Mon May 28 08:52:58 2018
State : active, FAILED, Not Started
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Layout : near=2
Chunk Size : 512K
Name : 2
UUID : 34f4a5fa:4b8e03fa:3119b353:f45188a0
Events : 8618632
Number Major Minor RaidDevice State
0 8 1 0 active sync set-A /dev/sda1
1 8 17 1 active sync set-B /dev/sdb1
4 0 0 4 removed
6 0 0 6 removed
Система init не может собрать raid, а ядро утверждает, что зеркал недостаточно.
(...)
md/raid10:md2: not enough operational mirrors.
md: pers->run() failed ...
dracut: mdadm: failed to start array /dev/md2: Input/output error
(...)
Попытка собрать рейд вручную (mdadm --assemble --readonly --force /dev/md2 /dev/sd[ab]1
) приводит к следующему:
/dev/md2:
Version : 1.1
Raid Level : raid0
Total Devices : 1
Persistence : Superblock is persistent
State : inactive
Name : 2
UUID : 34f4a5fa:4b8e03fa:3119b353:f45188a0
Events : 8618632
Number Major Minor RaidDevice
- 8 1 - /dev/sda1
Проверка с помощью --examine
метаданных участвующих дисков дает нам согласованный вывод с ожидаемым состоянием (до ручной сборки и после):
/dev/sda1:
Magic : a92b4efc
Version : 1.1
Feature Map : 0x1
Array UUID : 34f4a5fa:4b8e03fa:3119b353:f45188a0
Name : 2
Creation Time : Mon Mar 16 15:53:57 2015
Raid Level : raid10
Raid Devices : 4
Avail Dev Size : 1951162368 (930.39 GiB 999.00 GB)
Array Size : 1951162368 (1860.77 GiB 1997.99 GB)
Data Offset : 262144 sectors
Super Offset : 0 sectors
Unused Space : before=262064 sectors, after=0 sectors
State : clean
Device UUID : 89288c87:2cf8f6cd:483328b4:fffb3db6
Internal Bitmap : 8 sectors from superblock
Update Time : Mon May 28 08:52:58 2018
Bad Block Log : 512 entries available at offset 72 sectors
Checksum : eaf59503 - correct
Events : 8618632
Layout : near=2
Chunk Size : 512K
Device Role : Active device 0
Array State : AAA. ('A' == active, '.' == missing, 'R' == replacing)
Мы знаем, что третий активный диск удален, но это не должно быть причиной проблемы.
Итак, два наших главных вопроса:
- Почему состояние массива несовместимо с отдельными дисками?
- Как это можно решить?
Для справки: CentOS 6 с ядром версии 2.6.32-696.30.1.el6.x86_64