У меня есть система с 10 дисками под управлением программного обеспечения Linux RAID с использованием RAID 6. Сегодня система перестала отвечать на запросы, и ее необходимо было отключить. Файловая система на RAID (обратите внимание, не корневая файловая система, которая находится на его собственном диске) в такте, и данные все еще там. Но я заметил во время загрузки это:
raid5: raid level 6 set md0 active with 9 out of 10 devices, algorithm 2
RAID5 conf printout:
--- rd:10 wd:9
disk 0, o:1, dev:sdb1
disk 2, o:1, dev:sdc1
disk 3, o:1, dev:sdd1
disk 4, o:1, dev:sde1
disk 5, o:1, dev:sdj1
disk 6, o:1, dev:sdi1
disk 7, o:1, dev:sdh1
disk 8, o:1, dev:sdg1
disk 9, o:1, dev:sdf1
md0: detected capacity change from 0 to 16003169779712
Первая часть меня не удивила, просто казалось, что диск выпал. Ничего страшного, RAID разработан, чтобы справиться именно с этим. Но это последнее касалось меня. Мне не понравился термин "изменение емкости" в моем RAID.
Как я уже говорил, файловая система в порядке. Без изменений:
Filesystem Type Size Used Avail Use% Mounted on
/dev/root ext4 73G 6.8G 63G 10% /
proc proc 0 0 0 - /proc
sysfs sysfs 0 0 0 - /sys
usbfs usbfs 0 0 0 - /proc/bus/usb
tmpfs tmpfs 1.7G 0 1.7G 0% /dev/shm
/dev/md0 xfs 15T 9.5T 5.2T 65% /mnt/data
Но /proc/mdstat
говорит это:
Personalities : [linear] [raid0] [raid1] [raid10] [raid6] [raid5] [raid4] [multipath]
md0 : active raid6 sdk1[10] sdi1[6] sdh1[7] sdg1[8] sdf1[9] sdj1[5] sdd1[3] sde1[4] sdb1[0] sdc1[2]
15628095488 blocks level 6, 64k chunk, algorithm 2 [10/9] [U_UUUUUUUU]
[>....................] recovery = 0.7% (15060864/1953511936) finish=2053.3min speed=15733K/sec
unused devices: <none>
Обратите внимание на [10/9]
. Я видел, как говорят [9/10]
когда диск по ошибке выпал раньше. И после повторной синхронизации он вернулся к [10/10]
как и ожидалось. Но значит ли это что-то другое? Есть ли что-то еще, что нужно сделать, кроме как позволить этому закончить? Массив RAID каким-то образом изменил свою форму?