У меня есть массив RAID0, созданный с использованием mdadm в Debian. sdf - диск, который умер.
$ cat /proc/mdstat
md4 : active raid0 sdf1[1] sde1[0]
468859904 blocks super 1.2 512k chunks
$ mdadm --misc --detail /dev/md4
/dev/md4:
Version : 1.2
Creation Time : <...>
Raid Level : raid0
Array Size : 468859904 (447.14 GiB 480.11 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Update Time : <...>
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Chunk Size : 512K
Name : server:4 (local to host server)
UUID : <...>
Events : 0
Number Major Minor RaidDevice State
0 8 65 0 active sync /dev/sde1
1 8 81 1 active sync
$ file /dev/sdf
/dev/sdf: ERROR: cannot open `/dev/sdf' (No such file or directory)
$ tail /var/log/messages
Feb 24 08:03:32 server kernel: [33166523.696833] sd 0:0:5:0: [sdf] CDB: Write(10): 2a 00 05 e0 88 50 00 00 30 00
Feb 24 08:03:32 server kernel: [33166523.696903] sd 0:0:5:0: [sdf] Device not ready
Feb 24 08:03:32 server kernel: [33166523.696906] sd 0:0:5:0: [sdf] Result: hostbyte=DID_OK driverbyte=DRIVER_SENSE
Feb 24 08:03:32 server kernel: [33166523.696909] sd 0:0:5:0: [sdf] Sense Key : Not Ready [current]
Feb 24 08:03:32 server kernel: [33166523.696912] sd 0:0:5:0: [sdf] Add. Sense: Logical unit not ready, cause not reportable
Feb 24 08:03:32 server kernel: [33166523.696916] sd 0:0:5:0: [sdf] CDB: Write(10): 2a 00 05 e0 88 90 00 00 08 00
Вещи примечания:
Сообщение в /var /log /messages повторяется сотни раз в течение пары минут, а затем останавливается.
mdadm не считает, что массив вышел из строя.
Пустое место в нижней части
mdadm --misc --detail /dev/md4
где должен быть /dev /sdf1.Блочное устройство /dev /sdf больше не существует.
Я не могу вручную пометить диск как сбойный в массиве, потому что /dev /sdf не существует.
В результате того, что mdadm подумал, что с массивом все в порядке, я так и не получил предупреждение о том, что диск вышел из строя. Что может вызвать это?